首页
/ oneDNN项目在AArch64架构下的卷积量化测试失败问题分析

oneDNN项目在AArch64架构下的卷积量化测试失败问题分析

2025-06-18 11:06:23作者:袁立春Spencer

问题背景

在oneDNN项目最近的量化重构工作后,开发团队发现AArch64架构的持续集成测试中出现了一个卷积单元测试失败的情况。该问题出现在test_graph_unit_dnnl_convolution_cpu测试套件中的ConvBiasAddEltwise测试用例中,具体表现为计算结果与预期参考值之间存在微小差异。

问题表现

测试失败的具体差异如下:

  • 实际计算结果(dst[i]): -0.072591752
  • 预期参考值(param.ref_dst[I]): -0.072591871

虽然数值差异非常小(约1.19e-7),但已经超出了测试允许的容差范围,导致测试失败。这个问题在AArch64架构的c7g AWS实例上可稳定复现。

技术分析

这个问题出现在最近的量化重构提交(af1410c2)之后,表明与量化计算流程的修改有关。从技术角度看,这种微小的数值差异可能源于以下几个方面的变化:

  1. 量化计算精度变化:重构可能改变了量化过程中的舍入方式或计算顺序
  2. 硬件特性差异:AArch64架构的浮点计算单元可能与x86架构存在细微差异
  3. 测试容差设置:当前的测试容差可能没有充分考虑不同硬件架构下的计算差异

解决方案思路

针对这类问题,通常有以下几种解决方向:

  1. 调整测试容差:适当放宽测试的数值比较容差,考虑硬件差异
  2. 优化量化算法:确保量化过程在不同架构下的一致性
  3. 架构特定优化:为AArch64架构实现特定的量化计算路径

问题影响

虽然数值差异很小,但这种测试失败会影响:

  • 持续集成流程的稳定性
  • 跨平台兼容性的信心
  • 量化功能的可靠性验证

结论

这个问题的出现提醒我们在进行量化相关优化时,需要特别注意跨平台兼容性。对于深度学习框架而言,微小的数值差异虽然可能不影响整体模型效果,但会破坏测试的确定性。建议开发团队在修复此问题时,不仅要解决当前测试失败,还应考虑建立更健壮的跨平台数值比较机制。

对于AArch64平台的用户,在问题修复前可以暂时忽略这个特定测试用例的失败,因为它不会影响主要功能的正确性。开发团队已经确认会优先处理这个问题,确保量化功能在所有支持平台上都能稳定工作。

登录后查看全文
热门项目推荐
相关项目推荐