Wycheproof项目中Ascon-80pq测试向量标签错误问题分析
问题背景
在密码学实现验证过程中,测试向量(test vectors)是确保算法实现正确性的重要工具。Wycheproof作为一个广泛使用的密码学测试套件,其测试向量被开发者用来验证各种密码算法的实现。然而,近期有开发者发现Wycheproof中Ascon-80pq算法的测试向量存在标签(tag)不匹配的问题。
问题现象
开发者在实现Ascon-80pq算法时,使用Wycheproof的测试向量进行验证时发现,虽然密文部分匹配,但认证标签部分与预期结果不符。例如,在测试向量84中:
- 预期标签:e32cd6424cab0c59c528db6f70b81a86
- 实际计算结果:ccd345de03169a3e5c2cc27c58c43a62
这一问题不仅出现在开发者自己的实现中,在使用Ascon官方参考实现(包括C和Python版本)进行验证时,同样得到了与Wycheproof不一致的结果。
技术分析
Ascon-80pq是Ascon认证加密算法家族的一个变种,与其他版本相比,它在密钥长度和某些内部处理上有所不同。根据密码学专家的分析,问题很可能出在算法的"最终化"(finalization)阶段。
认证加密算法通常包含以下几个阶段:
- 初始化(Initialization)
- 关联数据处理(Associated Data Processing)
- 明文加密/密文解密
- 最终化(Finalization)生成认证标签
在Ascon-80pq的实现中,最终化阶段需要与其他版本有所区别的特殊处理。Wycheproof测试向量生成时可能没有正确考虑这一差异,导致生成的预期标签值不正确。
影响范围
这一问题影响了Wycheproof中所有标记为"Pseudorandom"的Ascon-80pq测试向量。开发者在使用这些测试向量验证实现时,会误认为自己的实现存在问题,而实际上可能是测试向量本身有误。
解决方案
对于依赖Wycheproof进行算法验证的开发者,建议:
- 优先使用官方参考实现提供的测试向量进行验证
- 对于Wycheproof的测试结果,可以交叉验证多个来源
- 关注算法规范文档中对不同变种特殊处理的说明
结论
测试向量在密码学实现验证中至关重要,但即使是广泛使用的工具如Wycheproof也可能存在错误。开发者在使用测试向量时应当保持批判性思维,当发现不一致时,应多方验证并参考官方实现。对于Ascon-80pq算法,目前可以确认Wycheproof中的标签值存在问题,建议开发者以官方参考实现的结果为准。
这一案例也提醒我们,在密码学工程实践中,理解算法细节比单纯依赖测试工具更为重要,特别是在处理算法变种时,需要特别注意规范中指出的差异点。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00