Proxmark3中MF0ULX1标签OTP页写入机制的研究与修复
背景介绍
在RFID安全研究中,Proxmark3作为一款开源的RFID研究工具,其标签模拟功能对于安全测试和研究至关重要。近期在使用Proxmark3模拟MF0ULX1标签(即MIFARE Ultralight EV1)时,发现了一个关于一次性可编程(OTP)页写入机制的重要问题。
问题发现
研究人员在使用Vizit读卡器时发现,该读卡器具有针对克隆标签和模拟器的检测机制。具体表现为读卡器会执行以下验证流程:
- 读取OTP页当前值
- 尝试写入全零值(00 00 00 00)
- 再次读取OTP页验证
- 将原始值写回
根据NXP官方MF0ULX1数据手册的说明,OTP页的写入机制是位或(bit-wise OR)操作,且具有不可逆特性——一旦某位被设置为1,就不能再改回0。这种机制被读卡器用来检测模拟器。
问题分析
Proxmark3在模拟MF0ULX1标签时,OTP页的写入实现存在缺陷:
- 错误地允许了"归零"操作(接受全零写入)
- 没有正确实现位或操作的不可逆特性
- 导致模拟器无法通过读卡器的验证机制
对比原始标签和Flipper Zero工具的行为,可以确认这是Proxmark3实现上的问题。原始标签会拒绝这种无效的写入尝试,而Proxmark3错误地接受了写入并修改了内存中的OTP值。
技术细节
MF0ULX1标签的OTP页(通常为第3页)具有特殊的写入规则:
- 写入操作实际上是位或操作
- 任何写入都会与现有值进行位或运算
- 结果值将永久保留,无法撤销
- 这种机制确保OTP页只能被"烧录"(从0变1),而不能被"擦除"(从1变0)
这种特性常被用于防克隆机制,因为模拟器如果未正确实现这一特性,就会被检测出来。
修复方案
开发团队通过以下方式修复了这个问题:
- 在写入OTP页时增加了验证逻辑
- 确保只允许"烧录"操作(将0变为1)
- 拒绝任何可能导致"擦除"效果的写入尝试
- 保持与原始标签一致的行为
修复后,Proxmark3能够正确模拟OTP页的行为,使其能够通过读卡器的验证机制。
影响范围
这个问题不仅影响MF0ULX1标签的模拟,也可能影响其他NTAG系列标签的Capability Container(CC)页的模拟,因为这些页通常也具有类似的写入保护机制。
结论
通过对Proxmark3中MF0ULX1标签OTP页写入机制的修复,提高了工具在安全敏感环境中的模拟准确性。这一修复使得研究人员能够更有效地测试和评估RFID系统的安全性,特别是在面对具有防克隆机制的读卡器时。
这个案例也提醒我们,在实现RFID协议模拟时,必须严格遵循芯片数据手册的规范,特别是对于安全相关的特性,任何细微的偏差都可能导致模拟失败或被检测出来。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00