Oj 库在 Rails 7.2 中 as_json 方法失效问题解析
问题背景
Oj 是一个高性能的 JSON 处理库,常用于 Ruby 和 Rails 项目中。在 Rails 7.2.0 版本发布后,开发者发现当使用 Oj.mimic_JSON 方法时,自定义的 as_json 方法会被忽略,导致 JSON 序列化结果不符合预期。
问题现象
在 Rails 7.2.0 环境下,当执行以下代码时:
class TestObject
def as_json
{ foo: :bar }
end
end
puts TestObject.new.to_json
预期输出应该是 {"foo":"bar"},但实际却输出了类似 "#<Test:0x000000012024e9d0>" 的对象字符串表示形式,这表明 as_json 方法没有被正确调用。
技术分析
Rails 7.2 的变更
这个问题源于 Rails 7.2 对 JSON 序列化机制的修改。在 Rails 7.1 及之前版本中,ActiveSupport 使用 prepend 方式来覆盖 to_json 方法:
prepend Module.new {
def to_json(...)
as_json(...).to_json(...)
end
}
而在 Rails 7.2 中,改为使用 include 方式:
include Module.new {
def to_json(...)
as_json(...).to_json(...)
end
}
这一变更影响了方法查找顺序,导致 Oj 的 to_json 实现优先于 ActiveSupport 的实现被调用。
Oj 的实现机制
Oj 通过 mimic_JSON 方法提供了与标准 JSON 库兼容的接口。在实现上,它会重新定义 Object#to_json 方法。在 Rails 7.1 中,由于 ActiveSupport 使用 prepend,其实现会在方法调用链的最后被执行,因此能正确调用 as_json 方法。但在 Rails 7.2 中,include 改变了这一顺序。
解决方案
Oj 维护者提出了几种解决方案:
- 条件性定义方法:只在 ActiveSupport 未加载时定义
to_json方法 - 修改默认模式:将 Oj 的默认模式设置为 RailsMode
- 模块化方法定义:类似 JSON gem 的做法,通过模块包含而非直接方法覆盖
最终采用了第一种方案,通过检查 ActiveSupport 是否已加载来决定是否定义 to_json 方法。这种方案既保持了向后兼容性,又解决了 Rails 7.2 下的问题。
最佳实践
对于使用 Oj 的 Rails 项目,建议:
- 确保使用最新版本的 Oj(包含此修复)
- 如果同时使用
mimic_JSON和 Rails,确保调用顺序正确 - 考虑在应用的早期初始化阶段(如 boot.rb)加载 Oj 配置
总结
这个问题展示了 Ruby 中方法覆盖和模块包含机制的复杂性,特别是在大型框架如 Rails 中。Oj 的维护者通过细致的分析和灵活的解决方案,既解决了当前问题,又保持了库的稳定性和兼容性。对于开发者而言,理解这些底层机制有助于更好地调试和解决类似问题。
此修复已包含在 Oj 的最新版本中,遇到类似问题的开发者只需升级 Oj 即可解决。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00