Kotlinx.serialization中枚举类型的数值序列化方案解析
2025-06-06 21:47:44作者:殷蕙予
枚举序列化的默认行为分析
在Kotlinx.serialization库中处理枚举类型时,默认会将枚举值序列化为字符串形式。例如当定义一个带有整型值的枚举类时:
@Serializable
enum class TestEnum(val value: Int) {
@SerialName("1") V1(1),
@SerialName("2") V2(2)
}
调用序列化后会输出为JSON字符串数组:["1","2"],而非预期的数值数组[1,2]。这是由于框架默认采用枚举的name或SerialName作为序列化依据,且始终输出为字符串类型。
数值序列化的实现方案
方案一:自定义序列化器
最直接的解决方案是实现自定义的KSerializer:
object TestEnumAsIntSerializer : KSerializer<TestEnum> {
override val descriptor = PrimitiveSerialDescriptor("TestEnum", PrimitiveKind.INT)
override fun serialize(encoder: Encoder, value: TestEnum) {
encoder.encodeInt(value.value)
}
override fun deserialize(decoder: Decoder): TestEnum {
val intValue = decoder.decodeInt()
return TestEnum.values().first { it.value == intValue }
}
}
使用时通过@Serializable(with = TestEnumAsIntSerializer::class)注解指定。这种方案的优势是精确控制序列化行为,但需要为每个枚举类单独实现。
方案二:基于序数的通用方案
可以创建通用化的序数序列化器(注意这会使用ordinal而非自定义值):
inline fun <reified T : Enum<T>> enumAsOrdinalSerializer(): KSerializer<T> =
object : KSerializer<T> {
override val descriptor = PrimitiveSerialDescriptor(
"EnumOrdinal",
PrimitiveKind.INT
)
override fun serialize(encoder: Encoder, value: T) {
encoder.encodeInt(value.ordinal)
}
override fun deserialize(decoder: Decoder): T {
return enumValues<T>()[decoder.decodeInt()]
}
}
方案三:注解驱动改进建议
当前框架缺乏直接通过注解配置数值序列化的能力。理想情况下可以扩展注解系统,例如:
@Serializable
@SerialFormat(EnumSerialization.NUMBER) // 假想的注解
enum class TestEnum(val num: Int) {
V1(1), V2(2)
}
这需要框架层面的支持,目前可通过KSP等编译器插件技术实现近似效果。
生产环境注意事项
- 数值稳定性:使用自定义数值时需确保值唯一且不变,否则会导致历史数据反序列化失败
- 性能考量:反序列化时的
values().first{}操作有优化空间,可预先构建数值映射表 - 多平台兼容:自定义序列化器需在所有目标平台测试
- 文档维护:应在类文档中明确说明序列化格式
总结
Kotlinx.serialization对枚举的默认字符串序列化行为符合JSON规范,但在需要数值序列化的场景下,开发者需要通过自定义序列化器实现。对于需要保持类型安全又需要数值传输的场景(如协议通信),建议采用方案一;若只需简单序数表示,方案二更为通用。未来框架可能会提供更便捷的注解配置方式,但目前自定义实现是最可靠的解决方案。
登录后查看全文
热门项目推荐
相关项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
项目优选
收起
deepin linux kernel
C
24
9
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
405
3.14 K
Ascend Extension for PyTorch
Python
225
251
暂无简介
Dart
672
159
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
663
319
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.21 K
657
React Native鸿蒙化仓库
JavaScript
262
325
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
openGauss kernel ~ openGauss is an open source relational database management system
C++
160
220
仓颉编译器源码及 cjdb 调试工具。
C++
135
868