ts-rs v11.0.0发布:更强大的Rust到TypeScript类型转换工具
ts-rs是一个优秀的Rust库,它能够自动将Rust类型转换为TypeScript类型定义,极大地简化了前后端类型同步的工作。这个工具特别适合全栈开发场景,让开发者可以保持前后端类型系统的一致性,减少手动维护类型定义的工作量。
主要更新内容
1. 可选字段的批量声明
新版本引入了#[ts(optional_fields)]属性,这是一个非常实用的功能。在之前的版本中,如果我们需要将一个结构体的所有字段都声明为可选,需要为每个字段单独添加#[ts(optional)]属性。现在,只需要在结构体级别添加#[ts(optional_fields)]就能实现同样的效果。
#[derive(TS)]
#[ts(optional_fields)]
struct Form {
first_name: Option<String>, // 生成 first_name?: string
last_name: Option<String>, // 生成 last_name?: string
email: Option<String>, // 生成 email?: string
}
这个特性特别适合处理表单数据或API请求体这类场景,其中很多字段都是可选的。
2. 增强的serde兼容性
ts-rs现在更好地与serde序列化库集成。当字段同时使用#[serde(skip_serializing_if)]和#[serde(default)]属性时,ts-rs会自动将这些字段转换为TypeScript中的可选属性。
#[derive(Serialize, Deserialize, TS)]
struct User {
#[serde(skip_serializing_if = "Option::is_none", default)]
nickname: Option<String>, // 生成 nickname?: string | null
}
这种改进确保了生成的TypeScript类型既能正确反映序列化行为,也能匹配反序列化需求,减少了类型不匹配的问题。
3. 更灵活的属性表达式
新版本允许在多个属性中使用任意Rust表达式,这为类型定义带来了更大的灵活性:
// 使用模块路径作为类型名称
#[derive(TS)]
#[ts(rename = module_path!().rsplit_once("::").unwrap().1)]
struct Model;
// 在文档注释中包含文件路径信息
#[derive(TS)]
#[doc = concat!("定义于 ", file!())]
struct UserGroup;
这个特性特别适合大型项目或代码生成场景,可以实现更动态的类型定义方式。
4. 元组结构体的可选字段
现在可以在元组结构体中使用#[ts(optional)]属性标记可选字段:
#[derive(TS)]
struct Location(Country, State, #[ts(optional)] City); // 生成 [Country, State, City?]
这使得元组结构体的类型转换更加灵活,能够更好地表达各种数据结构。
升级注意事项
从v10升级到v11时需要注意以下几点:
-
当同时使用
#[serde(skip_serializing(_if))]和#[serde(default)]时,字段现在会被转换为可选属性。如果不需要这种行为,可以使用#[ts(optional = false)]显式禁用。 -
ts_rs::TStrait的API有微小调整,大多数用户不会受到影响,但如果直接与这个trait交互,可能需要做少量调整。
技术实现亮点
-
更智能的serde属性处理:通过分析serde属性组合,自动推断出最合适的TypeScript类型表示。
-
表达式支持:利用Rust的宏系统,实现了对任意表达式的解析和求值,大大增强了属性的表达能力。
-
类型系统改进:优化了内部类型表示,使得可选类型的处理更加一致和可靠。
适用场景
ts-rs v11.0.0特别适合以下场景:
-
全栈TypeScript项目:保持前后端类型定义完全同步。
-
API文档生成:结合Swagger或其他文档工具,自动生成准确的类型定义。
-
大型项目维护:减少手动维护类型定义的工作量,提高开发效率。
-
动态类型需求:利用新的表达式支持,实现更灵活的类型生成逻辑。
这个版本的发布标志着ts-rs在Rust和TypeScript互操作领域又迈出了重要一步,为开发者提供了更强大、更灵活的类型转换能力。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00