Sanity v3.72.0 版本发布:便携式文本编辑器优化与多项功能改进
Sanity 是一个现代化的内容管理平台,它提供了一个灵活且可定制的内容工作室(Studio),允许开发者快速构建内容管理系统。Sanity 的核心优势在于其实时协作能力、强大的查询语言以及可扩展的架构设计。
本次发布的 v3.72.0 版本带来了多项重要改进,主要集中在便携式文本编辑器的内容序列化优化、历史记录功能修复以及 Shopify Hydrogen 等框架的兼容性提升。下面我们将详细介绍这些更新内容。
便携式文本编辑器内容序列化优化
便携式文本编辑器(Portable Text Editor,简称 PTE)是 Sanity 中处理富文本内容的核心组件。在本次更新中,团队对 PTE 的内容序列化机制进行了显著改进:
-
跨应用粘贴体验提升:现在当用户从 PTE 复制内容并粘贴到外部应用程序(如 Notion 或 Word)时,高级格式(如列表和链接)能够更可靠地保留。这得益于改进的 text/html 序列化处理逻辑。
-
文档间粘贴一致性增强:在不同文档的便携式文本字段之间进行复制粘贴时,编辑器现在能够智能地过滤掉目标文档不支持的对象类型和注释。这一改进确保了兼容内容的无缝粘贴,同时避免了不兼容内容导致的格式混乱。
这些改进使得内容创作者在跨平台、跨文档工作时能够获得更加流畅的体验,减少了因格式丢失或内容不兼容而需要手动调整的工作量。
重要问题修复
本次版本还包含多个关键问题的修复:
-
GraphQL 模式生成修复:解决了当文档内部引用同类型文档时可能导致"maximum call stack size exceeded"错误的问题。这一修复确保了复杂文档引用关系的正确处理。
-
历史记录加载问题:修复了在打开"历史→查看更改→历史"面板时历史记录无法加载的问题。现在用户可以正常查看和比较文档的历史版本。
-
框架兼容性改进:针对 Shopify Hydrogen、Remix 和 Astro 等现代前端框架中使用嵌入式工作室和 Presentation 功能时出现的环境变量错误进行了修复。这使得在这些框架中集成 Sanity 变得更加稳定可靠。
技术细节与开发者指南
对于开发者而言,升级到 v3.72.0 版本需要注意以下几点:
-
升级路径:如果从早于 3.37.0 的版本升级,需要特别注意依赖项的更新。建议按照官方升级指南逐步进行。
-
新功能适配:便携式文本编辑器的改进是向后兼容的,不需要额外配置即可享受新功能带来的好处。
-
错误处理:对于之前遇到 GraphQL 模式生成错误或历史记录问题的项目,升级后这些问题将得到解决。
总结
Sanity v3.72.0 版本通过优化便携式文本编辑器的内容处理能力,显著提升了内容创作的流畅性和一致性。同时,多项关键问题的修复使得平台在各种使用场景下更加稳定可靠。这些改进不仅提升了终端用户的使用体验,也为开发者提供了更加健壮的基础设施。
对于正在使用 Sanity 的团队,建议尽快评估并计划升级,以充分利用这些改进带来的好处。特别是那些依赖复杂文档引用关系或需要在不同平台间频繁迁移内容的项目,本次更新将带来明显的体验提升。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00