Enso 2025.1.3 版本发布:数据科学编程语言的重大更新
Enso 是一个面向数据科学和可视化编程的开源项目,它结合了函数式编程和数据流编程的优势,为用户提供了一个直观的可视化编程环境。Enso 的核心设计理念是通过图形化界面降低编程门槛,同时保持强大的数据处理能力。2025.1.3 版本带来了多项重要更新,从 IDE 改进到语言特性增强,再到标准库功能扩展,全面提升了用户体验和功能完整性。
可视化编程环境 (IDE) 的显著改进
Enso IDE 作为项目的核心产品,在 2025.1.3 版本中获得了多项用户体验优化。最引人注目的是全新的组件浏览器设计,现在以分组列表形式展示组件,并增加了组件文档的简短摘要显示,使得查找和使用组件更加直观高效。
对于数据可视化方面,表格编辑器小部件得到了多项改进:点击表头即可开始编辑,使用 Tab 和 Enter 键可以在单元格间快速导航,这些细节优化显著提升了数据处理的流畅度。同时,表格可视化现在采用服务器端过滤和排序,大幅提升了大数据集的处理性能。
文档面板也获得了增强,支持渲染编号和嵌套列表,增加了编辑顶部 Markdown 元素的按钮,以及插入链接的功能。这些改进使得项目文档的编写和管理更加方便。
在文件操作方面,云文件浏览器现在支持更多操作:创建新目录、重命名现有目录、显示并高亮当前设置的文件,以及在尝试覆盖现有文件时发出警告。这些功能完善了文件管理的全流程体验。
语言运行时与编译器优化
Enso 语言本身在这个版本中获得了几个重要的增强。最值得注意的是对交集类型(Intersection Types)的全面支持,包括类型检查、相等性比较(对称、传递和自反)等特性。这使得类型系统更加灵活和强大。
另一个重要改进是构造函数和类型定义语法的严格化。现在,带有单个内联参数定义的构造函数或类型定义如果参数定义中包含空格,必须使用括号,否则会报语法错误。这一变化提高了代码的一致性和可读性。
资源管理方面,现在将同一个值注册为多个托管资源会被视为错误,这有助于开发者避免潜在的资源管理问题。此外,操作符块现在会应用于整个前导表达式,而不仅仅是行上的最后一个项,这一行为变更更符合直觉预期。
标准库功能扩展
Enso 标准库在这个版本中获得了大量新功能和改进。数据库连接方面,新增了对通用 JDBC 连接的支持,包括通过外部驱动程序的连接方式,大大扩展了数据库兼容性。
表格处理功能显著增强,新增了 Table.offset、Column.offset 和 Table.generate_rows 等方法,为数据分页和生成提供了更多选择。正则表达式支持也被加入到过滤器和表达式语言中,增强了文本处理能力。
在文件读取方面,当读取分隔符文件时遇到比预期更多列的行,现在可以选择添加这些额外的列到结果中,而不是简单地丢弃它们。XLSX 读取器也进行了优化,不再读取工作表末尾的空行。
数学计算方面,表达式语言现在支持基本算术运算、pi() 和 e() 函数,以及更灵活的舍入模式控制(替换了原来的 use_bankers 标志)。Vector.zip 方法新增了 skip_nothing 和 report_unmatched 参数,提供了更灵活的向量操作选项。
性能与架构改进
2025.1.3 版本在性能方面也有显著提升。最值得注意的是原生镜像模式现在默认启用,这将带来更快的启动速度和更低的内存占用。表格可视化采用服务器端过滤和排序,显著提升了大数据集的处理效率。
在架构层面,IR(中间表示)定义现在由注解处理器生成,这提高了编译器的可维护性和扩展性。模块方法现在优先于 Any 实例方法进行调度,这一行为变更使得方法解析更加合理和可预测。
开发者体验优化
对于开发者而言,这个版本提供了更好的错误处理机制。错误消息现在不会遮挡输出端口,当鼠标悬停在端口上时会变为半透明,同时传递所有鼠标交互。复制错误消息按钮的问题也被修复。
代码编辑体验也有所提升,现在支持多行文本字面量的编辑,数字/文本节点的编写更加容易(自动关闭未闭合的文本字面量),快速修复导入按钮的加入也简化了依赖管理。
总结
Enso 2025.1.3 版本是一个功能全面、改进深入的更新,从可视化编程环境到语言核心,再到标准库,几乎每个方面都获得了增强。新引入的交集类型支持、正则表达式处理能力、数据库连接扩展等功能,大大提升了 Enso 在数据科学领域的实用性。同时,众多用户体验的细节优化使得这个工具更加易用和高效。对于数据科学家和分析师来说,这个版本无疑会带来更流畅、更强大的编程体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00