SILE排版引擎v0.15.10版本发布:CSL引用与索引功能全面升级
SILE是一款现代化的专业排版引擎,采用Lua脚本语言实现,旨在为复杂排版需求提供灵活而强大的解决方案。与传统的TeX系统不同,SILE采用了更现代化的设计理念,同时保持了处理复杂排版任务的能力。最新发布的v0.15.10版本带来了多项重要改进,特别是在参考文献管理和索引生成方面有了显著提升。
CSL引用成为默认参考文献处理方式
本次版本最重大的变化是将CSL(Citation Style Language)作为默认的参考文献处理引擎。CSL是一种基于XML的开放标准,被广泛应用于学术出版领域,能够精确控制文献引用的格式。SILE现在能够更好地支持:
-
分组引用:通过新增的
\cites命令,用户可以方便地输出多个文献的合并引用,这在学术写作中非常常见。例如可以将多个相关研究合并为一个引用组。 -
文献标记:新增的
\nocite命令允许用户将文献条目标记为已引用状态,即使正文中没有直接引用该文献,这在需要展示参考文献列表但不一定全部引用的场景下非常有用。 -
样式合规性:改进了对CSL样式的支持,包括文献缩进规则、名称部分格式化等细节处理,使得输出结果更加符合各种学术期刊的要求。
-
链接处理:修正了DOI、PMID等标识符的链接生成问题,确保这些学术资源链接能够正确呈现。
索引功能全面增强
索引功能在这个版本中获得了多项重要改进:
-
页码范围处理:新增了"minimal"和"minimal-two"选项,可以智能地折叠连续的页码范围。例如将"1,2,3,4"显示为"1-4",提高了索引的可读性。
-
样式定制:增加了多个样式钩子,允许用户更灵活地控制索引的外观。特别是新增了条目与页码之间填充物的自定义选项,可以满足不同出版风格的需求。
-
位置灵活性:现在索引可以出现在文档的任何位置,而不仅限于传统的位置限制,这为文档结构设计提供了更多可能性。
-
语言感知排序:索引条目现在会根据文档语言自动采用合适的排序规则,这对于多语言文档特别重要,确保不同语言的索引都能正确排序。
字体与排版质量改进
在字体处理方面,这个版本引入了基于x高度和大写字母高度的调整功能,特别改善了代码和逐字文本的显示效果:
-
精确度量:改进了对由多个字形组成的单个字符的度量计算,确保复杂字符(如某些语言的连字)能够正确显示。
-
代码显示优化:专门为代码和逐字文本应用了x高度调整,使得等宽字体中的代码显示更加整齐美观。
-
断行优化:新增了避免在连字符后分页的功能,减少了"孤行"现象,提升了排版的美观性。
多语言支持改进
针对多语言文档的处理也有多项改进:
-
维吾尔语断字:修复了维吾尔语特定的断字问题,确保这种右向左书写的语言能够正确断行。
-
UTF-16处理:改进了对UTF-16编码文本的处理,避免了可能的空终止符问题。
-
语言设置逻辑:优化了语言设置的声明时机,确保语言支持已加载后再进行设置。
开发者体验提升
对于开发者而言,这个版本也带来了便利:
-
模块加载简化:新增了
--luarocks-tree命令行参数,简化了第三方模块的加载过程,使得使用自定义安装的Lua模块更加方便。 -
警告信息优化:改进了关于不支持语言的警告信息,避免了重复输出,使开发过程更加清晰。
-
构建工具增强:增加了生成vendored crates压缩包的工具,方便开发者进行依赖管理。
总结
SILE v0.15.10版本在参考文献处理、索引生成、多语言支持和开发者体验等方面都带来了显著改进。特别是对CSL标准的全面支持,使得SILE在学术出版领域的实用性大大提升。这些改进不仅增强了核心功能,也提高了排版输出的质量和专业性,使SILE成为一个更加强大和易用的现代化排版解决方案。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00