Rspress v2.0.0-beta.8 发布:动态代码高亮组件与Shiki增强
Rspress 是一个现代化的静态站点生成器,专注于为技术文档提供优秀的开发体验。它基于React和Rspack构建,具有出色的构建性能和灵活的扩展能力。
动态代码高亮组件 CodeBlockRuntime
本次发布的 v2.0.0-beta.8 版本引入了一个重要的新特性——CodeBlockRuntime组件。这个组件解决了传统静态代码高亮在编译时处理的局限性,为开发者提供了运行时动态高亮代码的能力。
核心特性
-
运行时高亮:不同于传统的编译时高亮,
CodeBlockRuntime在浏览器运行时处理代码高亮,特别适合需要动态展示代码的场景。 -
Shiki集成:内置支持Shiki高亮引擎,可以通过
shikiOptions属性进行深度定制。 -
注解支持:兼容Shiki的代码注释标记语法,如
[!code highlight]等。 -
渲染回调:提供
onRendered回调函数,可以在代码高亮完成后执行自定义逻辑。
使用示例
import { CodeBlockRuntime } from '@theme';
import { transformerNotationHighlight } from '@shikijs/transformers';
<CodeBlockRuntime
lang="ts"
title="highlight.ts"
code={`console.log('Highlighted'); // [!code highlight]
// [!code highlight:1]
console.log('Highlighted');
console.log('Not highlighted');`}
shikiOptions={{
transformers: [transformerNotationHighlight()],
}}
/>
Shiki转换器增强
为了配合CodeBlockRuntime组件的使用,本次更新还增强了Shiki转换器的支持:
-
新增导出:
@rspress/plugin-shiki/transformers现在可以直接导出常用的Shiki转换器。 -
兼容性转换器:新增
transformerCompatibleMetaHighlight转换器,确保代码注释标记在不同环境下的一致性。
技术实现细节
CodeBlockRuntime组件的实现考虑了以下关键点:
-
DOM结构一致性:确保运行时生成的DOM结构与编译时生成的代码块结构完全一致,避免样式和交互上的差异。
-
性能优化:采用懒加载策略,只有在组件进入视口时才执行高亮处理,减少不必要的性能开销。
-
错误处理:内置完善的错误处理机制,当高亮过程出现问题时能够优雅降级。
适用场景
这个新特性特别适合以下场景:
-
动态代码展示:当需要根据用户交互动态展示不同代码片段时。
-
代码编辑器集成:在文档中嵌入可交互的代码编辑器组件。
-
高级代码标注:需要复杂代码高亮和注释的场景。
-
主题切换:在运行时动态切换代码高亮主题。
总结
Rspress v2.0.0-beta.8通过引入CodeBlockRuntime组件,为技术文档的代码展示提供了更大的灵活性。这一改进不仅保留了静态生成的高性能优势,还增加了运行时动态处理的能力,使得Rspress在代码展示方面达到了新的高度。对于需要丰富代码展示功能的文档项目来说,这无疑是一个值得关注的重要更新。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00