Kobweb v0.20.4 版本发布:前端开发框架的重要更新
Kobweb 是一个基于 Kotlin 的前端开发框架,它允许开发者使用 Kotlin 语言构建现代化的 Web 应用程序。Kobweb 提供了丰富的组件库、简洁的 DSL 语法以及强大的构建工具,使得前端开发变得更加高效和愉快。
本次发布的 v0.20.4 版本带来了多项改进和新特性,特别是在资源管理、路由处理和开发体验方面有了显著提升。下面我们将详细介绍这些更新内容。
自动资源本地化功能
在 Web 开发中,我们经常需要引用外部资源,如字体、图标库或 JavaScript 库。传统做法是直接引用 CDN 链接,但这可能带来 GDPR 合规性问题。Kobweb v0.20.4 引入了一个创新性的解决方案——自动将外部资源转换为本地托管文件。
开发者现在可以在构建脚本中配置自动资源本地化:
kobweb {
app {
index {
interceptUrls {
enableSelfHosting()
}
}
}
启用此功能后,Kobweb 会在构建时自动下载并托管所有在 <head> 块中声明的外部资源。例如,原本引用 CDN 的脚本:
<script src="https://cdn.example.com/ajax/libs/gl-matrix/3.4.2/gl-matrix-min.js"></script>
将被自动转换为本地路径,如:
/_kobweb/self-host/cdn.example.com/ajax/libs/gl-matrix/3.4.2/gl-matrix-min.js
对于需要更精细控制的场景,开发者还可以使用手动替换功能:
interceptUrls {
replace("https://example.com/resource.js", "/local/path/resource.js")
}
路由系统增强
Kobweb 的路由系统在本版本中得到了多项改进:
-
支持无根路由站点:现在开发者可以创建不包含根路由("/")的站点,这在某些特殊场景下非常有用。
-
混合导航支持:
navigateTo方法现在可以智能处理当前站点的完整 URL 导航。例如:navigateTo("https://yoursite.com/about")将作为混合导航处理,既保持客户端导航的流畅性,又能确保服务器端正确响应。
-
新增站点路由查询功能:开发者现在可以通过
kobwebSiteRoutes属性获取所有已注册的路由,这在生成站点地图等场景下非常有用:
tasks.register("createSitemap") {
val routesProvider = kobwebSiteRoutes
inputs.property("routes", routesProvider)
doLast {
val routes = routesProvider.get()
// 生成站点地图逻辑...
}
}
开发体验优化
-
CSS 缓存问题修复:在开发模式下,Kobweb 现在会禁用 CSS 文件的缓存,解决了编辑 CSS 文件时实时重载失效的问题。
-
序列化辅助方法:新增了 Kotlinx 序列化感知的请求/响应辅助方法,简化了 API 开发:
val data = request.readBody<DataClass>() response.setBody(resultValue) -
CORS 配置日志:服务器现在会记录所有声明的 CORS 配置,帮助开发者快速定位跨域问题。
Silk 组件库更新
Kobweb 的 Silk 组件库新增了 OutlinedFilledCalloutVariant 变体,为提示框组件提供了实心填充加细边框的新样式。在 Markdown 中,现在可以通过指定 variant 参数来使用不同的提示框样式:
> [!NOTE {variant = com.varabyte.kobweb.silk.components.display.OutlinedCalloutVariant}]
> 这是一条带边框的提示信息
其他改进
- 修复了 SVG 图标可能因舍入导致的裁剪问题
- 解决了工具提示在切换标签页后可能意外重新打开的问题
- 优化了实时重载功能,确保在不同目录下运行构建命令时也能正常工作
Kobweb v0.20.4 版本通过这些改进,进一步提升了开发者的工作效率和项目的可维护性。特别是自动资源本地化功能,为需要遵守严格隐私法规的项目提供了便利的解决方案。路由系统的增强则使得构建复杂的单页应用变得更加灵活和强大。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00