lnav v0.13.0-beta1 发布:日志分析工具的重大更新
lnav 是一款功能强大的日志文件分析工具,它能够自动检测和解析各种日志格式,提供实时分析、搜索和可视化功能。作为一款命令行工具,lnav 特别适合系统管理员和开发人员快速分析和排查问题。最新发布的 v0.13.0-beta1 版本带来了多项重要改进和新功能,显著提升了用户体验和功能性。
全新的提示符实现
此次版本最显著的改进之一是彻底重做了提示符系统,取代了原有的 readline 实现。新的提示符系统带来了多项增强功能:
在数据库提示符下,用户现在可以通过 CTRL+L 快捷键重新格式化查询语句并切换到多行模式。查询中的错误位置会被高亮显示,大大提高了编写复杂 SQL 查询的效率。
新增的 CTRL+O 快捷键允许用户将当前提示符内容传输到 Visual Studio Code 或 macOS 默认文本编辑器中进行编辑。编辑完成后,用户可以通过 |saved-prompt 命令直接运行编辑好的内容。
在编辑正则表达式(如搜索提示符或过滤器)时,如果当前模式匹配视图中的某行文本,系统会自动建议下一个单词。例如,当视图中包含 "foo bar baz" 文本时,输入 "foo " 后系统会建议 "bar",用户只需按 TAB 键即可完成输入。
历史记录列表现在增加了图标指示,可以直观显示命令或查询是否成功执行。此外,在提示符下按 F1 键会显示提示符本身的帮助文本,同时提示符面板会适当扩大以提高可读性。
输入处理与视图改进
在处理标准输入时,lnav 现在会根据 /tuning/piper/max-size 阈值自动轮转存储内容的文件。与之前仅显示 "stdin" 不同,现在 TEXT 视图中会包含轮转编号,便于用户识别不同的输入批次。
LOG 和 TEXT 视图现在会在没有内容时显示提示信息,明确告知用户需要切换视图或使用 :open 命令打开文件。HIST 视图新增了书签支持,用户可以使用常用快捷键在包含错误/警告/标记的时间段之间快速导航。
表格单元格中的控制字符现在会被替换为 Unicode 符号,并使用主题中的 'hidden' 样式进行高亮显示,提高了数据的可读性。
注释与 Markdown 增强
:comment 命令现在会自动切换到多行模式,并对注释中的 Markdown 指令进行语法高亮。预览面板还会显示渲染后的 Markdown 内容,使得注释更加直观易读。
Markdown 渲染现在支持任务标记(task marks),进一步增强了注释功能的实用性。
时间列与搜索功能改进
LOG 视图新增了时间列功能:当在消息开头向右滚动时,可以隐藏时间戳/级别字段,并在左侧插入一个更紧凑的时间戳列。这个功能通过 /ui/views/log/time-column 设置控制,有三个选项:disabled(禁用)、enabled(启用)和 default(默认启用)。
搜索功能新增了 fuzzy_match() SQL 函数,使用与 lnav 内部相同的算法比较模式和字符串并返回匹配分数。搜索表现在增加了 match_rowid 列,便于将多个搜索表连接起来查询相关消息组。
性能优化与错误修复
新版本在多个方面进行了性能优化,包括大量命中搜索、压缩文件处理和时间线视图的性能提升。修复了包括 tmux 环境下的启动问题、终端颜色处理、通用日志处理、文件时区设置等多个问题。
:export-session-to 命令现在会正确包含通过管道输入或 :sh 命令执行的日志文件的 :open 命令,确保了会话导出的完整性。
新增功能亮点
:write-debug-log-to命令可将 lnav 内部调试日志写入指定文件:clear-adjusted-log-time命令清除:adjust-log-time设置的时间偏移measure_with_units排序函数支持带单位的数字比较(如 "10KB"、"1.2ms")- 日志消息新增永久链接功能,可通过
:goto命令或 Markdown 链接跳转 CTRL+O快捷键绑定到:prev-location命令,支持位置跳转- 解复用功能扩展支持 JSON-lines 输入文件
总体而言,lnav v0.13.0-beta1 在用户体验、功能性和性能方面都带来了显著提升,特别是全新的提示符系统和日志消息永久链接功能,将极大提高日志分析工作的效率。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00