Arkime 5.6.2版本发布:网络流量分析工具的重要更新
Arkime是一款开源的网络流量分析工具,它能够捕获、索引和存储网络流量数据,帮助安全分析师和网络管理员进行网络流量分析、安全研究和故障排查。Arkime提供了强大的搜索和可视化功能,使得分析海量网络数据变得更加高效。
本次发布的Arkime 5.6.2版本带来了一系列功能增强和问题修复,主要涉及数据库管理工具db.pl、流量捕获功能以及用户界面等方面。这些改进进一步提升了Arkime的稳定性、安全性和用户体验。
数据库管理工具(db.pl)改进
Arkime 5.6.2对数据库管理工具db.pl进行了重要升级。首先,它现在支持超过55个字符的长密码,这一改进解决了之前版本中密码长度限制的问题,为用户提供了更高的安全性选择。
其次,新版本引入了一个实用的批量文件移动功能。通过db.pl mv <节点> <旧前缀> <新前缀>命令,管理员可以一次性移动大量文件,这在数据重组或存储优化时特别有用。这个功能大大简化了大规模数据迁移的操作流程。
需要注意的是,从5.1.2或更早版本升级到5.6.2时,必须执行db.pl升级操作,这是本次升级的一个重要前提条件。
流量捕获功能增强
在流量捕获方面,5.6.2版本带来了几个关键改进:
-
新增了对解密SMTP协议的支持,这使得分析加密的电子邮件流量成为可能,为安全分析提供了更多有价值的数据。
-
增加了对ERSPAN Type III的支持。ERSPAN(Encapsulated Remote SPAN)是一种网络流量分析技术,允许跨越三层网络边界镜像流量。Type III支持扩展了Arkime在网络流量分析方面的能力。
-
改进了错误处理机制,现在会记录批量FORBIDDEN错误,帮助管理员更好地识别和解决权限相关问题。
用户界面和功能修复
Arkime 5.6.2版本还修复了多个影响用户体验的问题:
-
修复了会话原型污染的安全问题,增强了系统的安全性。
-
改进了会话详情页面中长数组的显示问题,现在能够正确展示大型数据集。
-
解决了ERSPAN解码相关的问题,确保流量分析更加准确。
-
修复了证书签发者CN(issuerCN)和证书序列号(cert.serial)在会话详情中不显示的问题,完善了SSL/TLS证书信息的展示。
-
优化了S3存储相关的功能,修复了s3http/s方案下块缓存不正确的问题,以及在使用writer-s3但不压缩时数据包不显示的问题。
系统兼容性
Arkime 5.6.2提供了针对多种Linux发行版的安装包,包括不同架构(amd64和arm64)的支持。特别需要注意的是,由于不同Linux发行版提供的库版本存在差异,用户需要根据自己系统的具体版本选择合适的安装包。例如,对于CentOS 8或RHEL 8系统应选择el8版本,而非RHEL 9版本。如果遇到libssl版本错误,通常是因为选择了不匹配的安装包。
此外,Arkime还继续提供了JA4+指纹识别模块的单独安装选项,这是一个用于TLS指纹识别的扩展功能,可以帮助识别特定的客户端或软件行为。
总结
Arkime 5.6.2版本虽然在版本号上是一个小版本更新,但包含了一系列重要的功能增强和问题修复。从数据库管理工具的改进到流量分析能力的扩展,再到用户界面的优化,这些变化共同提升了Arkime作为网络流量分析工具的实用性和可靠性。对于现有的Arkime用户,特别是那些需要处理加密SMTP流量或使用ERSPAN分析技术的用户,升级到5.6.2版本将带来明显的改进。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00