Kener项目3.2.0版本发布:监控功能安全性与易用性全面升级
Kener是一个现代化的监控系统,专注于提供灵活、安全的监控解决方案。它支持多种监控类型,包括API监控、TCP监控和Ping监控等,允许用户通过自定义评估函数来实现复杂的监控逻辑。在最新发布的3.2.0版本中,Kener对监控评估功能进行了重大改进,显著提升了安全性和易用性。
安全评估机制重构
在之前的版本中,Kener使用JavaScript的eval()函数来执行用户自定义的监控评估逻辑。虽然eval()功能强大,但它存在严重的安全隐患,因为它可以执行任意代码,可能导致代码注入攻击。
3.2.0版本彻底重构了这一机制,改用更安全的Function()构造函数来替代eval()。Function()构造函数在沙盒环境中创建函数,不会自动访问当前作用域,从而大大降低了安全风险。这种改变不仅提高了系统的整体安全性,还保持了原有的灵活性。
API监控功能增强
API监控是Kener的核心功能之一,新版本对其进行了多项改进:
-
原始响应数据直接传递:不再需要base64编码/解码步骤,评估函数现在可以直接接收原始响应数据,简化了处理逻辑并提高了性能。
-
模块化支持:新增了
modules参数,允许评估函数直接使用预加载的模块。当前版本内置了cheerio模块,这是一个流行的HTML解析库,特别适合处理网页内容。 -
参数结构调整:评估函数的参数从
(statusCode, responseTime, responseDataBase64)变为(statusCode, responseTime, responseRaw, modules),使API更加直观。
这些改进使得编写API监控评估函数更加简单高效。例如,现在可以直接使用cheerio解析HTML响应,而不需要手动安装和加载这个库:
(async function (statusCode, responseTime, responseRaw, modules) {
const $ = modules.cheerio.load(responseRaw);
return $('title').text().includes('Expected Title');
})
TCP和Ping监控简化
对于TCP和Ping监控,新版本同样进行了简化:
-
直接数据访问:评估函数现在直接接收ping/TCP结果数组,不再需要通过base64编码传输数据。
-
参数简化:评估函数的参数从
(responseDataBase64)简化为(arrayOfPings),减少了不必要的解码步骤。 -
更好的错误处理:新增了对无效评估函数的检测和错误处理机制,提高了系统的稳定性。
这些改进使得编写TCP/Ping监控评估函数更加直观:
(async function (arrayOfPings) {
// 计算平均延迟
const sum = arrayOfPings.reduce((a, b) => a + b, 0);
const avg = sum / arrayOfPings.length;
return avg < 100; // 返回是否平均延迟小于100ms
})
迁移指南
对于现有用户,升级到3.2.0版本需要根据监控类型调整自定义评估函数:
API监控迁移
旧版本格式:
(async function (statusCode, responseTime, responseDataBase64) {
const resp = atob(responseDataBase64);
// 处理逻辑
})
新版本格式:
(async function (statusCode, responseTime, responseRaw, modules) {
// responseRaw已经是解码后的数据
// 可以使用modules.cheerio进行HTML解析
// 处理逻辑
})
TCP/Ping监控迁移
旧版本格式:
(async function (responseDataBase64) {
let arrayOfPings = JSON.parse(atob(responseDataBase64));
// 处理逻辑
})
新版本格式:
(async function (arrayOfPings) {
// arrayOfPings已经是解析后的数组
// 处理逻辑
})
总结
Kener 3.2.0版本通过重构评估机制、简化API和增强监控功能,为用户带来了更安全、更易用的监控体验。这些改进不仅提升了系统的安全性,还使自定义监控逻辑的编写更加直观和高效。对于现有用户,虽然需要进行一些迁移工作,但新版本带来的好处值得这一投入。
随着监控在现代IT系统中的重要性日益增加,Kener的这些改进使其成为一个更加可靠和强大的监控解决方案,适用于各种规模的部署环境。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00