OpenCTI 6.6.0 版本发布:智能分析引擎与工作流革新
OpenCTI 作为一款开源威胁情报平台,始终致力于为安全分析师提供高效、智能的威胁情报管理与分析能力。在最新发布的 6.6.0 版本中,OpenCTI 带来了多项重大功能升级,从智能分析到工作流优化,全方位提升了平台的使用体验和效率。
智能分析能力升级
本次版本最引人注目的创新之一是引入了基于 Arianne AI 的自然语言查询功能。这一企业版特性允许用户通过简单的自然语言提问来搜索平台中的数据。系统会将用户的问题自动转换为平台内部的过滤条件,并返回相应的查询结果。这种交互方式极大地降低了新用户的学习曲线,使分析师能够更快速地找到所需信息。
值得注意的是,这一功能完全基于平台现有的过滤机制,因此其能力范围受限于平台当前的过滤条件组合。对于复杂或超出当前过滤能力的查询,系统可能无法提供理想的结果。这一设计选择确保了功能的稳定性和可靠性,同时也为未来的扩展奠定了基础。
数据导入工作流重构
在数据导入方面,6.6.0 版本进行了全面重构,引入了两项关键改进:
-
多文件批量导入:用户现在可以一次性导入多个文件,并将它们合并为单个工作区进行处理。这一改进显著提升了批量处理数据的效率。
-
草稿工作区:这一新特性旨在逐步取代现有的工作台功能。草稿工作区不仅保留了工作台的所有功能,如查看文件提取内容和导入前验证,还增加了更多高级功能。用户可以在草稿模式下进行数据丰富、批量操作等,而不会影响主数据库。这种设计为数据质量控制提供了更好的保障。
草稿工作区还支持将现有工作台转换为草稿,确保平滑过渡。这一功能标志着 OpenCTI 在数据管理流程上的重要进步。
案件管理增强
针对案件管理工作流,6.6.0 版本引入了两个重要的过滤功能:
-
"@Me" 过滤器:这一动态过滤器允许用户快速查看与自己相关的案件,提升了个人工作效率。
-
相对日期范围过滤:分析师现在可以使用类似"显示过去一周创建的所有案件"这样的时间条件进行查询,大大简化了时间相关查询的操作。
此外,平台还增强了权限管理功能,引入了"请求访问"特性。在数据按组织隔离的场景下,当用户发现某个实体存在但未被共享给自己的组织时,可以主动请求访问权限。这一机制在保证数据安全的前提下,促进了跨团队协作。
图表分析与可视化改进
针对大型图表加载的性能问题,6.6.0 版本对图表引擎进行了彻底重构。主要改进包括:
-
分页加载:通过实现分页机制,解决了大型图表加载导致的平台崩溃问题。
-
选择与搜索优化:改进了图表中的选择和搜索行为,使用户能够更轻松地定位所需信息。
这些底层技术改进为未来更高级的图表分析功能奠定了基础,如更强大的图表内情报分析和关联能力。
其他重要改进
6.6.0 版本还包含多项其他重要更新:
-
CSV 映射器导入/导出:简化了 CSV 映射器的共享和使用,便于团队协作和问题排查。
-
IOC 管理增强:支持通过批量操作和自动化流程大规模更新 IOC。
-
危险区域扩展:增加了重置连接器状态的功能。
-
新增连接器:包括 VulnCheck、PAN Cortex XSOAR、Proofpoint TAP/ET、Microsoft Defender 事件等多个新数据源集成。
特别值得一提的是新增的 AI 文档导入连接器,相比标准文档导入连接器提供了更强大的内容提取能力。
技术架构优化
在技术架构层面,6.6.0 版本进行了多项重要改进:
-
认证机制重构:将基本认证和承载认证移出平台会话,提高了安全性和性能。
-
内部缓存优化:显著提升了缓存性能。
-
集群模式遥测:改进了集群模式下的遥测数据收集。
-
授权成员功能增强:支持组织和组之间的交叉授权。
这些底层改进为平台的稳定性、扩展性和安全性提供了更好的保障。
总结
OpenCTI 6.6.0 版本通过引入自然语言查询、重构数据导入工作流、增强案件管理能力等一系列重大改进,显著提升了平台的易用性和功能性。特别是智能分析能力的引入和工作流的重构,标志着 OpenCTI 正朝着更智能、更高效的方向发展。
值得注意的是,随着草稿功能的推出,工作台功能将在未来6个月内逐步淘汰。建议用户尽快熟悉新的草稿功能,并提供反馈以帮助进一步改进。
对于安全分析团队而言,6.6.0 版本提供了更强大的工具来应对日益复杂的威胁环境,特别是在情报收集、分析和协作方面。这些改进将帮助分析师更高效地完成日常工作,同时确保数据质量和安全性。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00