OpenCTI 6.5.0版本发布:威胁情报平台的关键升级
OpenCTI是一个开源的威胁情报平台,旨在帮助组织收集、分析、共享和利用网络威胁情报。该平台提供了一个集中化的解决方案,使安全团队能够更好地理解威胁环境,并采取相应的防御措施。OpenCTI支持STIX2标准,可以与各种安全工具集成,是现代威胁情报管理的重要组成部分。
最新发布的OpenCTI 6.5.0版本带来了一系列重要更新,重点关注分析师工作效率提升、IOC管理和人工智能辅助功能。本文将详细介绍这些关键改进及其对威胁情报工作流程的影响。
企业版授权机制变更
6.5.0版本引入了一个重要的架构变更——企业版授权密钥系统。这一变化旨在确保企业版功能的透明和合规使用。平台管理员现在需要通过有效的许可证密钥来激活企业版功能,取代了之前的简单复选框确认方式。这一改进有助于更好地管理企业版功能的访问权限,同时不影响社区版功能的持续发展和创新。
分析师工作效率提升
新版本显著增强了分析师的工作效率工具集,特别是在情报产出和分发方面:
-
定制化情报模板:分析师现在可以创建自定义的情报产出模板,这些模板能够自动填充容器中的相关数据和实体关系。这一功能大大减少了从原始情报到标准化报告的时间消耗。
-
分发列表管理:平台新增了邮件分发列表功能,允许分析师直接将PDF格式的情报文档发送给预定义的联系人组。这一改进使得非OpenCTI用户也能及时获取关键情报。
-
访问控制增强:对于重要情报内容,新增了容器级别的访问限制功能。即使是在共享容器中,管理员也可以精确控制哪些用户、组或组织能够查看特定内容,并定义他们的访问权限级别。
IOC管理改进
在指标管理方面,6.5.0版本引入了排除列表功能,这是一个重要的误报减少机制:
- 安全团队可以创建排除列表,防止特定的IOC(如内部IP或可信域名)被平台误认为恶意指标而摄入
- 这一功能有效减少了安全检测系统中的噪音,提高了威胁检测的准确性
- 系统支持对哈希值等特殊格式的指标进行排除检查
人工智能辅助功能
AI模块在6.5.0版本中得到了全面重构,成为分析师日常工作的有力助手:
- AI洞察功能现在可应用于平台所有实体类型
- 分析师可以快速获取实体的最新活动摘要、相关报告要点和操作日志
- 这些智能提示帮助分析师更快地理解威胁背景和关联信息
数据可视化与分析增强
新版本在数据呈现和理解方面做了多项改进:
-
关联视图重设计:所有容器类型现在可以相互关联,改进了关联图的可视化效果,新增了信息面板解释容器间的关联关系。
-
仪表板定制:列表部件现在支持列选择和重排功能,用户可以根据需要自定义知识视图和实体视角的显示内容。
-
攻击模式视图增强:专门改进了攻击模式的知识视图,更好地展示与威胁的关联关系。
性能与架构改进
在后台性能方面,6.5.0版本有两项重要优化:
- 改进了工作线程池管理,提升了大型数据集操作的性能
- 将锁机制移至独立进程,减少了共享实体操作时的错误率
这些底层改进使得平台在处理大规模情报数据时更加稳定高效。
集成与连接器更新
新版本增加了多个新的连接器,包括Tenable Security Center、Google SecOps SIEM等,同时对现有连接器如Hatching triage、RecordedFuture等进行了功能增强。这些更新扩展了平台与外部安全工具的集成能力。
容器部署选项扩展
除了原有的容器镜像仓库外,OpenCTI的所有容器镜像现在也可以通过GitHub容器注册表获取,为用户提供了更多的部署选择。
OpenCTI 6.5.0版本的这些改进显著提升了平台的实用性,特别是在情报产出、误报管理和日常分析辅助方面。这些功能将使安全团队能够更高效地处理威胁情报,并将关键信息传递给需要的人员,从而增强组织的整体安全态势。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00