Elasticsearch-PHP 8.18.0版本发布:全面增强AI推理与搜索功能
Elasticsearch-PHP是官方提供的PHP客户端库,用于与Elasticsearch搜索引擎进行交互。作为Elasticsearch生态中的重要组成部分,它让PHP开发者能够轻松地将强大的搜索功能集成到应用程序中。
最新发布的8.18.0版本带来了多项重要更新,特别是在AI推理和搜索功能方面有显著增强。这个版本与Elasticsearch 8.18.0保持同步,引入了23个全新的API端点,同时对现有功能进行了优化和改进。
核心功能增强
文档错误处理改进
在文档操作相关的API中,包括bulk、create、index和update等,新增了include_source_on_error参数。这个布尔型参数控制当解析错误发生时,是否在错误消息中包含文档源内容,默认值为true。这一改进使得开发者在调试文档处理错误时能够获得更详细的信息,显著简化了问题排查过程。
任务管理优化
Cat.tasks端点新增了两个实用参数:
timeout:设置等待响应的超时时间,如果在该时间内未收到响应,请求将失败并返回错误wait_for_completion:当设置为true时,请求将阻塞直到任务完成
这些改进使得任务管理更加灵活可控,特别是在处理长时间运行的任务时。
AI推理功能全面升级
8.18.0版本最引人注目的变化是对AI推理功能的全面增强。Elasticsearch-PHP现在提供了完整的AI模型集成能力,支持与多种主流AI服务的对接。
新增推理服务支持
本次更新引入了多个专用于不同AI服务的API端点,包括:
- 阿里云AI搜索服务(Alibabacloud)
- Amazon Bedrock服务
- Anthropic的AI模型
- Azure AI Studio
- Azure OpenAI
- Cohere的语言模型
- 原生Elasticsearch模型
- ELSER稀疏向量模型
- Google AI Studio
- Google Vertex AI
- Hugging Face模型
- Jina AI
- Mistral AI
- OpenAI
- Voyage AI
- IBM Watsonx AI
这些新增端点让开发者能够直接在PHP应用中接入各种先进的AI能力,无需复杂的中间层。
推理API功能扩展
除了新增服务支持外,8.18.0版本还完善了推理API的功能集:
- 新增了
completion端点用于文本补全 - 新增了
chatCompletionUnified端点提供统一的聊天补全接口 - 新增了
textEmbedding端点生成文本嵌入向量 - 新增了
sparseEmbedding端点生成稀疏向量 - 新增了
rerank端点实现结果重新排序 - 新增了
streamCompletion端点替代原有的streamInterface,提供更流畅的流式补全体验
这些功能使得Elasticsearch-PHP在AI应用开发中的能力得到了质的飞跃。
搜索功能优化
EQL搜索增强
Eql.search端点新增了两个重要参数:
allow_partial_search_results:控制查询在分片失败时是否继续运行并返回部分结果allow_partial_sequence_results:专门针对序列查询,控制在分片失败时是否返回部分结果(仅在allow_partial_search_results为true时有效)
这些改进提高了搜索查询的容错能力,特别是在大规模集群环境下。
索引模板管理
Indices.putTemplate端点新增了cause参数,允许用户指定创建或更新索引模板的原因。这一改进增强了操作的可追溯性,便于团队协作和系统维护。
集群管理改进
Indices.resolveCluster端点有两个重要变化:
name参数不再是必填项- 新增了
timeout参数,用于设置等待远程集群响应的最长时间
这些调整使得集群解析操作更加灵活,特别是在处理跨集群搜索场景时。
总结
Elasticsearch-PHP 8.18.0版本标志着该项目在AI集成方面迈出了重要一步。通过新增大量AI服务支持和完善推理API,PHP开发者现在能够更轻松地构建智能搜索应用。同时,在核心搜索功能和集群管理方面的持续优化,也确保了Elasticsearch-PHP作为企业级搜索解决方案的可靠性。
对于正在使用或考虑采用Elasticsearch的PHP开发者来说,8.18.0版本提供了更多可能性,特别是在结合AI能力增强搜索体验方面。建议开发者评估这些新功能,看看如何将它们应用到自己的项目中,以提升应用的价值和用户体验。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5暂无简介00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00