Elasticsearch-PHP 8.18.0版本发布:全面增强AI推理与搜索功能
Elasticsearch-PHP是官方提供的PHP客户端库,用于与Elasticsearch搜索引擎进行交互。作为Elasticsearch生态中的重要组成部分,它让PHP开发者能够轻松地将强大的搜索功能集成到应用程序中。
最新发布的8.18.0版本带来了多项重要更新,特别是在AI推理和搜索功能方面有显著增强。这个版本与Elasticsearch 8.18.0保持同步,引入了23个全新的API端点,同时对现有功能进行了优化和改进。
核心功能增强
文档错误处理改进
在文档操作相关的API中,包括bulk、create、index和update等,新增了include_source_on_error参数。这个布尔型参数控制当解析错误发生时,是否在错误消息中包含文档源内容,默认值为true。这一改进使得开发者在调试文档处理错误时能够获得更详细的信息,显著简化了问题排查过程。
任务管理优化
Cat.tasks端点新增了两个实用参数:
timeout:设置等待响应的超时时间,如果在该时间内未收到响应,请求将失败并返回错误wait_for_completion:当设置为true时,请求将阻塞直到任务完成
这些改进使得任务管理更加灵活可控,特别是在处理长时间运行的任务时。
AI推理功能全面升级
8.18.0版本最引人注目的变化是对AI推理功能的全面增强。Elasticsearch-PHP现在提供了完整的AI模型集成能力,支持与多种主流AI服务的对接。
新增推理服务支持
本次更新引入了多个专用于不同AI服务的API端点,包括:
- 阿里云AI搜索服务(Alibabacloud)
- Amazon Bedrock服务
- Anthropic的AI模型
- Azure AI Studio
- Azure OpenAI
- Cohere的语言模型
- 原生Elasticsearch模型
- ELSER稀疏向量模型
- Google AI Studio
- Google Vertex AI
- Hugging Face模型
- Jina AI
- Mistral AI
- OpenAI
- Voyage AI
- IBM Watsonx AI
这些新增端点让开发者能够直接在PHP应用中接入各种先进的AI能力,无需复杂的中间层。
推理API功能扩展
除了新增服务支持外,8.18.0版本还完善了推理API的功能集:
- 新增了
completion端点用于文本补全 - 新增了
chatCompletionUnified端点提供统一的聊天补全接口 - 新增了
textEmbedding端点生成文本嵌入向量 - 新增了
sparseEmbedding端点生成稀疏向量 - 新增了
rerank端点实现结果重新排序 - 新增了
streamCompletion端点替代原有的streamInterface,提供更流畅的流式补全体验
这些功能使得Elasticsearch-PHP在AI应用开发中的能力得到了质的飞跃。
搜索功能优化
EQL搜索增强
Eql.search端点新增了两个重要参数:
allow_partial_search_results:控制查询在分片失败时是否继续运行并返回部分结果allow_partial_sequence_results:专门针对序列查询,控制在分片失败时是否返回部分结果(仅在allow_partial_search_results为true时有效)
这些改进提高了搜索查询的容错能力,特别是在大规模集群环境下。
索引模板管理
Indices.putTemplate端点新增了cause参数,允许用户指定创建或更新索引模板的原因。这一改进增强了操作的可追溯性,便于团队协作和系统维护。
集群管理改进
Indices.resolveCluster端点有两个重要变化:
name参数不再是必填项- 新增了
timeout参数,用于设置等待远程集群响应的最长时间
这些调整使得集群解析操作更加灵活,特别是在处理跨集群搜索场景时。
总结
Elasticsearch-PHP 8.18.0版本标志着该项目在AI集成方面迈出了重要一步。通过新增大量AI服务支持和完善推理API,PHP开发者现在能够更轻松地构建智能搜索应用。同时,在核心搜索功能和集群管理方面的持续优化,也确保了Elasticsearch-PHP作为企业级搜索解决方案的可靠性。
对于正在使用或考虑采用Elasticsearch的PHP开发者来说,8.18.0版本提供了更多可能性,特别是在结合AI能力增强搜索体验方面。建议开发者评估这些新功能,看看如何将它们应用到自己的项目中,以提升应用的价值和用户体验。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00