Elasticsearch-PHP 8.18.0版本发布:全面增强AI推理与搜索功能
Elasticsearch-PHP是官方提供的PHP客户端库,用于与Elasticsearch搜索引擎进行交互。作为Elasticsearch生态中的重要组成部分,它让PHP开发者能够轻松地将强大的搜索功能集成到应用程序中。
最新发布的8.18.0版本带来了多项重要更新,特别是在AI推理和搜索功能方面有显著增强。这个版本与Elasticsearch 8.18.0保持同步,引入了23个全新的API端点,同时对现有功能进行了优化和改进。
核心功能增强
文档错误处理改进
在文档操作相关的API中,包括bulk、create、index和update等,新增了include_source_on_error参数。这个布尔型参数控制当解析错误发生时,是否在错误消息中包含文档源内容,默认值为true。这一改进使得开发者在调试文档处理错误时能够获得更详细的信息,显著简化了问题排查过程。
任务管理优化
Cat.tasks端点新增了两个实用参数:
timeout:设置等待响应的超时时间,如果在该时间内未收到响应,请求将失败并返回错误wait_for_completion:当设置为true时,请求将阻塞直到任务完成
这些改进使得任务管理更加灵活可控,特别是在处理长时间运行的任务时。
AI推理功能全面升级
8.18.0版本最引人注目的变化是对AI推理功能的全面增强。Elasticsearch-PHP现在提供了完整的AI模型集成能力,支持与多种主流AI服务的对接。
新增推理服务支持
本次更新引入了多个专用于不同AI服务的API端点,包括:
- 阿里云AI搜索服务(Alibabacloud)
- Amazon Bedrock服务
- Anthropic的AI模型
- Azure AI Studio
- Azure OpenAI
- Cohere的语言模型
- 原生Elasticsearch模型
- ELSER稀疏向量模型
- Google AI Studio
- Google Vertex AI
- Hugging Face模型
- Jina AI
- Mistral AI
- OpenAI
- Voyage AI
- IBM Watsonx AI
这些新增端点让开发者能够直接在PHP应用中接入各种先进的AI能力,无需复杂的中间层。
推理API功能扩展
除了新增服务支持外,8.18.0版本还完善了推理API的功能集:
- 新增了
completion端点用于文本补全 - 新增了
chatCompletionUnified端点提供统一的聊天补全接口 - 新增了
textEmbedding端点生成文本嵌入向量 - 新增了
sparseEmbedding端点生成稀疏向量 - 新增了
rerank端点实现结果重新排序 - 新增了
streamCompletion端点替代原有的streamInterface,提供更流畅的流式补全体验
这些功能使得Elasticsearch-PHP在AI应用开发中的能力得到了质的飞跃。
搜索功能优化
EQL搜索增强
Eql.search端点新增了两个重要参数:
allow_partial_search_results:控制查询在分片失败时是否继续运行并返回部分结果allow_partial_sequence_results:专门针对序列查询,控制在分片失败时是否返回部分结果(仅在allow_partial_search_results为true时有效)
这些改进提高了搜索查询的容错能力,特别是在大规模集群环境下。
索引模板管理
Indices.putTemplate端点新增了cause参数,允许用户指定创建或更新索引模板的原因。这一改进增强了操作的可追溯性,便于团队协作和系统维护。
集群管理改进
Indices.resolveCluster端点有两个重要变化:
name参数不再是必填项- 新增了
timeout参数,用于设置等待远程集群响应的最长时间
这些调整使得集群解析操作更加灵活,特别是在处理跨集群搜索场景时。
总结
Elasticsearch-PHP 8.18.0版本标志着该项目在AI集成方面迈出了重要一步。通过新增大量AI服务支持和完善推理API,PHP开发者现在能够更轻松地构建智能搜索应用。同时,在核心搜索功能和集群管理方面的持续优化,也确保了Elasticsearch-PHP作为企业级搜索解决方案的可靠性。
对于正在使用或考虑采用Elasticsearch的PHP开发者来说,8.18.0版本提供了更多可能性,特别是在结合AI能力增强搜索体验方面。建议开发者评估这些新功能,看看如何将它们应用到自己的项目中,以提升应用的价值和用户体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00