首页
/ 在EmbedChain中正确配置Azure OpenAI部署的解决方案

在EmbedChain中正确配置Azure OpenAI部署的解决方案

2025-05-06 10:58:16作者:凌朦慧Richard

在使用EmbedChain项目时,许多开发者会遇到Azure OpenAI部署配置的问题。本文将通过一个典型错误案例,详细介绍如何正确配置Azure OpenAI服务,帮助开发者快速解决问题。

问题背景

当开发者尝试按照文档示例配置Azure OpenAI时,可能会遇到"Model not supports function calling"的错误提示。这个错误通常发生在使用litellm作为LLM提供者时,但实际上问题根源在于配置方式不当。

错误原因分析

错误信息表明系统无法识别Azure OpenAI部署模型支持函数调用功能。深入分析发现,这实际上是由于配置不完整导致的。开发者往往只配置了LLM部分,而忽略了embedder(嵌入器)的配置。

完整解决方案

正确的配置需要同时包含LLM和embedder两部分:

config = {
    "llm": {
        "provider": "azure_openai",
        "config": {
            "model": '<deployment-name-in-azure>',
            "temperature": 0.1,
            "max_tokens": 2000,
            "azure_kwargs": {
                "azure_deployment": DEPLOYMENT_NAME,
                "api_version": AZURE_API_VERSION,
                "azure_endpoint": AZURE_OPENAI_ENDPOINT,
                "api_key": AZURE_OPENAI_API_KEY
            }
        }
    },
    "embedder": {
        "provider": "azure_openai",
        "config": {
            "model": "text-embedding-3-large",
            "azure_kwargs": {
                "api_version": AZURE_API_VERSION,
                "azure_deployment": "<your-embeddings-deployment-in-azure-openai>",
                "azure_endpoint": AZURE_OPENAI_ENDPOINT,
                "api_key": AZURE_OPENAI_API_KEY
            }
        }
    }
}

配置要点说明

  1. LLM配置

    • 使用"azure_openai"作为provider
    • model参数应填写Azure门户中的部署名称
    • azure_kwargs中需要包含完整的连接信息
  2. Embedder配置

    • 同样使用"azure_openai"作为provider
    • model参数应填写基础模型名称(如text-embedding-3-large)
    • azure_deployment参数填写Azure门户中的嵌入模型部署名称
    • 需要提供与LLM相同的API版本、终结点和密钥

常见误区

  1. 只配置LLM而忽略embedder
  2. 混淆model参数和azure_deployment参数
  3. 在embedder配置中使用部署名称作为model参数
  4. 遗漏必要的连接参数(api_version等)

最佳实践建议

  1. 始终检查配置是否包含LLM和embedder两部分
  2. 确保Azure门户中的部署名称与配置一致
  3. 对于生产环境,建议将敏感信息存储在环境变量中
  4. 测试配置前,先验证Azure OpenAI服务的连通性

通过以上配置方法和注意事项,开发者可以避免常见的Azure OpenAI集成问题,确保EmbedChain项目能够顺利运行。

登录后查看全文
热门项目推荐
相关项目推荐