首页
/ Azure SDK for .NET中AI模型推理端点的获取方法

Azure SDK for .NET中AI模型推理端点的获取方法

2025-06-05 15:47:18作者:宗隆裙

在使用Azure SDK for .NET进行AI模型推理时,正确获取服务端点是关键的第一步。本文将以Azure.AI.Inference库为例,详细介绍如何获取不同类型的推理端点URL。

端点URL的类型与区别

Azure AI服务提供了两种主要类型的端点URL格式:

  1. 传统认知服务端点
    格式为:https://[资源名称].cognitiveservices.azure.com/openai/deployments/[模型名称]/chat/completions
    这是早期认知服务使用的经典格式,通常需要附加API版本参数。

  2. 专用推理端点
    格式为:https://[部署名称].[Azure区域].inference.ai.azure.com
    这是专为模型推理优化的新格式,结构更简洁,专用于推理场景。

获取端点的具体步骤

  1. 登录Azure门户并导航到AI服务资源
  2. 在资源概览页面查找"Keys and Endpoint"部分
  3. 主要端点通常标记为"Endpoint",这就是传统认知服务端点
  4. 如需专用推理端点,需查看部署详情页

端点选择建议

  • 使用传统端点时:

    • 适合兼容现有系统
    • 需要手动附加API版本参数
    • 路径中包含具体模型名称
  • 使用专用推理端点时:

    • 结构更清晰简洁
    • 专为推理场景优化
    • 通常性能更优

常见问题解决

如果找不到专用推理端点,可能是因为:

  • 资源类型选择不正确(需选择AI服务而非传统认知服务)
  • 区域不支持新端点格式
  • 权限不足无法查看完整信息

建议在部署模型时明确选择支持新端点格式的区域和服务类型。对于生产环境,专用推理端点通常是更好的选择,因其提供了更优化的性能和更简洁的接口。

通过理解这些端点类型的区别和获取方法,开发者可以更高效地使用Azure SDK for .NET进行AI模型推理开发。

登录后查看全文
热门项目推荐
相关项目推荐