首页
/ KServe项目中vLLM服务器部署与接口调用问题解析

KServe项目中vLLM服务器部署与接口调用问题解析

2025-06-16 21:24:59作者:邓越浪Henry

问题背景

在KServe项目中部署基于vLLM的大型语言模型服务时,用户遇到了两个主要技术问题:YAML格式解析错误和API接口调用404错误。本文将详细分析问题原因并提供解决方案。

YAML格式问题分析

最初用户按照官方文档提供的YAML配置部署InferenceService时,遇到了"did not find expected '-' indicator"错误。这是典型的YAML格式解析问题,主要原因是缩进和列表项标识符使用不当。

正确配置示例

经过调整后的有效配置如下:

apiVersion: serving.kserve.io/v1beta1
kind: InferenceService
metadata:
  namespace: kserve-test
  name: bloom
spec:
  predictor:
    containers:
    - args:
      - --port
      - "8080"
      - --model
      - "/mnt/models"
      command:
      - python3
      - -m
      - vllm.entrypoints.api_server
      env:
      - name: STORAGE_URI
        value: pvc://task-pv-claim/bloom-560m
      image: docker.io/kserve/vllmserver:latest
      imagePullPolicy: IfNotPresent 
      name: kserve-container
      resources:
        limits:
          cpu: "5"
          memory: 20Gi
          nvidia.com/gpu: "1"
        requests:
          cpu: "5"
          memory: 20Gi
          nvidia.com/gpu: "1"

关键修正点:

  1. 确保所有列表项使用"-"开头并正确缩进
  2. 保持一致的缩进层级
  3. 明确指定namespace字段

API接口调用问题

部署成功后,用户尝试调用多个接口均返回404错误。日志显示服务端确实收到了请求但找不到对应端点:

INFO:     172.20.199.156:0 - "POST /v2/models/bloom-560m/generate HTTP/1.1" 404 Not Found
INFO:     172.20.199.156:0 - "GET /v2/models/ HTTP/1.1" 404 Not Found

正确调用方式

最终发现有效的调用端点是/generate,请求体需包含prompt字段:

curl -v -H "Host: ${SERVICE_HOSTNAME}" -H "Content-Type: application/json" \
    http://${INGRESS_HOST}:${INGRESS_PORT}/generate \
    -d '{"prompt": "San Francisco is a" }'

成功响应示例:

{"text":["San Francisco is a medium-sized family donating site with nonprofits, churches, Catholic organizations and business"]}

技术深入解析

vLLM服务端点差异

标准vllm.entrypoints.api_server仅提供/generate端点,而不支持兼容接口。如需协议支持,应使用vllm.entrypoints.api_server

模型存储方案

配置中展示了两种模型存储方式:

  1. GCS存储:gcs://kfserving-examples/llm/huggingface/llama
  2. PVC存储:pvc://task-pv-claim/bloom-560m

PVC存储方案需要预先将模型文件复制到持久卷中,可通过初始化容器实现:

apiVersion: v1
kind: Pod
metadata: 
  name: setup-model-binary
spec: 
  volumes: 
    - name: model-volume
      persistentVolumeClaim: 
        claimName: model-claim
  containers: 
    - name: download-model
      image: python:3.11
      command: ["sh"]
      args: [ "-c", "pip install huggingface_hub && python3 -c 'from huggingface_hub import snapshot_download;snapshot_download(repo_id=\"gpt2\", local_dir=\"/mnt/models/gpt2\")'"]
      volumeMounts: 
        - mountPath: "/mnt/models/"
          name: model-volume

最佳实践建议

  1. YAML验证:部署前使用yamllint等工具验证YAML格式
  2. 接口测试:先通过kubectl port-forward直接测试容器端口,确认基础功能正常
  3. 日志监控:实时查看Pod日志定位问题
  4. 资源分配:根据模型大小合理设置CPU/GPU和内存资源
  5. 协议选择:根据客户端需求选择标准接口或兼容接口

总结

在KServe中部署vLLM服务时,需要注意YAML格式的精确性以及vLLM服务的端点设计特点。通过正确的配置和调用方式,可以充分发挥vLLM的高性能推理能力,为大型语言模型提供高效的服务化部署方案。

登录后查看全文
热门项目推荐

热门内容推荐

最新内容推荐

项目优选

收起
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
176
261
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
860
511
ShopXO开源商城ShopXO开源商城
🔥🔥🔥ShopXO企业级免费开源商城系统,可视化DIY拖拽装修、包含PC、H5、多端小程序(微信+支付宝+百度+头条&抖音+QQ+快手)、APP、多仓库、多商户、多门店、IM客服、进销存,遵循MIT开源协议发布、基于ThinkPHP8框架研发
JavaScript
93
15
openGauss-serveropenGauss-server
openGauss kernel ~ openGauss is an open source relational database management system
C++
129
182
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
259
300
kernelkernel
deepin linux kernel
C
22
5
cherry-studiocherry-studio
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
595
57
CangjieCommunityCangjieCommunity
为仓颉编程语言开发者打造活跃、开放、高质量的社区环境
Markdown
1.07 K
0
HarmonyOS-ExamplesHarmonyOS-Examples
本仓将收集和展示仓颉鸿蒙应用示例代码,欢迎大家投稿,在仓颉鸿蒙社区展现你的妙趣设计!
Cangjie
398
371
Cangjie-ExamplesCangjie-Examples
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
332
1.08 K