首页
/ vLLM 项目使用教程

vLLM 项目使用教程

2024-08-07 23:12:55作者:卓炯娓

1. 项目的目录结构及介绍

vLLM 项目的目录结构如下:

vllm/
├── CONTRIBUTING.md
├── LICENSE
├── README.md
├── setup.py
├── vllm/
│   ├── __init__.py
│   ├── entrypoints/
│   │   ├── __init__.py
│   │   ├── api_server.py
│   ├── model_executor/
│   │   ├── __init__.py
│   │   ├── model.py
│   ├── utils/
│   │   ├── __init__.py
│   │   ├── memory_manager.py
│   ├── config/
│   │   ├── __init__.py
│   │   ├── settings.py

目录结构介绍

  • CONTRIBUTING.md: 贡献指南文件。
  • LICENSE: 项目许可证文件。
  • README.md: 项目介绍和使用说明。
  • setup.py: 项目安装脚本。
  • vllm/: 项目主目录。
    • __init__.py: 初始化文件。
    • entrypoints/: 入口点目录,包含 API 服务器的启动文件。
      • api_server.py: API 服务器启动文件。
    • model_executor/: 模型执行器目录。
      • model.py: 模型执行文件。
    • utils/: 工具目录。
      • memory_manager.py: 内存管理工具文件。
    • config/: 配置文件目录。
      • settings.py: 配置文件。

2. 项目的启动文件介绍

API 服务器启动文件

vllm/entrypoints/api_server.py 是 vLLM 项目的 API 服务器启动文件。通过该文件可以启动一个 OpenAI API 兼容的服务器。

启动命令如下:

python -m vllm.entrypoints.api_server --model lmsys/vicuna-7b-v1.3

离线推理启动

在 Python 脚本中使用 vLLM 进行离线推理的示例如下:

from vllm import LLM

prompts = ["Hello my name is", "The capital of France is"]  # 示例提示
llm = LLM(model="lmsys/vicuna-7b-v1.3")  # 创建一个 LLM
outputs = llm.generate(prompts)  # 从提示生成文本

3. 项目的配置文件介绍

配置文件

vllm/config/settings.py 是 vLLM 项目的配置文件。该文件包含了项目的各种配置选项,如模型路径、服务器端口等。

示例配置内容如下:

# settings.py

MODEL_PATH = "lmsys/vicuna-7b-v1.3"
SERVER_PORT = 8000

通过修改该文件中的配置项,可以调整 vLLM 的行为和参数。


以上是 vLLM 项目的目录结构、启动文件和配置文件的介绍。希望这份教程能帮助你更好地理解和使用 vLLM 项目。

登录后查看全文
热门项目推荐
相关项目推荐