New-API项目离线环境部署中TikToken缓存问题的解决方案
2025-05-31 13:26:22作者:董斯意
问题背景
在New-API项目的实际部署过程中,许多用户反馈在离线环境下启动容器时会遇到"failed to get gpt-3.5-turbo token encoder"的错误。这个问题主要源于项目启动时需要下载OpenAI的词元编码文件,而离线环境无法完成这一操作。
问题分析
New-API在启动时会自动初始化token编码器,默认情况下会尝试从OpenAI的公共存储服务下载两个关键文件:
- cl100k_base.tiktoken - 用于GPT-3.5-turbo模型的词元编码
- o200k_base.tiktoken - 用于其他模型的词元编码
在离线环境中,这种依赖外部网络的机制会导致启动失败。错误信息中明确显示系统尝试连接openaipublic.blob.core.windows.net获取这些文件但失败了。
解决方案
New-API提供了TIKTOKEN_CACHE_DIR环境变量来解决这个问题。通过配置这个变量,可以实现:
- 在线环境下预先缓存这些编码文件
- 将缓存文件迁移到离线环境
- 离线环境下直接从缓存读取而不需要网络连接
具体实现步骤
-
配置缓存目录: 在docker-compose.yml中设置环境变量:
environment: - TIKTOKEN_CACHE_DIR=/cache/tiktoken -
映射缓存目录: 将主机目录映射到容器内的缓存位置:
volumes: - ./tiktoken:/cache/tiktoken -
文件重命名: 缓存文件需要按照特定规则重命名:
- cl100k_base.tiktoken → 9b5ad71b2ce5302211f9c61530b329a4922fc6a4
- o200k_base.tiktoken → fb374d419588a4632f3f557e76b4b70aebbca790
注意事项
- 确保缓存目录在容器内有读写权限
- 在首次部署时,建议先在线环境运行一次,让系统自动下载并缓存这些文件
- 文件重命名必须准确,否则系统无法识别缓存文件
- 对于生产环境,建议将这些文件纳入版本控制或备份系统
技术原理
TikToken是OpenAI开发的词元化工具,用于将文本转换为模型可以处理的token序列。New-API使用这些预定义的编码文件来确保与OpenAI官方API的兼容性。通过本地缓存机制,既保证了功能的完整性,又实现了离线部署的可能性。
这种设计体现了New-API项目对实际部署场景的考虑,特别是在网络受限或安全要求高的环境中,这种离线支持显得尤为重要。
登录后查看全文
热门项目推荐
相关项目推荐
暂无数据
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
540
3.77 K
Ascend Extension for PyTorch
Python
351
415
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
889
612
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
338
185
openJiuwen agent-studio提供零码、低码可视化开发和工作流编排,模型、知识库、插件等各资源管理能力
TSX
987
253
openGauss kernel ~ openGauss is an open source relational database management system
C++
169
233
暂无简介
Dart
778
193
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.35 K
758
华为昇腾面向大规模分布式训练的多模态大模型套件,支撑多模态生成、多模态理解。
Python
115
141