CodeGeeX 开源项目教程
1. 项目介绍
CodeGeeX 是一个基于 AI 的代码生成助手,能够根据当前或后续的代码行提供代码建议。它由大规模多语言代码生成模型驱动,支持多种主流编程语言,包括 Python、C++、Java、JavaScript、Go 等。CodeGeeX 不仅支持代码生成,还支持跨语言代码翻译、自定义编程助手等功能。
2. 项目快速启动
安装环境
CodeGeeX 需要 Python 3.7+、CUDA 11+、PyTorch 1.10+ 和 DeepSpeed 0.6+ 环境。可以通过以下命令安装 CodeGeeX 包:
git clone git@github.com:THUDM/CodeGeeX.git
cd CodeGeeX
pip install -e .
或者使用 Docker 快速设置环境(需要安装 nvidia-docker):
docker pull codegeex/codegeex:latest
docker run --gpus '"device=0,1"' -it --ipc=host --name=codegeex codegeex/codegeex
下载模型权重
申请并下载模型权重,通过以下命令下载:
aria2c -x 16 -s 16 -j 4 --continue=true -i urls.txt
cat codegeex_13b.tar.gz.* > codegeex_13b.tar.gz
tar xvf codegeex_13b.tar.gz
运行推理
在 GPU 上运行推理,首先指定模型权重的路径,然后将提示(自然语言描述或代码片段)写入文件,例如 tests/test_prompt.txt,然后运行以下脚本:
# 单 GPU 运行(需要超过 27GB RAM)
bash ./scripts/test_inference.sh <GPU_ID> ./tests/test_prompt.txt
# 使用量化(需要超过 15GB RAM)
bash ./scripts/test_inference_quantized.sh <GPU_ID> ./tests/test_prompt.txt
# 多 GPU 运行(需要超过 6GB RAM,需先转换 ckpt 为 MP_SIZE 分区)
bash ./scripts/convert_ckpt_parallel.sh <LOAD_CKPT_PATH> <SAVE_CKPT_PATH> <MP_SIZE>
bash ./scripts/test_inference_parallel.sh <MP_SIZE> ./tests/test_prompt.txt
3. 应用案例和最佳实践
代码生成
CodeGeeX 可以根据自然语言描述生成代码。例如,输入以下描述:
生成一个简单的 Python 函数,计算两个数的和。
CodeGeeX 可以生成如下代码:
def add_numbers(a, b):
return a + b
跨语言代码翻译
CodeGeeX 支持将代码片段翻译成不同的编程语言。例如,将以下 Python 代码翻译成 Java:
def add_numbers(a, b):
return a + b
CodeGeeX 可以生成如下 Java 代码:
public int addNumbers(int a, int b) {
return a + b;
}
自定义编程助手
CodeGeeX 提供了 VS Code 和 JetBrains IDEs 的扩展,支持代码补全、解释、总结等功能,提升用户的编程体验。
4. 典型生态项目
HuggingFace
CodeGeeX 的模型权重和代码可以在 HuggingFace 上找到,方便用户进行模型推理和微调。
HumanEval-X
HumanEval-X 是一个新的多语言程序合成基准,用于评估多语言代码生成模型的能力。CodeGeeX 在 HumanEval-X 上表现优异,支持多种编程语言的代码生成和翻译。
CodeGeeX VS Code 扩展
CodeGeeX 提供了 VS Code 扩展,用户可以在 VS Code 中直接使用 CodeGeeX 进行代码生成和翻译。
CodeGeeX JetBrains 扩展
CodeGeeX 还提供了 JetBrains IDEs 的扩展,支持 IntelliJ IDEA、PyCharm、GoLand 等多种 IDE,用户可以在这些 IDE 中使用 CodeGeeX 进行代码生成和翻译。
通过以上教程,您可以快速上手并使用 CodeGeeX 进行代码生成和翻译,提升编程效率。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00