CodeGeeX4 使用与启动教程
2026-01-30 05:09:35作者:殷蕙予
1. 项目介绍
CodeGeeX4 是一个开源的多语言代码生成模型,基于 GLM-4-9B 持续训练,具备代码补全、代码解释、网页搜索、函数调用、仓库级别的代码问答等多种功能。它在公开的基准测试中表现优异,例如 BigCodeBench 和 NaturalCodeBench,是目前参数少于 10B 的最强代码生成模型。
2. 项目快速启动
以下是快速启动 CodeGeeX4 的步骤:
首先,确保您的环境中已安装了必要的依赖项。以下是一个示例的安装命令:
pip install torch transformers vllm
接下来,可以使用以下代码启动 CodeGeeX4:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# 检查是否有可用的CUDA环境
device = "cuda" if torch.cuda.is_available() else "cpu"
# 加载模型和分词器
tokenizer = AutoTokenizer.from_pretrained("THUDM/codegeex4-all-9b", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("THUDM/codegeex4-all-9b", torch_dtype=torch.bfloat16, low_cpu_mem_usage=True, trust_remote_code=True).to(device).eval()
# 编写代码补全的提示
prompt = [{"role": "user", "content": "快速排序算法的实现"}]
# 转换提示为模型所需的格式
inputs = tokenizer.apply_chat_template(prompt, add_generation_prompt=True, return_tensors="pt", return_dict=True).to(device)
# 生成代码
with torch.no_grad():
outputs = model.generate(**inputs)
# 输出解码后的代码
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
确保在执行上述代码前,您的环境中有正确版本的 transformers 库。
3. 应用案例和最佳实践
以下是使用 CodeGeeX4 的几个应用案例:
- 代码补全:自动完成代码片段,提高编码效率。
- 代码解释:解释现有的代码段,帮助开发者理解复杂的逻辑。
- 函数调用:自动生成函数调用代码,减少手动查找和输入的工作量。
- 仓库级代码问答:在代码库中直接提问,快速定位问题和解决方案。
最佳实践:在使用 CodeGeeX4 时,建议为模型提供尽可能详细的上下文信息,以便模型能够更准确地生成代码。
4. 典型生态项目
CodeGeeX4 可以与多种开发工具和平台集成,例如:
- Visual Studio Code:通过扩展支持本地代码生成。
- JetBrains:通过插件提供代码生成功能。
- 其他开发工具:CodeGeeX4 也支持与其他开发工具的集成,例如通过 REST API。
通过上述集成,CodeGeeX4 可以成为开发者日常工作中不可或缺的辅助工具。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust069- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00
项目优选
收起
暂无描述
Dockerfile
687
4.45 K
Ascend Extension for PyTorch
Python
540
664
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
388
69
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
953
919
本项目是CANN开源社区的核心管理仓库,包含社区的治理章程、治理组织、通用操作指引及流程规范等基础信息
646
230
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
407
322
Oohos_react_native
React Native鸿蒙化仓库
C++
336
385
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.59 K
923
昇腾LLM分布式训练框架
Python
145
172
暂无简介
Dart
935
234