【免费下载】 code-server 安装指南:从零开始搭建云端开发环境
code-server 是一个将 VS Code 编辑器带到浏览器中的开源项目,让开发者能够通过任何设备访问完整的开发环境。本文将详细介绍 code-server 在各种操作系统和平台上的安装方法,帮助开发者快速搭建自己的云端开发环境。
一、安装方式概览
code-server 提供了多种安装方式以适应不同用户的需求:
- 一键安装脚本:最简单的安装方式,自动检测系统环境
- 独立发布包:适合需要离线安装或自定义安装位置的用户
- 系统包管理器:适合使用 Linux 发行版的用户
- npm 安装:适合特殊架构或需要自定义构建的用户
- Docker 容器:适合需要隔离环境的用户
二、推荐安装方法:一键安装脚本
对于大多数用户,我们推荐使用官方提供的一键安装脚本,它能自动检测您的系统环境并选择最适合的安装方式。
安装步骤
-
首先可以预览安装过程(不实际执行):
curl -fsSL https://code-server.dev/install.sh | sh -s -- --dry-run -
实际安装命令:
curl -fsSL https://code-server.dev/install.sh | sh
安装选项
您可以通过参数自定义安装过程:
--method:指定安装方式(detect/standalone)--prefix:指定安装路径(默认为 ~/.local)--version:安装特定版本--edge:安装最新的预发布版本
安装完成后,脚本会显示如何运行和启动 code-server 的说明。
三、各操作系统详细安装指南
3.1 Debian/Ubuntu 系统
对于基于 Debian 的系统,可以使用 .deb 包安装:
# 下载最新版本的 .deb 包
curl -fOL https://github.com/coder/code-server/releases/download/v$VERSION/code-server_${VERSION}_amd64.deb
# 安装包
sudo dpkg -i code-server_${VERSION}_amd64.deb
# 启用并启动服务
sudo systemctl enable --now code-server@$USER
3.2 RHEL/CentOS/Fedora 系统
对于基于 RPM 的系统,安装步骤如下:
# 下载 RPM 包
curl -fOL https://github.com/coder/code-server/releases/download/v$VERSION/code-server-$VERSION-amd64.rpm
# 安装包
sudo rpm -i code-server-$VERSION-amd64.rpm
# 启用服务
sudo systemctl enable --now code-server@$USER
3.3 Arch Linux 系统
Arch 用户可以通过 AUR 安装:
# 使用 yay 安装
yay -S code-server
# 启用服务
sudo systemctl enable --now code-server@$USER
或者手动构建安装:
git clone https://aur.archlinux.org/code-server.git
cd code-server
makepkg -si
sudo systemctl enable --now code-server@$USER
3.4 macOS 系统
macOS 用户可以通过 Homebrew 安装:
brew install code-server
brew services start code-server
3.5 独立发布包安装
如果您需要将 code-server 安装到特定位置,可以使用独立发布包:
mkdir -p ~/.local/lib ~/.local/bin
curl -fL https://github.com/coder/code-server/releases/download/v$VERSION/code-server-$VERSION-linux-amd64.tar.gz | tar -C ~/.local/lib -xz
mv ~/.local/lib/code-server-$VERSION-linux-amd64 ~/.local/lib/code-server-$VERSION
ln -s ~/.local/lib/code-server-$VERSION/bin/code-server ~/.local/bin/code-server
PATH="~/.local/bin:$PATH"
code-server
四、容器化安装(Docker)
使用 Docker 可以快速部署隔离的 code-server 环境:
mkdir -p ~/.config
docker run -it --name code-server -p 127.0.0.1:8080:8080 \
-v "$HOME/.local:/home/coder/.local" \
-v "$HOME/.config:/home/coder/.config" \
-v "$PWD:/home/coder/project" \
-u "$(id -u):$(id -g)" \
-e "DOCKER_USER=$USER" \
codercom/code-server:latest
此命令会:
- 映射 8080 端口
- 挂载本地配置和项目目录
- 使用当前用户权限运行
五、特殊环境安装
5.1 npm 安装
在以下情况推荐使用 npm 安装:
- 非 amd64/arm64 架构
- Windows 系统
- glibc 版本过低
- Alpine Linux 等非 glibc 环境
安装命令:
npm install --global code-server
5.2 Raspberry Pi
树莓派用户建议使用 npm 安装:
npm install --global code-server
5.3 Windows 系统
目前官方未提供 Windows 版二进制包,建议使用 npm 安装。
六、服务管理
安装完成后,code-server 会作为系统服务运行。常用管理命令:
- 启动服务:
systemctl start code-server@$USER - 停止服务:
systemctl stop code-server@$USER - 查看状态:
systemctl status code-server@$USER - 开机自启:
systemctl enable code-server@$USER
七、卸载 code-server
完全卸载 code-server 需要删除应用程序和配置目录:
-
删除配置和数据:
rm -rf ~/.local/share/code-server ~/.config/code-server -
根据安装方式选择卸载方法:
-
一键脚本安装:
rm -rf ~/.local/lib/code-server-* -
Homebrew 安装:
brew uninstall code-server -
npm 安装:
npm uninstall --global code-server -
Debian/Ubuntu:
sudo apt remove code-server
-
八、首次访问
安装完成后,您可以通过浏览器访问:
http://127.0.0.1:8080
默认密码存储在配置文件中:
~/.config/code-server/config.yaml
九、总结
code-server 提供了灵活的安装方式,可以适应各种使用场景。对于大多数用户,推荐使用一键安装脚本或系统包管理器安装。对于需要隔离环境或特殊配置的用户,Docker 和独立发布包是不错的选择。安装完成后,您就可以在任何设备上通过浏览器访问完整的 VS Code 开发环境了。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00