OI Wiki离线版使用教程:无网络环境下的竞赛知识学习方案
你是否遇到过网络不稳定却急需查阅算法资料的情况?是否想在没有网络的环境下继续学习编程竞赛知识?本文将详细介绍三种OI Wiki离线版部署方案,帮助你在任何场景下都能高效学习竞赛知识。读完本文后,你将掌握Docker容器部署、本地源码构建和静态页面直接访问三种离线学习方法,轻松应对无网络环境下的学习需求。
方案一:Docker容器部署(推荐新手)
环境准备
Docker部署方式具有跨平台、配置简单的特点,适合大多数用户。首先需要确保你的系统中已安装Docker环境。如果尚未安装,可以参考Docker官方文档进行安装。
获取OI Wiki镜像
OI Wiki提供了多个镜像源,你可以根据自己的网络环境选择合适的镜像源拉取镜像:
# Docker Hub 镜像(官方镜像仓库)
docker pull 24oi/oi-wiki
# DaoCloud Hub 镜像(国内镜像仓库)
docker pull daocloud.io/sirius/oi-wiki
# Tencent Hub 镜像(国内镜像仓库)
docker pull ccr.ccs.tencentyun.com/oi-wiki/oi-wiki
运行容器
拉取镜像后,使用以下命令运行容器:
# 将容器的8000端口映射到主机的8080端口
docker run -d -p 8080:8000 --name oi-wiki 24oi/oi-wiki
其中,-d参数表示后台运行容器,-p 8080:8000表示将容器的8000端口映射到主机的8080端口,--name oi-wiki为容器指定一个名称,方便后续操作。
访问离线版OI Wiki
容器启动后,打开浏览器,访问http://127.0.0.1:8080即可使用离线版OI Wiki。
容器常用操作
OI Wiki容器提供了一些实用的命令,方便你对Wiki内容进行更新和管理:
# 进入容器
docker exec -it oi-wiki /bin/bash
# 在容器内更新Wiki内容
wiki-upd
# 构建静态页面
wiki-bld
# 退出容器
exit
# 停止容器
docker stop oi-wiki
# 启动容器
docker start oi-wiki
更多关于Docker部署的详细信息,可以参考官方文档:docs/intro/docker-deploy.md
方案二:本地源码构建(适合开发者)
环境要求
本地源码构建需要安装Python3和uv包管理工具。如果你使用的是Linux或macOS系统,Python3通常已经预装。Windows用户可以从Python官网下载安装包进行安装。
获取源码
使用以下命令克隆OI Wiki仓库:
git clone https://gitcode.com/GitHub_Trending/oi/OI-wiki.git --depth=1
cd OI-wiki
安装依赖
安装uv包管理工具并同步项目依赖:
# 安装uv
pip install uv
# 使用清华源安装依赖
uv sync --index-url https://pypi.tuna.tsinghua.edu.cn/simple/
安装自定义主题
OI Wiki使用了自定义主题,需要单独安装:
# Linux/macOS用户
./scripts/pre-build/install-theme.sh
# Windows用户(需使用Git Bash执行)
bash scripts/pre-build/install-theme.sh
构建静态页面
执行以下命令构建静态页面,生成的文件将保存在site目录下:
uv run mkdocs build -v
本地预览
构建完成后,你可以使用Python内置的HTTP服务器来预览生成的静态页面:
# 进入site目录
cd site
# 启动HTTP服务器
python -m http.server 8000
然后在浏览器中访问http://127.0.0.1:8000即可查看离线版OI Wiki。
方案三:直接获取静态页面(最快速方案)
如果你只需要快速获取最新的静态页面,而不需要进行本地构建,可以直接克隆项目的gh-pages分支,该分支包含了已经构建好的静态页面:
git clone https://gitcode.com/GitHub_Trending/oi/OI-wiki.git -b gh-pages
克隆完成后,进入项目目录,启动HTTP服务器即可:
cd OI-wiki
python -m http.server 8000
这种方法的优点是获取速度快,不需要安装额外的依赖,适合临时需要离线访问的场景。
离线版内容更新
为了确保你能获取到最新的内容,建议定期更新离线版OI Wiki。根据你选择的部署方案,可以使用以下方法进行更新:
Docker部署更新
# 停止并删除现有容器
docker stop oi-wiki
docker rm oi-wiki
# 拉取最新镜像
docker pull 24oi/oi-wiki
# 重新运行容器
docker run -d -p 8080:8000 --name oi-wiki 24oi/oi-wiki
源码部署更新
# 进入项目目录
cd OI-wiki
# 拉取最新代码
git pull
# 重新构建
uv run mkdocs build -v
静态页面更新
# 进入项目目录
cd OI-wiki
# 拉取最新代码
git pull
常见问题解决
构建过程中依赖安装失败
如果在安装依赖时遇到网络问题,可以尝试更换国内源:
uv sync --index-url https://pypi.tuna.tsinghua.edu.cn/simple/
启动服务器后无法访问
如果启动HTTP服务器后无法访问,可能是端口被占用,可以尝试更换端口:
python -m http.server 8080
然后访问http://127.0.0.1:8080。
Docker命令需要管理员权限
如果执行Docker命令时提示权限不足,可以将当前用户添加到docker组:
sudo usermod -aG docker $USER
然后注销并重新登录即可。
总结
本文介绍了三种OI Wiki离线版部署方案,各有优缺点:
- Docker部署:配置简单,跨平台支持好,适合大多数用户
- 源码构建:可以自定义构建选项,适合有开发经验的用户
- 静态页面:获取速度快,适合临时需要离线访问的场景
无论你是在没有网络的环境下学习,还是希望提高访问速度,都可以根据自己的需求选择合适的方案。希望本文能帮助你更好地利用OI Wiki进行编程竞赛学习!
如果你在使用过程中遇到其他问题,可以查阅官方文档或在GitHub上提交issue寻求帮助。同时,也欢迎你为OI Wiki项目贡献自己的力量,一起完善这个优秀的编程竞赛知识库。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00