Monkeytype自托管部署指南:从零搭建专属打字测试平台
2026-02-04 04:16:18作者:幸俭卉
前言
Monkeytype作为一款现代化的打字速度测试工具,其开源特性允许用户进行自托管部署。本文将详细介绍如何将Monkeytype部署到自己的服务器环境,打造专属的打字测试平台。
环境准备
在开始部署前,请确保已满足以下基础条件:
- Docker环境:需要安装Docker引擎及Docker Compose插件
- 系统资源:建议至少2GB内存的服务器环境
- 网络条件:服务器需具备稳定的网络连接
快速部署流程
1. 初始化项目目录
mkdir monkeytype && cd monkeytype
2. 获取核心配置文件
获取docker-compose.yml文件,这是容器编排的核心配置文件
3. 环境变量配置
创建.env文件,建议从示例文件复制基础配置:
cp example.env .env
4. 后端配置
下载backend-configuration.json文件,这是后端服务的关键配置文件
5. 启动服务
docker compose up -d
服务启动后,可通过http://localhost:8080访问Monkeytype前端界面
账户系统配置
默认情况下,用户注册/登录功能是禁用的。如需启用,需配置Firebase服务。
Firebase项目设置
- 创建新Firebase项目
- 项目命名建议使用"monkeytype"
- 禁用Google Analytics功能
认证服务配置
- 在Firebase控制台中启用Email/Password认证方式
- 生成服务账户密钥文件(serviceAccountKey.json)
- 更新docker-compose.yml文件,解除相关volume的注释
环境变量更新
从Firebase控制台获取以下关键配置信息,并更新到.env文件:
FIREBASE_APIKEY=your_api_key
FIREBASE_AUTHDOMAIN=your_auth_domain
FIREBASE_PROJECTID=your_project_id
FIREBASE_STORAGEBUCKET=your_storage_bucket
FIREBASE_MESSAGINGSENDERID=your_sender_id
FIREBASE_APPID=your_app_id
后端配置更新
修改backend-configuration.json文件,启用用户功能:
{
"users": {
"signUp": true,
"profiles": {
"enabled": true
}
}
}
reCAPTCHA配置
- 申请reCAPTCHA v2密钥
- 将获得的站点密钥和密钥更新到.env文件
每日排行榜功能
如需启用每日排行榜功能,需在backend-configuration.json中添加配置:
{
"dailyLeaderboards": {
"enabled": true,
"maxResults": 250,
"leaderboardExpirationTimeInDays": 1,
"validModeRules": [
{
"language": "english",
"mode": "time",
"mode2": "15"
}
]
}
}
配置说明:
- language:支持的语言代码
- mode:测试模式(time或words)
- mode2:测试时长或单词数
配置文件详解
.env文件
包含所有环境变量设置,主要配置项包括:
- 服务端口
- Firebase配置
- reCAPTCHA密钥
- 其他功能开关
serviceAccountKey.json
Firebase服务账户凭证文件,仅在启用用户系统时需要
backend-configuration.json
后端服务核心配置文件,可通过以下方式管理:
- 通过Web界面配置(http://localhost:5005/configure/)
- 直接编辑JSON文件
- 使用curl命令获取当前配置
配置更新后,需要重启容器使更改生效:
docker compose restart
最佳实践建议
- 安全防护:建议配置HTTPS访问,确保数据传输安全
- 定期备份:定期备份serviceAccountKey.json等重要文件
- 性能监控:对容器资源使用情况进行监控
- 日志管理:配置日志轮转,避免日志文件过大
通过以上步骤,您已成功搭建了专属的Monkeytype打字测试平台。根据实际需求,可进一步定制界面样式、测试模式等参数,打造个性化的打字练习环境。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
569
3.84 K
Ascend Extension for PyTorch
Python
379
453
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
893
676
暂无简介
Dart
802
199
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
350
203
昇腾LLM分布式训练框架
Python
118
147
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
1
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
68
20
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.37 K
781