Mercury项目Docker部署问题排查与解决方案
背景介绍
Mercury是一个基于Python的交互式笔记本工具,允许用户将Jupyter Notebook转换为Web应用程序。在实际部署过程中,用户可能会遇到各种环境配置问题。本文将重点分析在Ubuntu系统上使用Docker部署Mercury时遇到的典型问题及其解决方案。
问题现象
在Ubuntu 22.04.5虚拟机上通过docker-compose部署Mercury时,主要遇到两个关键问题:
-
Mamba安装依赖失败:执行
docker-compose build时,mamba无法正确解析requirements.txt文件中的特定包版本要求,特别是channels[daphne]和dj-rest-auth[with_social]这两个依赖项。 -
IPython兼容性问题:成功构建镜像后,运行演示脚本时出现IPython与execnb之间的兼容性问题,具体表现为
InteractiveShell.run_cell()方法收到了意外的关键字参数cell_id。
问题分析
Mamba依赖解析问题
Mamba作为Conda的替代品,虽然提供了更快的依赖解析速度,但在处理某些特殊格式的依赖声明时可能存在限制。错误信息表明:
- 无法识别
channels[daphne]的可选依赖格式 - 无法找到
dj-rest-auth[with_social]的指定版本
这可能是由于conda-forge仓库中这些包的特定版本不可用,或者mamba对这些特殊语法支持不完善。
IPython兼容性问题
该问题源于IPython版本与execnb之间的API不兼容。较新版本的IPython修改了run_cell()方法的签名,不再支持cell_id参数,而execnb仍尝试传递此参数。
解决方案
修改Dockerfile
建议采用以下优化方案:
- 升级基础镜像到Ubuntu 22.04以获得更好的Python 3.10支持
- 使用pip替代mamba安装Python依赖
- 保留mamba仅用于安装核心组件
示例Dockerfile关键修改:
FROM ubuntu:22.04
# 安装系统依赖
RUN apt-get update && apt-get install -y python3.10 python3-pip git 及其他必要依赖...
# 安装Miniconda
RUN wget -qO /tmp/miniconda.sh 下载地址 && \
bash /tmp/miniconda.sh -b -p /opt/conda
# 使用conda安装核心组件
RUN conda install --yes python=3.10 mamba -c conda-forge
RUN mamba install --yes gunicorn psycopg2 daphne mercury -c conda-forge
# 使用pip安装其余依赖
RUN python3.10 -m pip install -r mercury/requirements.txt
调整requirements.txt
针对依赖问题,建议:
- 移除可能导致问题的特殊语法依赖
- 明确指定关键组件的版本
示例修改:
celery>=5.3.4
ipython>=7.31.1,<8.0.0 # 限制IPython大版本
ipywidgets==8.0.3 # 固定版本
dj-rest-auth==3.0.0 # 简化依赖声明
channels>=4.0.0 # 简化可选依赖
部署建议
-
测试环境验证:先在本地venv环境中测试所有功能,确认无兼容性问题后再进行Docker化。
-
版本控制:严格锁定关键依赖的版本,特别是IPython这类核心组件。
-
日志监控:部署后密切监控容器日志,及时发现运行时问题。
-
渐进式升级:对于生产环境,建议采用渐进式升级策略,先在小范围测试新版本。
总结
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00