Tilt项目中处理Docker构建上下文与文件监听的实践技巧
2025-05-28 20:42:08作者:何将鹤
背景介绍
在开发Rust多应用工作区(workspace)项目时,我们遇到了一个典型问题:虽然每个应用可以独立构建,但Cargo要求工作区中所有成员的Cargo.toml文件都必须存在才能成功构建任何一个成员。这意味着在Docker构建上下文中,我们需要包含所有应用的代码文件,即使它们与当前构建的应用无关。
问题核心
使用Tilt的docker_build命令时,我们发现:
- 必须将整个项目根目录作为构建上下文
- 但希望Tilt只监听当前应用的代码变更
- 现有解决方案要么会删除必要的构建上下文文件,要么无法实现细粒度的监听控制
现有方案的局限性
Tilt提供了几种文件监听控制机制,但都不完全适合这个场景:
- docker_build的ignore选项:会同时从构建上下文中删除文件
- only选项:同样会删除其他文件
- .tiltignore:全局设置,无法针对单个应用
- watch_settings:也是全局配置
创新解决方案
我们开发了一个基于custom_build的解决方案,关键点包括:
- 使用custom_build替代docker_build
- 手动处理.dockerignore文件内容
- 实现精细化的文件监听控制
核心实现代码:
def build_image(ref, context, dockerfile, target=None, extra_watch=[], extra_ignore=[], live_update=[]):
command = ['docker', 'build']
command += ['-f', dockerfile]
command += ['-t', '$EXPECTED_REF']
if target:
command += ['--target', target]
command += [shlex.quote(context)]
command = ' '.join(command)
watch_patterns = [dockerfile, dockerfile + '.dockerignore'] + extra_watch
negate_ignores = ['!' + watch for watch in watch_patterns]
ignore = dockerignore_patterns(dockerfile) + negate_ignores + extra_ignore
custom_build(
ref,
command=command,
deps=[context],
ignore=ignore,
live_update=live_update,
)
解决方案详解
-
Dockerignore处理:我们实现了自动读取对应Dockerfile的.dockerignore文件内容,确保构建时文件过滤规则一致
-
精细监听控制:通过extra_ignore参数,可以精确控制哪些文件变更应该触发重建。例如对于app1,我们传入
extra_ignore=["apps", "!apps/app1"],表示忽略apps目录下除app1外的所有变更 -
构建上下文保留:与文档描述不同,custom_build的ignore选项实际上会保留被忽略文件在构建上下文中,只是不监听它们的变更
典型.dockerignore配置
# 忽略所有文件
*
# 允许当前应用目录
!apps/app1
!libs
!Cargo.toml
!Cargo.lock
# 允许工作区成员的基本文件(构建必需)
!apps/**/Cargo.toml
!apps/**/src/main.rs
# 忽略特定目录
**/target
**/secrets
**/envs
实践建议
- 对于类似Rust工作区这样的项目结构,推荐采用这种解决方案
- 注意监控Tilt版本更新,确保custom_build的行为不会改变
- 可以为每个应用创建专门的Dockerfile和对应的.dockerignore文件
- 考虑将构建逻辑封装为可复用的Tilt函数,简化配置
总结
通过巧妙组合Tilt的custom_build功能和精细化的文件监听控制,我们成功解决了在多应用工作区环境下Docker构建的挑战。这种方案既保留了必要的构建上下文文件,又实现了精确的变更监听,显著提升了开发效率。虽然目前需要一些额外配置,但它为类似场景提供了一个可靠的工作模式。
登录后查看全文
热门项目推荐
相关项目推荐
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
项目优选
收起
deepin linux kernel
C
24
9
Ascend Extension for PyTorch
Python
223
246
暂无简介
Dart
672
157
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
663
313
React Native鸿蒙化仓库
JavaScript
262
324
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
9
1
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.2 K
655
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
64
19
openGauss kernel ~ openGauss is an open source relational database management system
C++
160
218
TorchAir 支持用户基于PyTorch框架和torch_npu插件在昇腾NPU上使用图模式进行推理。
Python
330
137