GANet 项目使用教程
1. 项目介绍
GANet(Guided Aggregation Net)是一个用于端到端立体匹配的深度学习网络。该项目将传统的立体匹配几何和优化问题转化为深度神经网络,旨在提高立体匹配的准确性和效率。GANet 通过引导聚合网络(GA-Net)来实现这一目标,该网络在多个基准数据集上表现出色,特别是在 SceneFlow、KITTI 2012 和 KITTI 2015 数据集上。
2. 项目快速启动
2.1 环境准备
确保你的系统满足以下要求:
- gcc: >=5.3
- GPU 内存: >=6.5G(测试),>=11G(训练,推荐 >=22G)
- PyTorch: >=1.0
- CUDA: >=9.2(9.0 可能会有“pybind11 errors”)
2.2 安装 PyTorch
你可以通过 pip 轻松安装 PyTorch:
pip install torch torchvision
如果遇到编译 CUDA 库时的库冲突问题,建议从源码安装 PyTorch。
2.3 编译库
克隆项目并进入项目目录:
git clone https://github.com/feihuzhang/GANet.git
cd GANet
编译库文件:
sh compile.sh
如果遇到 BN 错误,可以尝试替换 sync-bn:
git clone https://github.com/NVIDIA/apex
cd apex
pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext"
2.4 数据准备
下载 SceneFlow 数据集(FlyingThings3D、Driving 和 Monkaa),并将训练图像和对应的视差文件移动到指定目录:
mv all_training_images_folders $[your_dataset_PATH]/frames_finalpass/TRAIN/
mv all_corresponding_disparity_files $[your_dataset_PATH]/disparity/TRAIN/
确保以下 29 个文件夹包含在 $[your_dataset_PATH]/disparity/TRAIN/ 和 $[your_dataset_PATH]/frames_finalpass/TRAIN/ 中。
2.5 训练和预测
修改参数设置并运行训练和预测脚本:
sh train.sh
sh predict.sh
注意:crop_width 和 crop_height 必须是 48 的倍数,max_disp 必须是 12 的倍数(默认值为 192)。
3. 应用案例和最佳实践
3.1 立体匹配
GANet 在立体匹配任务中表现出色,特别是在处理复杂场景和高分辨率图像时。通过端到端的训练,GANet 能够有效地减少视差误差,提高匹配精度。
3.2 自动驾驶
在自动驾驶领域,GANet 可以用于实时立体视觉系统,帮助车辆在复杂环境中进行精确的距离感知和障碍物检测。
4. 典型生态项目
4.1 NVIDIA Apex
NVIDIA Apex 是一个用于混合精度训练和分布式训练的 PyTorch 扩展库。GANet 使用了 Apex 来优化训练过程,特别是在处理大规模数据集时。
4.2 PyTorch
PyTorch 是一个开源的深度学习框架,GANet 基于 PyTorch 构建,充分利用了其动态计算图和强大的 GPU 加速能力。
4.3 SceneFlow 数据集
SceneFlow 是一个用于立体匹配任务的大型数据集,包含了多种复杂场景和高分辨率图像。GANet 在 SceneFlow 数据集上进行了广泛的测试和验证。
通过以上步骤,你可以快速启动并使用 GANet 项目,进行立体匹配任务的训练和预测。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00