GANet 项目使用教程
1. 项目介绍
GANet(Guided Aggregation Net)是一个用于端到端立体匹配的深度学习网络。该项目将传统的立体匹配几何和优化问题转化为深度神经网络,旨在提高立体匹配的准确性和效率。GANet 通过引导聚合网络(GA-Net)来实现这一目标,该网络在多个基准数据集上表现出色,特别是在 SceneFlow、KITTI 2012 和 KITTI 2015 数据集上。
2. 项目快速启动
2.1 环境准备
确保你的系统满足以下要求:
- gcc: >=5.3
- GPU 内存: >=6.5G(测试),>=11G(训练,推荐 >=22G)
- PyTorch: >=1.0
- CUDA: >=9.2(9.0 可能会有“pybind11 errors”)
2.2 安装 PyTorch
你可以通过 pip 轻松安装 PyTorch:
pip install torch torchvision
如果遇到编译 CUDA 库时的库冲突问题,建议从源码安装 PyTorch。
2.3 编译库
克隆项目并进入项目目录:
git clone https://github.com/feihuzhang/GANet.git
cd GANet
编译库文件:
sh compile.sh
如果遇到 BN 错误,可以尝试替换 sync-bn:
git clone https://github.com/NVIDIA/apex
cd apex
pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext"
2.4 数据准备
下载 SceneFlow 数据集(FlyingThings3D、Driving 和 Monkaa),并将训练图像和对应的视差文件移动到指定目录:
mv all_training_images_folders $[your_dataset_PATH]/frames_finalpass/TRAIN/
mv all_corresponding_disparity_files $[your_dataset_PATH]/disparity/TRAIN/
确保以下 29 个文件夹包含在 $[your_dataset_PATH]/disparity/TRAIN/ 和 $[your_dataset_PATH]/frames_finalpass/TRAIN/ 中。
2.5 训练和预测
修改参数设置并运行训练和预测脚本:
sh train.sh
sh predict.sh
注意:crop_width 和 crop_height 必须是 48 的倍数,max_disp 必须是 12 的倍数(默认值为 192)。
3. 应用案例和最佳实践
3.1 立体匹配
GANet 在立体匹配任务中表现出色,特别是在处理复杂场景和高分辨率图像时。通过端到端的训练,GANet 能够有效地减少视差误差,提高匹配精度。
3.2 自动驾驶
在自动驾驶领域,GANet 可以用于实时立体视觉系统,帮助车辆在复杂环境中进行精确的距离感知和障碍物检测。
4. 典型生态项目
4.1 NVIDIA Apex
NVIDIA Apex 是一个用于混合精度训练和分布式训练的 PyTorch 扩展库。GANet 使用了 Apex 来优化训练过程,特别是在处理大规模数据集时。
4.2 PyTorch
PyTorch 是一个开源的深度学习框架,GANet 基于 PyTorch 构建,充分利用了其动态计算图和强大的 GPU 加速能力。
4.3 SceneFlow 数据集
SceneFlow 是一个用于立体匹配任务的大型数据集,包含了多种复杂场景和高分辨率图像。GANet 在 SceneFlow 数据集上进行了广泛的测试和验证。
通过以上步骤,你可以快速启动并使用 GANet 项目,进行立体匹配任务的训练和预测。
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
atomcodeAn open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust016
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00
ERNIE-ImageERNIE-Image 是由百度 ERNIE-Image 团队开发的开源文本到图像生成模型。它基于单流扩散 Transformer(DiT)构建,并配备了轻量级的提示增强器,可将用户的简短输入扩展为更丰富的结构化描述。凭借仅 80 亿的 DiT 参数,它在开源文本到图像模型中达到了最先进的性能。该模型的设计不仅追求强大的视觉质量,还注重实际生成场景中的可控性,在这些场景中,准确的内容呈现与美观同等重要。特别是,ERNIE-Image 在复杂指令遵循、文本渲染和结构化图像生成方面表现出色,使其非常适合商业海报、漫画、多格布局以及其他需要兼具视觉质量和精确控制的内容创作任务。它还支持广泛的视觉风格,包括写实摄影、设计导向图像以及更多风格化的美学输出。Jinja00