L3C-PyTorch 开源项目使用教程
1. 项目介绍
L3C-PyTorch 是一个基于 PyTorch 实现的图像无损压缩系统,由 Fabian Mentzer、Eirikur Agustsson、Michael Tschannen、Radu Timofte 和 Luc Van Gool 在 CVPR'19 上提出。该项目的主要目标是提供一个实用的、学习型的无损图像压缩系统,旨在超越现有的工程编解码器(如 PNG、WebP 和 JPEG 2000)。
L3C-PyTorch 的核心是一个完全并行化的分层概率模型,用于自适应熵编码,该模型针对压缩任务进行了端到端的优化。与最近的自动回归离散概率模型(如 PixelCNN)相比,L3C 具有以下优势:
- 联合建模图像分布与学习的辅助表示,而不仅仅是 RGB 空间中的图像分布。
- 仅需要三个前向传递来预测所有像素概率,而不是每个像素一个。
2. 项目快速启动
2.1 环境准备
首先,确保你已经安装了 Anaconda 或 Miniconda。然后,按照以下步骤创建并激活一个新的 conda 环境:
conda create --name l3c_env python=3.7 pip --yes
conda activate l3c_env
2.2 安装依赖
安装 PyTorch 和其他必要的依赖包:
conda install pytorch=1.1 torchvision cudatoolkit=10.0 -c pytorch
pip install -r pip_requirements.txt
2.3 编译 torchac
为了使用 L3C 进行图像压缩,你需要编译 torchac 模块。进入 src/torchac 目录并运行以下命令:
cd src/torchac
COMPILE_CUDA=auto python setup.py install
2.4 下载预训练模型
你可以从项目的 GitHub 页面 下载预训练模型。下载后,解压模型文件。
2.5 运行图像压缩
使用以下命令对图像进行压缩和解压缩:
# 压缩图像
python l3c.py /path/to/logdir 0306_0001 enc /path/to/img out.l3c
# 解压缩图像
python l3c.py /path/to/logdir 0306_0001 dec out.l3c decoded.png
3. 应用案例和最佳实践
3.1 图像压缩
L3C-PyTorch 可以用于对高分辨率图像进行无损压缩。通过使用预训练模型,用户可以快速实现图像的压缩和解压缩,而无需从头开始训练模型。
3.2 自定义数据集训练
如果你有自定义的图像数据集,可以通过以下步骤进行训练:
- 准备数据集:使用
prep_openimages.sh脚本对数据集进行预处理。 - 修改配置文件:根据你的数据集修改
configs/ms和configs/dl目录下的配置文件。 - 开始训练:使用
train.py脚本启动训练过程。
python train.py configs/ms/cr.cf configs/dl/oi.cf log_dir
3.3 模型评估
使用 test.py 脚本对训练好的模型进行评估:
python test.py /path/to/logdir 0306_0001 /some/imgdir --names "L3C" --recursive=auto
4. 典型生态项目
4.1 PyTorch
L3C-PyTorch 是基于 PyTorch 框架实现的,PyTorch 是一个开源的深度学习框架,广泛应用于计算机视觉和自然语言处理等领域。
4.2 torchac
torchac 是 L3C-PyTorch 项目中的一个重要模块,用于实现快速的熵编码。它是一个基于 C++ 的 PyTorch 扩展,提供了高效的算术编码功能。
4.3 Open Images Dataset
在 L3C-PyTorch 的训练和评估过程中,使用了 Open Images Dataset。这是一个大规模的图像数据集,包含了数百万张标注图像,适用于各种计算机视觉任务。
通过以上步骤,你可以快速上手 L3C-PyTorch 项目,并将其应用于图像无损压缩任务中。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C028
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00