Krita AI Diffusion插件v1.34.0版本发布:支持最新NVIDIA架构与Flux Union ControlNet
Krita AI Diffusion是一款为Krita数字绘画软件开发的AI生成插件,它通过集成Stable Diffusion等先进模型,让艺术家可以直接在熟悉的绘画环境中使用AI辅助创作。该插件支持文生图、图生图、图像修复等多种AI生成功能,同时保持了与Krita原生工具的深度整合。
核心升级:PyTorch 2.7.0与CUDA 12.8支持
本次1.34.0版本最重要的升级是将底层框架升级到了PyTorch 2.7.0和CUDA 12.8。这一技术升级带来了几个关键优势:
-
NVIDIA Blackwell架构支持:新版完全兼容最新的RTX 5000系列显卡,确保用户在使用最新硬件时能获得最佳性能表现。Blackwell架构是NVIDIA最新推出的GPU架构,在AI计算性能上有显著提升。
-
计算效率优化:PyTorch 2.7.0包含多项性能优化,特别是在张量运算和内存管理方面,这将使AI生成过程更加流畅,减少等待时间。
-
稳定性增强:新版本修复了之前版本中的多个已知问题,提高了插件整体稳定性。
需要注意的是,要充分发挥新版本性能,用户应确保显卡驱动已更新至最新版本。对于Windows用户,建议通过NVIDIA GeForce Experience或官方网站获取最新驱动。
Flux Union ControlNet集成
1.34.0版本新增了对Flux Union ControlNet模型的支持,这是ControlNet技术的一个重要分支。Flux Union ControlNet相比标准ControlNet具有以下特点:
-
多条件联合控制:能够同时处理多种控制条件(如边缘、深度、姿态等),实现更精确的图像生成控制。
-
细节保留能力:在保持整体构图的同时,能更好地保留输入图像的细节特征。
-
风格适应性:对不同的艺术风格有更好的适应能力,特别适合数字绘画场景。
用户可以选择下载fp16或fp8精度的模型文件,前者提供更高的生成质量,后者则占用更少显存,适合配置较低的设备。安装时只需将模型文件放置在指定目录即可自动识别。
安装与兼容性改进
针对不同操作系统环境,开发团队做出了多项优化:
-
Windows环境修复:解决了PSModulePath环境变量不存在时的安装问题,使安装过程更加健壮。同时修复了insightface在Windows系统上的安装问题,确保人脸相关功能正常使用。
-
自定义工作流增强:改进了参数节点的处理逻辑,现在可以正确接受默认值设置,使复杂工作流的创建更加直观。
-
用户界面优化:重新设计了队列按钮的下拉菜单交互,操作更加符合用户预期。
技术建议与最佳实践
对于计划升级的用户,建议:
-
在升级前备份现有的工作流配置和自定义模型。
-
如果从较早版本升级遇到问题,可以尝试完全卸载旧版本后重新安装。
-
使用Flux Union ControlNet时,建议先从小尺寸图像开始测试,确认效果后再提高分辨率,以节省时间。
-
对于拥有多GPU的系统,可以在设置中指定优先使用的显卡,以获得最佳性能。
Krita AI Diffusion持续推动着数字艺术创作边界的扩展,1.34.0版本的发布再次证明了开源社区在AI艺术工具领域的创新能力。这些技术进步不仅为专业艺术家提供了更强大的工具,也让更多创作者能够轻松体验AI辅助创作的魅力。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00