【亲测免费】 如何使用Festivity的Genshin Impact Shader在Blender中复制原神游戏的渲染效果
目录结构及介绍
当你克隆了festivities/Blender-miHoYo-Shaders仓库之后,你会看到以下的目录和文件:
scriptsscripts
gitattributes, gitignore
这些是Git使用的标准配置文件.
HoYoverse - Genshin Impact Outlines v3.blend
此.blend文件包含了用于Genshin Impact轮廓的预设材料.
HoYoverse - Genshin Impact Post-Processing.blend
这个.blend文件提供了对Genshin Impact的后期处理的仿制.
HoYoverse - Genshin Impact v3.4.blend
这是主着色器文件版本3.4.
运行环境
这个仓库还包含了诸如.github等目录,其中包含自动化工作流程定义.
LICENSE
这是一个开源许可证声明(GNU General Public License v3).
README.md
这个文件包含了项目简介以及如何使用着色器的指南.
启动文件介绍
项目的启动点位于各个.blend文件中:
- HoYoverse - Genshin Impact Outlines v3.blend, HoYoverse - Genshin Impact Post-Processing.blend, 和 HoYoverse - Genshin Impact v3.4.blend: 使用这些文件作为你的起点来加载预先设定的材质和着色器设置到你的Blender场景中.
要打开任何这些.blend文件,只需要双击它或者从Blender内部选择"Open",然后浏览到该文件的位置并打开即可.
配置文件介绍
主要配置主要是在.blend文件中的材质设置和图像节点设置:
- 在HoYoverse - Genshin Impact Outlines v3.blend 中,你需要将头部骨骼约束到名为
Head Origin的空对象. - 在所有
.blend文件中,你都需要替换你的角色网格原始材质以匹配来自这些文件中的着色器材质. - 另外,你需要导入纹理进入对应的图像节点或纹理槽.
为了进行有效的模型渲染,你应该参照这些.blend文件里预先设定好所有的节点树.调整参数如光照,颜色修正和透明度效果以达到你想要的效果.
最后,记得检查读取文件(README.md)和项目许可(LICENSE).它们包含了使用和修改代码的重要细节.对于更深入的操作指南和技术背景知识,考虑查阅作者提供的资源和示例视频,可以在README.md文件中找到相关链接.
以上步骤就是如何开启和运行这个项目的整个过程.希望这帮助你理解了如何使用Festivity的Genshin Impact Shader库.如果你遇到任何技术难题或有疑问,请参阅相应的开发文档或联系项目维护者获取帮助.
现在,你可以开始探索如何用这些工具提升你在Blender中的3D模型渲染质量了!祝你好运!
如果你有任何问题或者需要进一步的帮助,请随时告知。
另外,由于该项目涉及特定的Blender插件和材质配置,建议在使用前熟悉Blender的工作流程,特别是有关着色器和材质的知识点.如果遇到困难可以查找相关的教程或者向社区求助.
希望这篇详细的指南能够帮到你,如果还有其他的问题欢迎继续询问。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C0105
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python059
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00