5分钟上手dify-tool-service:让AI自动生成思维导图、PPT和流程图的神奇工具
想让AI帮你自动生成思维导图、制作PPT或绘制流程图吗?dify-tool-service是一套专为开发者和普通用户设计的开源工具集,通过简单部署即可实现四大核心功能:思维导图生成、PPT制作、流程图绘制和智能试卷生成。无需复杂编程,小白也能轻松上手,让你的工作效率提升10倍!
📌 为什么选择dify-tool-service?
🌟 四大核心功能,一站式解决办公需求
dify-tool-service包含四个独立服务模块,覆盖从内容梳理到成果展示的全流程:
1️⃣ 思维导图生成:markmap-flask-service
通过markdown语法快速生成结构化思维导图,支持多层级展开与编辑,让复杂知识体系一目了然。服务源码位于markmap-flask-service/,内置Docker部署方案,3分钟即可启动服务。
2️⃣ PPT自动制作:marp-flask-service
只需编写简单的markdown文本,系统自动转换为专业PPT。内置多种主题模板,支持导出PDF和HTML格式。示例文件可参考marp-flask-service/data/helloworld.md,零基础也能做出高颜值演示文稿。
3️⃣ 流程图绘制:mermaid-flask-service
使用直观的文本语法绘制流程图、时序图、甘特图等,支持高清导出。配置文件mermaid-flask-service/config.json可自定义输出样式,满足学术论文和商业汇报的不同需求。
4️⃣ 智能试卷生成:quiz-flask-service
自动解析markdown格式的题库文件,生成交互式在线试卷,支持单选、多选和填空题。示例题库位于quiz-flask-service/markdown-quiz-files/sample-quiz.md,搭配quiz-flask-service/app/static/中的前端界面,轻松实现线上考试。
🚀 3步极速部署指南
1️⃣ 克隆项目仓库
git clone https://gitcode.com/gh_mirrors/di/dify-tool-service
cd dify-tool-service
2️⃣ 选择所需服务模块
根据需求进入对应服务目录,例如启动思维导图服务:
cd markmap-flask-service
3️⃣ 启动Docker容器
每个服务模块都提供一键部署脚本:
docker build -t markmap-service .
docker run -p 5000:5000 markmap-service
访问http://localhost:5000即可使用服务,其他模块部署步骤类似。
💡 实用场景案例
📚 学生党必备:知识整理与考试准备
使用思维导图梳理课本章节结构,通过试卷生成功能自测学习效果。示例试卷模板quiz-flask-service/markdown-quiz-files/sample-quiz.md可直接修改使用,支持图片插入和公式渲染。
📊 职场人士福音:高效汇报与项目管理
用mermaid绘制项目甘特图,搭配marp生成演示PPT,从数据到展示一气呵成。服务配置文件mermaid-flask-service/puppeteer-config.json可优化图表导出质量,让你的汇报更具专业性。
🛠️ 项目结构与扩展建议
核心服务目录说明
- 思维导图模块:markmap-flask-service/
- PPT生成模块:marp-flask-service/
- 流程图模块:mermaid-flask-service/
- 试卷系统模块:quiz-flask-service/
自定义扩展技巧
每个服务均采用Flask框架开发,可通过修改main.py文件添加自定义接口,或在requirements.txt中扩展依赖库,实现个性化功能。
📝 总结:让AI成为你的效率助手
dify-tool-service通过模块化设计,将复杂的内容生成工作简化为"编写文本-一键转换"的两步流程。无论是学生、教师还是职场人士,都能从中找到提升效率的实用工具。现在就克隆项目,开启你的智能办公之旅吧!
提示:各服务模块独立部署,可根据需求选择安装。详细使用文档可参考各模块目录下的README文件。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00