红墨:AI驱动的小红书图文生成神器 高效创作零门槛
在内容创作日益内卷的当下,小红书博主们面临着"选题难、制作慢、风格不统一"的三重挑战。红墨(Red Ink)作为一款基于Nano Banana Pro的智能图文生成工具,通过"一句话输入,全流程AI生成"的创新模式,将原本需要数小时的笔记制作缩短至分钟级,彻底打破创作壁垒,让普通人也能轻松产出专业级小红书内容。
核心价值:重新定义小红书创作流程
红墨的核心优势在于将AI技术与小红书平台特性深度融合,构建了从创意到成品的完整自动化链路。不同于传统工具仅提供单一功能,红墨实现了"主题分析-内容规划-文案生成-视觉设计"的全流程智能化,其独创的风格迁移技术能精准匹配用户个人账号调性,解决了"千篇一律"的内容同质化问题。
技术特性:双引擎驱动的创作黑盒
红墨采用前后端分离架构,后端基于Python 3.11+ Flask框架构建,集成Gemini 3文案AI与Nano Banana Pro图片生成引擎,实现文本与视觉内容的协同创作。前端采用Vue 3 + TypeScript开发,配合Pinia状态管理和Vite构建工具,确保流畅的操作体验。
技术栈亮点:
- 🔧 双AI引擎:Gemini 3负责语义理解与文案生成,Nano Banana Pro专注场景化图片创作
- 📱 响应式设计:适配从手机到桌面的全终端创作需求
- 💾 本地存储:支持创作历史实时保存与快速回溯
3步生成专业内容:从创意到成品的蜕变
1. 输入主题指令
在创作中心输入具体需求,支持文本描述与参考图片上传。例如:"秋季温柔美甲(偏腻子辣风格),符合我的小红书主页风格"。系统会自动解析核心要素,提取风格特征与内容方向。
2. 智能大纲编辑
系统基于主题生成结构化大纲,包含封面页、内容页、结尾互动等模块。用户可拖拽调整顺序,修改每页文案,设置图片风格参数。大纲支持实时预览,确保内容逻辑连贯。
3. 一键生成图文
确认大纲后,红墨将批量生成符合小红书平台规范的图文内容,默认输出15张以内的笔记页面。支持单页重新生成与风格微调,最终成果可直接导出至小红书发布。
部署方案:两种方式快速启动
Docker容器部署(推荐)
适合无开发经验用户,一行命令即可启动完整服务:
# 启动容器并映射数据目录
docker run -d -p 12398:12398 \
-v ./history:/app/history \
-v ./output:/app/output \
histonemax/redink:latest
访问 http://localhost:12398 完成API配置即可使用
本地开发部署
适合技术用户进行二次开发:
- 克隆仓库
git clone https://gitcode.com/gh_mirrors/red/RedInk
cd RedInk
- 配置服务
# 复制配置模板
cp text_providers.yaml.example text_providers.yaml
cp image_providers.yaml.example image_providers.yaml
- 安装依赖
# 后端依赖
uv sync
# 前端依赖
cd frontend && pnpm install
- 启动服务
- Linux/macOS:
./start.sh - Windows: 双击
start.bat
常见场景应用
电商从业者
快速制作产品推广笔记,输入"夏季连衣裙搭配指南",系统自动生成10张包含穿搭建议、面料解析、场景展示的专业笔记。
内容创作者
旅行博主输入"厦门三天两夜小众路线",红墨生成包含行程规划、美食推荐、拍照打卡点的图文攻略,风格统一且符合平台算法偏好。
职场人士
职场博主输入"新人职场沟通技巧",自动生成包含案例分析、话术模板、避坑指南的干货内容,专业度媲美行业KOL。
成果展示:多样化创作案例
红墨支持美妆、美食、旅行、职场等20+垂直领域的内容生成,所有输出均符合小红书平台审美规范,涵盖封面设计、标题优化、标签推荐等细节要素。
通过红墨,创作不再受限于专业技能与时间成本,让每个人的创意都能快速转化为高质量内容。无论是个人博主还是企业账号,都能通过这款工具实现内容生产的降本增效,在小红书生态中建立独特的竞争优势。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust075- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00


