SManga:基于Docker的漫画流媒体阅读平台
SManga是一款简单易用的漫画流媒体阅读工具,采用Docker直装方式部署,专为解决漫画阅读需求而设计。该项目以Emby和Plex为灵感,为用户提供类似电影墙的漫画管理体验,支持多种漫画格式和丰富的阅读功能。
核心功能特性
SManga 4.2.3版本基于Vue 3和Node.js构建,具有以下核心功能:
多格式支持:支持zip、cbz、cbr、7z、rar、pdf等多种漫画压缩格式,自动解压转换为图片格式进行阅读。
智能媒体管理:采用类似Emby的流媒体电影墙界面,自动扫描和整理漫画资源,支持媒体库管理和路径配置。
多种阅读模式:提供单页、双页、条漫(瀑布流)等多种阅读模式,适应不同设备和阅读习惯。
进度管理:内置书签和历史记录功能,自动保存阅读进度,支持继续阅读功能。
多设备兼容:优化了手机、平板、PC等设备的显示效果,确保在各种设备上都能获得良好的阅读体验。
技术架构
SManga采用现代化的技术栈构建:
- 前端框架:Vue 3 + TypeScript + Element Plus + Vant
- 构建工具:Vue CLI 5
- 状态管理:Pinia
- 数据可视化:ECharts
- 国际化:Vue I18n
- 路由管理:Vue Router 4
安装部署
Docker部署(推荐)
SManga推荐使用Docker进行部署,只需映射一个data目录即可:
docker run -itd --name smanga \
-p 9797:9797 \
-v /mnt:/mnt \
-v /route/smanga:/data \
lkw199711/smanga-nodejs
Docker Compose部署
对于更复杂的部署需求,可以使用docker-compose:
version: "3"
services:
smanga:
image: lkw199711/smanga-nodejs
ports:
- 9797:9797
volumes:
- /route/smanga:/data
- /mnt:/mnt
environment:
PUID: 1000
PGID: 1000
TZ: Asia/Shanghai
restart: unless-stopped
Windows版本
对于没有Linux服务器的用户,SManga提供了Windows版本,解压即可使用:
- 下载最新的Windows安装包
- 解压到指定目录
- 如需更新,只需将原data目录复制覆盖到新版本目录
使用指南
初始设置
首次部署后,SManga需要完成初始化流程。当看到以下日志时表示服务启动成功:
Server is running on port 9797
[16:35:57.537] INFO (188): started HTTP server on 0.0.0.0:9798
默认用户名和密码均为:smanga
媒体库配置
- 进入"媒体库管理" -> "新增媒体库"
- 选择媒体类型:普通(漫画目录=>章节目录=>图片)或单本(漫画目录=>图片)
- 添加媒体路径,支持多条路径
- 系统将自动开始扫描漫画资源
阅读操作
- 添加书签:阅读时点击屏幕上30%区域呼出顶栏,点击最右侧书签按钮
- 切换模式:通过顶栏选择框切换单页、双页或条漫模式
- 页面导航:支持滑动翻页、页码跳转等多种导航方式
数据目录结构
SManga使用data目录存储所有数据和缓存文件:
bookmark/ 书签封面存储目录
cache/ 封面压缩缓存目录
compress/ 压缩包解压目录
config/ 配置文件目录
db/ 数据库目录(SQLite)
file/ APK等文件存放目录
logs/ Nginx等服务日志目录
poster/ 媒体库、漫画、章节封面存放目录
适用场景
SManga特别适合以下用户群体:
漫画收藏爱好者:需要管理大量漫画资源,希望像Emby管理电影一样管理漫画。
PT保种用户:下载的漫画需要保持压缩包格式,但同时又希望能够方便地阅读。
多设备用户:希望在手机、平板、PC等多种设备上无缝阅读漫画。
技术爱好者:喜欢使用Docker部署服务,享受一站式解决方案。
项目特色
开源免费:SManga是完全开源的项目,用户可以自由使用和修改。
Docker化部署:采用容器化部署,避免环境依赖问题,部署简单快捷。
持续更新:项目保持活跃开发,定期发布新功能和修复。
社区支持:拥有活跃的用户社区,提供技术支持和功能建议。
总结
SManga填补了漫画流媒体管理领域的空白,为漫画爱好者提供了一个功能完善、部署简单的阅读平台。无论是个人使用还是小范围共享,SManga都能提供出色的漫画阅读和管理体验。其Docker化的部署方式和现代化的技术架构,使其成为当前最值得尝试的漫画流媒体解决方案之一。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00



