SManga:基于Docker的漫画流媒体阅读平台
SManga是一款简单易用的漫画流媒体阅读工具,采用Docker直装方式部署,专为解决漫画阅读需求而设计。该项目以Emby和Plex为灵感,为用户提供类似电影墙的漫画管理体验,支持多种漫画格式和丰富的阅读功能。
核心功能特性
SManga 4.2.3版本基于Vue 3和Node.js构建,具有以下核心功能:
多格式支持:支持zip、cbz、cbr、7z、rar、pdf等多种漫画压缩格式,自动解压转换为图片格式进行阅读。
智能媒体管理:采用类似Emby的流媒体电影墙界面,自动扫描和整理漫画资源,支持媒体库管理和路径配置。
多种阅读模式:提供单页、双页、条漫(瀑布流)等多种阅读模式,适应不同设备和阅读习惯。
进度管理:内置书签和历史记录功能,自动保存阅读进度,支持继续阅读功能。
多设备兼容:优化了手机、平板、PC等设备的显示效果,确保在各种设备上都能获得良好的阅读体验。
技术架构
SManga采用现代化的技术栈构建:
- 前端框架:Vue 3 + TypeScript + Element Plus + Vant
- 构建工具:Vue CLI 5
- 状态管理:Pinia
- 数据可视化:ECharts
- 国际化:Vue I18n
- 路由管理:Vue Router 4
安装部署
Docker部署(推荐)
SManga推荐使用Docker进行部署,只需映射一个data目录即可:
docker run -itd --name smanga \
-p 9797:9797 \
-v /mnt:/mnt \
-v /route/smanga:/data \
lkw199711/smanga-nodejs
Docker Compose部署
对于更复杂的部署需求,可以使用docker-compose:
version: "3"
services:
smanga:
image: lkw199711/smanga-nodejs
ports:
- 9797:9797
volumes:
- /route/smanga:/data
- /mnt:/mnt
environment:
PUID: 1000
PGID: 1000
TZ: Asia/Shanghai
restart: unless-stopped
Windows版本
对于没有Linux服务器的用户,SManga提供了Windows版本,解压即可使用:
- 下载最新的Windows安装包
- 解压到指定目录
- 如需更新,只需将原data目录复制覆盖到新版本目录
使用指南
初始设置
首次部署后,SManga需要完成初始化流程。当看到以下日志时表示服务启动成功:
Server is running on port 9797
[16:35:57.537] INFO (188): started HTTP server on 0.0.0.0:9798
默认用户名和密码均为:smanga
媒体库配置
- 进入"媒体库管理" -> "新增媒体库"
- 选择媒体类型:普通(漫画目录=>章节目录=>图片)或单本(漫画目录=>图片)
- 添加媒体路径,支持多条路径
- 系统将自动开始扫描漫画资源
阅读操作
- 添加书签:阅读时点击屏幕上30%区域呼出顶栏,点击最右侧书签按钮
- 切换模式:通过顶栏选择框切换单页、双页或条漫模式
- 页面导航:支持滑动翻页、页码跳转等多种导航方式
数据目录结构
SManga使用data目录存储所有数据和缓存文件:
bookmark/ 书签封面存储目录
cache/ 封面压缩缓存目录
compress/ 压缩包解压目录
config/ 配置文件目录
db/ 数据库目录(SQLite)
file/ APK等文件存放目录
logs/ Nginx等服务日志目录
poster/ 媒体库、漫画、章节封面存放目录
适用场景
SManga特别适合以下用户群体:
漫画收藏爱好者:需要管理大量漫画资源,希望像Emby管理电影一样管理漫画。
PT保种用户:下载的漫画需要保持压缩包格式,但同时又希望能够方便地阅读。
多设备用户:希望在手机、平板、PC等多种设备上无缝阅读漫画。
技术爱好者:喜欢使用Docker部署服务,享受一站式解决方案。
项目特色
开源免费:SManga是完全开源的项目,用户可以自由使用和修改。
Docker化部署:采用容器化部署,避免环境依赖问题,部署简单快捷。
持续更新:项目保持活跃开发,定期发布新功能和修复。
社区支持:拥有活跃的用户社区,提供技术支持和功能建议。
总结
SManga填补了漫画流媒体管理领域的空白,为漫画爱好者提供了一个功能完善、部署简单的阅读平台。无论是个人使用还是小范围共享,SManga都能提供出色的漫画阅读和管理体验。其Docker化的部署方式和现代化的技术架构,使其成为当前最值得尝试的漫画流媒体解决方案之一。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00



