Rats Search 安装与使用全指南
1. 准备工作
1.1 环境要求
- 操作系统:Windows 10+/macOS 12+/Linux (Ubuntu 20.04+)
- 基础软件:Node.js 16.x+ 和 npm 8.x+
- 硬件配置:最低2GB内存,推荐4GB以上
⚠️ 注意:旧版Node.js可能导致依赖安装失败,建议使用nvm管理Node版本
1.2 获取源码
通过Git命令克隆项目仓库:
git clone https://gitcode.com/gh_mirrors/ra/rats-search.git
cd rats-search
小贴士:使用
--depth 1参数可仅克隆最新版本,减少下载时间
2. 安装步骤
2.1 安装依赖包
执行以下命令安装项目所需依赖:
npm install --force
功能说明:
--force参数用于解决潜在的依赖版本冲突
2.2 构建应用程序
根据使用场景选择对应构建命令:
桌面版:
npm run build
服务器版:
npm run buildweb
小贴士:构建过程可能需要5-10分钟,取决于网络速度和硬件性能
3. 配置详解
3.1 核心配置项
修改根目录下的package.json文件,关键配置如下:
| 参数名 | 默认值 | 推荐值 | 自定义范围 |
|---|---|---|---|
| serverDataDirectory | "./" | "./data" | 任意可写路径 |
| httpPort | 8095 | 80或443 | 1024-65535 |
配置示例:
{
"serverDataDirectory": "./data",
"httpPort": 8080
}
3.2 运行模式设置
通过环境配置文件区分运行环境:
开发环境(config/env_development.json):
{
"name": "development",
"logLevel": "debug"
}
生产环境(config/env_production.json):
{
"name": "production",
"logLevel": "warn"
}
⚠️ 重要:生产环境必须修改默认端口和数据目录权限
4. 启动与使用
4.1 启动应用
根据安装类型选择启动命令:
桌面版:
npm start
服务器版:
npm run server
成功启动后,服务器版可通过 http://localhost:8095 访问Web界面。
4.2 基本操作流程
- 首次启动后,程序会自动开始P2P网络发现
- 在搜索框输入关键词,点击搜索按钮
- 使用左侧过滤器面板缩小搜索范围
- 点击结果项查看详情并选择下载方式
图片说明:Rats Search主界面,显示搜索结果和过滤器面板
5. 功能拓展
5.1 端口映射配置
为确保P2P功能正常工作,需开放以下端口:
- TCP/UDP 4445:主通信端口
- TCP/UDP 4446:备用通信端口
在路由器设置中配置端口转发,或启用UPnP自动映射。
5.2 性能优化设置
修改rats.json配置文件优化性能:
{
"scannerSpeed": 15,
"maxNodes": 100,
"packetLimit": 600
}
小贴士:低配置设备建议将scannerSpeed设为30,减少CPU占用
6. 常见问题速查
Q: 启动后没有搜索结果怎么办?
A: 确保网络连接正常,端口已正确映射,耐心等待5-10分钟让节点发现完成。
Q: 如何迁移数据到新服务器?
A: 复制serverDataDirectory指定的目录到新服务器,保持相同的文件权限即可。
Q: 程序占用带宽过高如何处理?
A: 在设置中降低"扫描速度"参数,建议设为15-30之间的值。
7. 高级功能
7.1 搜索过滤器使用
通过高级搜索面板设置多条件过滤:
- 文件大小范围设置
- 种子/ peers数量筛选
- 内容分类过滤
图片说明:高级搜索过滤器,可按多种条件精确筛选内容
7.2 P2P网络配置
修改P2P网络参数优化连接质量:
{
"bootstrapNodes": ["node1.rats-search.org:4445"],
"maxPeers": 50
}
⚠️ 警告:修改P2P配置可能导致网络连接问题,新手用户不建议更改
感谢使用Rats Search!如有其他问题,请查阅项目文档或提交issue。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00

