Rats Search 安装与使用全指南
1. 准备工作
1.1 环境要求
- 操作系统:Windows 10+/macOS 12+/Linux (Ubuntu 20.04+)
- 基础软件:Node.js 16.x+ 和 npm 8.x+
- 硬件配置:最低2GB内存,推荐4GB以上
⚠️ 注意:旧版Node.js可能导致依赖安装失败,建议使用nvm管理Node版本
1.2 获取源码
通过Git命令克隆项目仓库:
git clone https://gitcode.com/gh_mirrors/ra/rats-search.git
cd rats-search
小贴士:使用
--depth 1参数可仅克隆最新版本,减少下载时间
2. 安装步骤
2.1 安装依赖包
执行以下命令安装项目所需依赖:
npm install --force
功能说明:
--force参数用于解决潜在的依赖版本冲突
2.2 构建应用程序
根据使用场景选择对应构建命令:
桌面版:
npm run build
服务器版:
npm run buildweb
小贴士:构建过程可能需要5-10分钟,取决于网络速度和硬件性能
3. 配置详解
3.1 核心配置项
修改根目录下的package.json文件,关键配置如下:
| 参数名 | 默认值 | 推荐值 | 自定义范围 |
|---|---|---|---|
| serverDataDirectory | "./" | "./data" | 任意可写路径 |
| httpPort | 8095 | 80或443 | 1024-65535 |
配置示例:
{
"serverDataDirectory": "./data",
"httpPort": 8080
}
3.2 运行模式设置
通过环境配置文件区分运行环境:
开发环境(config/env_development.json):
{
"name": "development",
"logLevel": "debug"
}
生产环境(config/env_production.json):
{
"name": "production",
"logLevel": "warn"
}
⚠️ 重要:生产环境必须修改默认端口和数据目录权限
4. 启动与使用
4.1 启动应用
根据安装类型选择启动命令:
桌面版:
npm start
服务器版:
npm run server
成功启动后,服务器版可通过 http://localhost:8095 访问Web界面。
4.2 基本操作流程
- 首次启动后,程序会自动开始P2P网络发现
- 在搜索框输入关键词,点击搜索按钮
- 使用左侧过滤器面板缩小搜索范围
- 点击结果项查看详情并选择下载方式
图片说明:Rats Search主界面,显示搜索结果和过滤器面板
5. 功能拓展
5.1 端口映射配置
为确保P2P功能正常工作,需开放以下端口:
- TCP/UDP 4445:主通信端口
- TCP/UDP 4446:备用通信端口
在路由器设置中配置端口转发,或启用UPnP自动映射。
5.2 性能优化设置
修改rats.json配置文件优化性能:
{
"scannerSpeed": 15,
"maxNodes": 100,
"packetLimit": 600
}
小贴士:低配置设备建议将scannerSpeed设为30,减少CPU占用
6. 常见问题速查
Q: 启动后没有搜索结果怎么办?
A: 确保网络连接正常,端口已正确映射,耐心等待5-10分钟让节点发现完成。
Q: 如何迁移数据到新服务器?
A: 复制serverDataDirectory指定的目录到新服务器,保持相同的文件权限即可。
Q: 程序占用带宽过高如何处理?
A: 在设置中降低"扫描速度"参数,建议设为15-30之间的值。
7. 高级功能
7.1 搜索过滤器使用
通过高级搜索面板设置多条件过滤:
- 文件大小范围设置
- 种子/ peers数量筛选
- 内容分类过滤
图片说明:高级搜索过滤器,可按多种条件精确筛选内容
7.2 P2P网络配置
修改P2P网络参数优化连接质量:
{
"bootstrapNodes": ["node1.rats-search.org:4445"],
"maxPeers": 50
}
⚠️ 警告:修改P2P配置可能导致网络连接问题,新手用户不建议更改
感谢使用Rats Search!如有其他问题,请查阅项目文档或提交issue。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00

