30分钟搭建本地智能搜索引擎:search_with_lepton私有化部署指南
2026-02-04 04:08:22作者:羿妍玫Ivan
你还在担心云端搜索引擎的隐私泄露问题?想拥有一个完全掌控的智能搜索工具却苦于技术门槛?本文将带你用不到500行代码构建专属的对话式搜索引擎,无需专业背景,全程可视化操作。读完你将获得:
- 本地化部署的隐私保护方案
- 支持GPT类模型的智能问答功能
- 可自定义的美观搜索界面
- 多引擎切换(Bing/Google)的灵活配置
项目概览
search_with_lepton是一个轻量级智能搜索解决方案,核心特点包括:
- 内置LLM(大语言模型)支持,实现搜索结果智能摘要
- 多搜索引擎无缝切换(Bing/Google)
- 响应式UI设计,适配各种设备
- 结果缓存与分享功能
项目架构采用前后端分离设计:
- 前端:基于Next.js的React应用 web/
- 后端:Python服务 search_with_lepton.py
- 核心组件:搜索框(search.tsx)、结果展示(result.tsx)、流式处理(fetch-stream.ts)
环境准备
基础依赖安装
# 安装Python依赖
pip install -U leptonai openai && lep login
# 安装Node.js依赖
cd web && npm install
API密钥准备
| 服务类型 | 获取途径 | 环境变量 |
|---|---|---|
| Bing搜索 | Bing Web Search API | BING_SEARCH_V7_SUBSCRIPTION_KEY |
| Google搜索 | SearchApi/Serper/Google可编程搜索 | SEARCHAPI_API_KEY/SERPER_API_KEY |
| Lepton AI | Lepton AI控制台 | LEPTON_WORKSPACE_TOKEN |
注意:Lepton AI提供免费额度,适合个人使用。登录后在"设置>令牌"页面获取工作区令牌
部署步骤
1. 配置环境变量
# 设置Bing搜索密钥
export BING_SEARCH_V7_SUBSCRIPTION_KEY=你的密钥
# 设置Lepton AI令牌
export LEPTON_WORKSPACE_TOKEN=你的令牌
2. 构建前端应用
cd web && npm run build
构建过程会生成优化后的静态资源,位于web/.next目录下。主要编译文件包括:
- 页面组件:page.tsx、search/page.tsx
- 全局样式:globals.css
- 类型定义:relate.ts、source.ts
3. 启动服务
根据搜索引擎选择对应命令启动:
# 使用Bing后端
BACKEND=BING python search_with_lepton.py
# 使用Google SearchApi后端
BACKEND=SEARCHAPI python search_with_lepton.py
# 使用Google Serper后端
BACKEND=SERPER python search_with_lepton.py
服务启动后,访问 http://localhost:8000 即可使用搜索界面。
功能定制
界面个性化
修改全局样式文件定制主题:
/* web/src/app/globals.css */
:root {
--primary-color: #3b82f6; /* 修改主色调 */
--search-bg: #f8fafc; /* 修改搜索框背景 */
--result-hover: #f1f5f9; /* 修改结果悬停效果 */
}
主要视觉组件位置:
- Logo: logo.tsx
- 页脚: footer.tsx
- 加载动画: skeleton.tsx
搜索预设配置
编辑预设查询文件添加常用搜索模板:
// web/src/app/components/preset-query.tsx
const presetQueries = [
{ label: "今日科技新闻", query: "latest technology news today" },
{ label: "Python教程", query: "best Python tutorials 2025" },
// 添加自定义预设...
];
高级使用
切换搜索引擎
修改启动命令的BACKEND参数即可无缝切换搜索引擎:
# Google SearchApi
export SEARCHAPI_API_KEY=你的密钥
BACKEND=SEARCHAPI python search_with_lepton.py
# Google Serper
export SERPER_SEARCH_API_KEY=你的密钥
BACKEND=SERPER python search_with_lepton.py
结果优化
通过修改LLM提示词调整回答质量:
# search_with_lepton.py 中调整prompt
def generate_prompt(question, sources):
return f"""基于以下搜索结果回答问题:{question}
来源:{sources}
要求:简洁明了,不超过200字,引用来源序号。
"""
常见问题
服务启动失败
- 检查端口占用情况:
lsof -i:8000 - 验证环境变量是否正确设置:
printenv | grep BING - 查看日志文件:
tail -f lepton.log
搜索结果为空
- 检查API密钥有效性
- 确认网络连接正常
- 尝试更换搜索引擎后端
界面显示异常
- 重新构建前端:
cd web && npm run build - 清除缓存:
npm run clean - 检查浏览器控制台错误信息
项目结构速览
search_with_lepton/
├── search_with_lepton.py # 后端服务
├── web/ # 前端应用
│ ├── src/app/
│ │ ├── components/ # UI组件
│ │ ├── interfaces/ # 类型定义
│ │ ├── utils/ # 工具函数
│ │ ├── page.tsx # 主页
│ │ └── search/page.tsx # 搜索结果页
│ └── public/ # 静态资源
└── lepton_template/ # 模板文件
通过本指南,你已成功部署了私有化的智能搜索引擎。该方案不仅保护你的搜索隐私,还可根据需求扩展功能,如添加本地知识库、自定义过滤规则等。项目源码完全开放,欢迎贡献代码或提出改进建议。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
568
98
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2