Neo4j知识图谱构建器部署与多语言适配实践
2025-06-24 07:29:23作者:明树来
项目背景
Neo4j知识图谱构建器(Neo4j Knowledge Graph Builder)是一个基于React和FastAPI构建的开源项目,用于创建和管理知识图谱。该项目包含前端React应用和后端FastAPI服务,通常需要部署在云服务器上供团队协作使用。
部署挑战与解决方案
防火墙环境下的部署问题
在公有云VM部署时遇到的主要挑战是防火墙环境下的跨域访问限制。由于浏览器同源策略要求,前端React应用需要与后端API在同一域名下访问。作者最初尝试通过Nginx反向代理将前后端统一到同一域名下,但遇到了404错误。
经过分析发现,Docker容器间的网络通信存在限制。最终采用的解决方案是:
-
前端直接暴露端口访问
- 保持前端原始配置,不通过反向代理
- 直接通过http://服务器IP:4040访问前端
-
后端通过Nginx反向代理
- 配置Nginx将/kgbuilderapi路径代理到后端服务
- 允许特定端口通过防火墙
-
后端添加CORS支持
- 在FastAPI应用中添加CORSMiddleware
- 配置允许所有来源的跨域请求
app.add_middleware(
CORSMiddleware,
allow_origins=["*"],
allow_credentials=True,
allow_methods=["*"],
allow_headers=["*"]
)
多语言评估指标适配
项目中的评估指标最初仅支持英语,为了支持中文等其它语言,作者进行了以下改进:
-
环境变量配置
- 在.env文件中添加LANGUAGE变量
- 通过docker-compose.yml传递给后端容器
-
升级ragas版本
- 将ragas升级到0.2.11版本
- 该版本支持多语言指标适配
-
自定义AnswerRelevancy指标
- 创建适配目标语言的answer_relevancy函数
- 使用async/await处理异步提示适配
def adapted_answer_relevancy(llm, embeddings):
answer_relevancy = AnswerRelevancy(
name="answer_relevancy", strictness=3, embeddings=embeddings
)
async def adapt_prompt():
adapted_prompts = await answer_relevancy.adapt_prompts(language=LANGUAGE, llm=llm)
return adapted_prompts
adapted_prompts = asyncio.run(adapt_prompt())
answer_relevancy.set_prompts(**adapted_prompts)
return answer_relevancy
部署架构建议
对于生产环境部署,建议采用以下架构:
-
前端服务
- 使用Nginx作为静态文件服务器
- 配置适当的缓存策略
- 启用HTTPS加密
-
后端服务
- 使用Gunicorn或Uvicorn作为应用服务器
- 配置合理的worker数量
- 启用日志记录和监控
-
数据库连接
- 使用连接池管理Neo4j连接
- 配置适当的超时和重试策略
- 启用TLS加密连接
性能优化建议
-
嵌入模型优化
- 根据目标语言选择合适的嵌入模型
- 考虑使用量化模型减少内存占用
- 启用模型缓存机制
-
评估指标优化
- 对长文本评估进行分块处理
- 实现异步批量评估
- 缓存评估结果
-
资源监控
- 监控GPU/CPU使用率
- 跟踪内存消耗
- 设置资源使用阈值告警
总结
通过本文介绍的部署方案,成功解决了Neo4j知识图谱构建器在防火墙环境下的部署问题,并实现了对中文等多语言的支持。这些实践经验对于类似的知识图谱项目部署具有参考价值,特别是在需要跨域访问和多语言支持的场景下。
未来可以考虑进一步优化前端反向代理方案,使其能够与后端服务统一域名访问,同时保持安全性和性能。此外,持续完善多语言支持,特别是非拉丁语系语言的评估指标适配,将大大提升项目的国际化能力。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust098- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
568
98
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
951
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2