如何使用Fineract CN Docker-Compose脚本进行开发部署
引言
在现代金融科技领域,快速部署和测试金融服务平台是开发过程中的关键步骤。Apache Fineract CN 是一个开源的金融服务平台,提供了丰富的微服务架构,能够支持多种金融业务场景。为了简化开发和测试过程,Fineract CN 提供了 Docker 和 Kubernetes 脚本,帮助开发者快速部署和配置环境。本文将详细介绍如何使用这些脚本进行开发部署,并探讨其在实际应用中的优势。
准备工作
环境配置要求
在开始部署之前,确保你的开发环境满足以下要求:
- Kubernetes:用于管理容器化应用的集群。
- Docker:用于创建和管理容器的工具。
- Docker-compose:用于定义和运行多容器 Docker 应用程序的工具。
- Java:Fineract CN 的核心服务依赖于 Java 环境。
所需数据和工具
在部署过程中,你可能需要以下数据和工具:
- RSA 密钥:用于生成环境变量文件
.env。 - Postman:用于手动部署和配置 Fineract CN 服务。
- Eureka 控制台:用于监控服务的注册情况。
模型使用步骤
数据预处理方法
在部署之前,首先需要生成 RSA 密钥并创建 .env 文件。你可以使用以下命令生成 RSA 密钥:
java -cp external_tools/lang-0.1.0-BUILD-SNAPSHOT.jar org.apache.fineract.cn.lang.security.RsaKeyPairFactory UNIX > .env
然后,将其他环境变量添加到 .env 文件中:
cat env_variables >> .env
模型加载和配置
使用 Kubernetes 部署
-
设置 Kubernetes 集群:确保你已经设置并连接到 Kubernetes 集群。你可以参考 这篇指南 来设置 GKE 集群。
-
进入 Kubernetes 目录:
cd kubernetes_scripts -
部署所有 Fineract CN 服务:
bash kubectl-start-up.sh -
检查服务的外部 IP 地址:
kubectl get services -
配置微服务:
cd bash_scripts bash provision.sh --deploy-on-kubernetes playground -
关闭并重置集群:
bash kubectl-shut-down.sh
使用 Docker 和 Docker-compose 部署
-
自动部署:
-
启动所有 Fineract CN 服务:
bash start-up.sh -
检查最后一个部署的微服务(如
fineract-cn-notification):docker logs -f fineract-cn-docker-compose_notifications-ms_1 -
配置微服务:
cd bash_scripts bash provision.sh playground
-
-
手动部署:
-
启动外部工具(如数据库、Cassandra 等):
cd external_tools docker-compose up -
启动微服务:
docker-compose up provisioner-ms -
选择要运行的服务,并启动它们:
docker-compose up rhythm-ms identity-ms customer-ms accounting-ms deposit-ms portfolio-ms office-ms teller-ms fims-web-app -
使用 Postman 进行配置:
- 导入 Postman 集合和环境文件。
- 按顺序执行请求,获取认证令牌。
- 使用 Postman Runner 导入账户数据。
-
结果分析
输出结果的解读
部署完成后,你可以通过 Eureka 控制台(http://localhost:8761/)查看所有服务的注册情况。确保所有服务都已正确启动并注册。
性能评估指标
通过 Postman 脚本,你可以验证服务的响应时间和功能是否正常。使用 Newman 工具可以自动化测试过程,确保部署的稳定性。
结论
Fineract CN 的 Docker 和 Kubernetes 脚本为开发者提供了一个高效、灵活的部署方案。通过这些脚本,开发者可以快速搭建开发环境,进行功能测试和性能评估。未来,可以进一步优化脚本,支持更多的部署场景,如 Docker Swarm 和 Kubernetes 的高级配置。
优化建议
- 自动化测试:使用 Newman 工具自动化 Postman 脚本的执行,减少手动操作。
- 多环境支持:扩展脚本以支持不同的部署环境,如生产环境和测试环境。
- 文档完善:提供更详细的文档和示例,帮助新手快速上手。
通过这些优化,Fineract CN 的部署过程将更加高效和可靠,进一步推动其在金融科技领域的应用。
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
unified-cache-managementUnified Cache Manager(推理记忆数据管理器),是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理并持久化推理过程中产生的KV Cache记忆数据,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。Python03
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
Spark-Prover-X1-7BSpark-Prover 是由科大讯飞团队开发的专用大型语言模型,专为 Lean4 中的自动定理证明而设计。该模型采用创新的三阶段训练策略,显著增强了形式化推理能力,在同等规模的开源模型中实现了最先进的性能。Python00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00