如何使用Fineract CN Docker-Compose脚本进行开发部署
引言
在现代金融科技领域,快速部署和测试金融服务平台是开发过程中的关键步骤。Apache Fineract CN 是一个开源的金融服务平台,提供了丰富的微服务架构,能够支持多种金融业务场景。为了简化开发和测试过程,Fineract CN 提供了 Docker 和 Kubernetes 脚本,帮助开发者快速部署和配置环境。本文将详细介绍如何使用这些脚本进行开发部署,并探讨其在实际应用中的优势。
准备工作
环境配置要求
在开始部署之前,确保你的开发环境满足以下要求:
- Kubernetes:用于管理容器化应用的集群。
- Docker:用于创建和管理容器的工具。
- Docker-compose:用于定义和运行多容器 Docker 应用程序的工具。
- Java:Fineract CN 的核心服务依赖于 Java 环境。
所需数据和工具
在部署过程中,你可能需要以下数据和工具:
- RSA 密钥:用于生成环境变量文件
.env。 - Postman:用于手动部署和配置 Fineract CN 服务。
- Eureka 控制台:用于监控服务的注册情况。
模型使用步骤
数据预处理方法
在部署之前,首先需要生成 RSA 密钥并创建 .env 文件。你可以使用以下命令生成 RSA 密钥:
java -cp external_tools/lang-0.1.0-BUILD-SNAPSHOT.jar org.apache.fineract.cn.lang.security.RsaKeyPairFactory UNIX > .env
然后,将其他环境变量添加到 .env 文件中:
cat env_variables >> .env
模型加载和配置
使用 Kubernetes 部署
-
设置 Kubernetes 集群:确保你已经设置并连接到 Kubernetes 集群。你可以参考 这篇指南 来设置 GKE 集群。
-
进入 Kubernetes 目录:
cd kubernetes_scripts -
部署所有 Fineract CN 服务:
bash kubectl-start-up.sh -
检查服务的外部 IP 地址:
kubectl get services -
配置微服务:
cd bash_scripts bash provision.sh --deploy-on-kubernetes playground -
关闭并重置集群:
bash kubectl-shut-down.sh
使用 Docker 和 Docker-compose 部署
-
自动部署:
-
启动所有 Fineract CN 服务:
bash start-up.sh -
检查最后一个部署的微服务(如
fineract-cn-notification):docker logs -f fineract-cn-docker-compose_notifications-ms_1 -
配置微服务:
cd bash_scripts bash provision.sh playground
-
-
手动部署:
-
启动外部工具(如数据库、Cassandra 等):
cd external_tools docker-compose up -
启动微服务:
docker-compose up provisioner-ms -
选择要运行的服务,并启动它们:
docker-compose up rhythm-ms identity-ms customer-ms accounting-ms deposit-ms portfolio-ms office-ms teller-ms fims-web-app -
使用 Postman 进行配置:
- 导入 Postman 集合和环境文件。
- 按顺序执行请求,获取认证令牌。
- 使用 Postman Runner 导入账户数据。
-
结果分析
输出结果的解读
部署完成后,你可以通过 Eureka 控制台(http://localhost:8761/)查看所有服务的注册情况。确保所有服务都已正确启动并注册。
性能评估指标
通过 Postman 脚本,你可以验证服务的响应时间和功能是否正常。使用 Newman 工具可以自动化测试过程,确保部署的稳定性。
结论
Fineract CN 的 Docker 和 Kubernetes 脚本为开发者提供了一个高效、灵活的部署方案。通过这些脚本,开发者可以快速搭建开发环境,进行功能测试和性能评估。未来,可以进一步优化脚本,支持更多的部署场景,如 Docker Swarm 和 Kubernetes 的高级配置。
优化建议
- 自动化测试:使用 Newman 工具自动化 Postman 脚本的执行,减少手动操作。
- 多环境支持:扩展脚本以支持不同的部署环境,如生产环境和测试环境。
- 文档完善:提供更详细的文档和示例,帮助新手快速上手。
通过这些优化,Fineract CN 的部署过程将更加高效和可靠,进一步推动其在金融科技领域的应用。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00