MediaPipe项目中构建libllm_inference_engine_jni.so的解决方案
在MediaPipe项目的开发过程中,许多开发者会遇到构建Android平台上LLM(大型语言模型)推理引擎的动态链接库libllm_inference_engine_jni.so的问题。这个问题主要出现在使用Bazel构建系统进行交叉编译时,特别是在Android ARM64架构下。
问题背景
当开发者尝试执行以下构建命令时:
bazel build -c opt --config=android_arm64 mediapipe/tasks/java/com/google/mediapipe/tasks/genai:libllm_inference_engine_jni.so
系统会报错提示无法解析@odml仓库,错误信息表明该仓库未定义。这个问题源于项目依赖关系的变化和构建配置的更新不及时。
解决方案
MediaPipe开发团队已经通过提交解决了这个问题。现在开发者可以直接使用上述构建命令成功生成libllm_inference_engine_jni.so库文件,无需额外的配置或修改。
技术细节
这个问题的根本原因是构建系统中缺少对odml(可能是某个内部依赖模块)仓库的明确定义。在早期的MediaPipe版本中,LLM推理引擎的实现依赖于一些尚未完全公开的组件。
MediaPipe团队通过重构构建配置,将必要的依赖项整合到主代码库中,移除了对外部odml仓库的依赖,从而简化了构建过程。这一改进使得开发者能够更轻松地在Android平台上构建和使用LLM推理功能。
构建环境准备
为了成功构建libllm_inference_engine_jni.so,开发者需要确保:
- 使用最新版本的MediaPipe代码库
- 正确配置Android SDK和NDK环境
- 安装并配置好Bazel构建系统
- 设置好Android交叉编译工具链
验证构建
构建成功后,开发者可以在bazel-bin目录下找到生成的libllm_inference_engine_jni.so文件。这个库文件可以集成到Android应用中,为应用提供本地LLM推理能力。
总结
MediaPipe项目持续改进其构建系统和组件依赖关系,使得开发者能够更便捷地使用其强大的多媒体和机器学习功能。对于LLM推理引擎的构建问题,开发者现在可以直接使用标准构建命令,无需担心之前的odml依赖问题。这大大降低了在Android平台上集成大型语言模型功能的门槛。
- DDeepSeek-V3.1-BaseDeepSeek-V3.1 是一款支持思考模式与非思考模式的混合模型Python00
- QQwen-Image-Edit基于200亿参数Qwen-Image构建,Qwen-Image-Edit实现精准文本渲染与图像编辑,融合语义与外观控制能力Jinja00
GitCode-文心大模型-智源研究院AI应用开发大赛
GitCode&文心大模型&智源研究院强强联合,发起的AI应用开发大赛;总奖池8W,单人最高可得价值3W奖励。快来参加吧~052CommonUtilLibrary
快速开发工具类收集,史上最全的开发工具类,欢迎Follow、Fork、StarJava04GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。06GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0307- WWan2.2-S2V-14B【Wan2.2 全新发布|更强画质,更快生成】新一代视频生成模型 Wan2.2,创新采用MoE架构,实现电影级美学与复杂运动控制,支持720P高清文本/图像生成视频,消费级显卡即可流畅运行,性能达业界领先水平Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013
热门内容推荐
最新内容推荐
项目优选









