Learnware-LAMDA项目中的Learnware模型复用指南
什么是Learnware复用
在Learnware-LAMDA项目中,Learnware复用是指利用已部署的预训练模型(称为learnware)来解决新任务的过程。这些learnware模型经过精心设计和训练,可以被不同用户在不同场景下重复使用,无需从头开始训练模型,从而显著提高机器学习应用的开发效率。
复用方法分类
Learnware复用方法主要分为两大类:
- 无数据依赖的复用方法:直接使用learnware进行预测,不需要额外标注数据
- 数据依赖的复用方法:利用少量标注数据对learnware进行适配后再使用
同构模型复用
同构模型复用是指learnware与用户任务的输入输出空间完全匹配的情况下的复用方式。
基础复用方法
最简单的复用方式是直接使用单个learnware进行预测:
# learnware是搜索结果中的单个learnware
# test_x是用户需要预测的数据
predict_y = learnware.predict(user_data=test_x)
无数据依赖复用方法
JobSelector复用
JobSelector通过训练一个"任务选择器"分类器,为不同数据选择不同的learnware:
from learnware.reuse import JobSelectorReuser
reuse_job_selector = JobSelectorReuser(learnware_list=learnware_list)
predict_y = reuse_job_selector.predict(user_data=test_x)
平均集成复用
AveragingReuser使用集成方法进行预测,支持多种集成模式:
from learnware.reuse import AveragingReuser
# 回归任务使用"mean"模式:平均learnware输出
# 分类任务可选:
# - "vote_by_label":对learnware输出标签进行多数投票
# - "vote_by_prob":对learnware输出概率进行多数投票
reuse_ensemble = AveragingReuser(learnware_list=learnware_list, mode="vote_by_label")
ensemble_predict_y = reuse_ensemble.predict(user_data=test_x)
数据依赖复用方法
当用户有少量标注数据时,可以使用以下方法:
集成剪枝复用
EnsemblePruningReuser使用多目标进化算法选择适合的learnware子集:
from learnware.reuse import EnsemblePruningReuser
reuse_ensemble_pruning = EnsemblePruningReuser(
learnware_list=learnware_list, mode="regression"
)
reuse_ensemble_pruning.fit(val_X, val_y) # (val_X, val_y)是少量标注数据
predict_y = reuse_job_selector.predict(user_data=test_x)
特征增强复用
FeatureAugmentReuser通过特征增强辅助复用learnware:
from learnware.reuse import FeatureAugmentReuser
reuse_feature_augment = FeatureAugmentReuser(
learnware_list=learnware_list, mode="regression"
)
reuse_feature_augment.fit(val_X, val_y)
predict_y = reuse_feature_augment.predict(user_data=test_x)
异构模型复用
当learnware与用户任务的输入输出空间不匹配时,需要进行异构复用。Learnware-LAMDA提供了HeteroMapAlignLearnware来处理这种情况。
异构模型对齐
from learnware.reuse import HeteroMapAlignLearnware
hetero_learnware = HeteroMapAlignLearnware(learnware=leanrware, mode="regression")
hetero_learnware.align(user_spec, val_x, val_y) # 使用用户规格和标注数据进行对齐
predict_y = hetero_learnware.predict(user_data=test_x)
多异构模型复用
可以结合同构复用方法使用多个异构learnware:
hetero_learnware_list = []
for learnware in learnware_list:
hetero_learnware = HeteroMapAlignLearnware(learnware, mode="regression")
hetero_learnware.align(user_spec, val_x, val_y)
hetero_learnware_list.append(hetero_learnware)
# 使用AveragingReuser
reuse_ensemble = AveragingReuser(learnware_list=hetero_learnware_list, mode="mean")
ensemble_predict_y = reuse_ensemble.predict(user_data=test_x)
# 使用EnsemblePruningReuser
reuse_ensemble = EnsemblePruningReuser(
learnware_list=hetero_learnware_list, mode="regression"
)
reuse_ensemble.fit(val_x, val_y)
ensemble_pruning_predict_y = reuse_ensemble.predict(user_data=test_x)
使用模型容器运行Learnware
Learnware-LAMDA提供了Model Container来为learnware构建执行环境:
from learnware.learnware import Learnware
with LearnwaresContainer(learnware, mode="conda") as env_container:
learnware = env_container.get_learnwares_with_container()[0]
print(learnware.predict(test_x))
容器模式有两种选择:
- conda模式:为每个learnware安装独立的conda虚拟环境(执行后自动删除)
- docker模式:在Docker容器内安装conda虚拟环境(执行后自动销毁),需要Docker权限
安全提示:如果不能保证learnware的安全性,建议使用docker模式以确保系统安全。
总结
Learnware-LAMDA项目提供了丰富的learnware复用方法,从简单的直接预测到复杂的异构模型对齐,再到安全的环境容器化执行,能够满足各种机器学习模型复用场景的需求。开发者可以根据具体任务特点和数据可用性,选择最适合的复用策略。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0138- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
MusicFreeDesktop插件化、定制化、无广告的免费音乐播放器TypeScript00