FLAML自定义评估指标的正确使用方法解析
引言
在机器学习自动化工具FLAML中,评估指标的选择对于模型优化至关重要。虽然FLAML提供了丰富的内置评估指标,但在实际业务场景中,我们经常需要根据特定需求定义自定义评估指标。本文将详细介绍如何在FLAML中正确使用自定义评估指标,特别是针对回归任务中常用的调整R²和加权平均绝对百分比误差(WMAPE)的实现方法。
自定义评估指标的基本概念
FLAML允许用户通过定义Python函数来创建完全自定义的评估指标。与内置指标不同,自定义指标需要以函数对象的形式直接传递给FLAML,而不是通过字符串名称引用。这种设计提供了极大的灵活性,但同时也容易导致使用上的误区。
常见错误模式
许多用户在使用FLAML自定义指标时容易犯的一个典型错误是:将自定义指标的名称以字符串形式传递给metric参数,就像使用内置指标那样。例如:
automl_settings = {
"metric": "custom_adjusted_r2", # 错误用法
"task": "regression",
# 其他参数...
}
这种用法会导致FLAML无法识别自定义指标,进而引发各种预测和评估错误。
正确实现方法
1. 自定义调整R²指标
调整R²考虑了模型使用的特征数量,可以防止过拟合。以下是正确实现方式:
from sklearn.metrics import r2_score
import numpy as np
def custom_adjusted_r2(
X_val, Y_val, estimator, labels,
X_train, Y_train, weight_val=None,
weight_train=None, config=None,
groups_val=None, groups_train=None
):
Y_pred = estimator.predict(X_val)
r2 = r2_score(Y_val, Y_pred, sample_weight=weight_val) if weight_val else r2_score(Y_val, Y_pred)
n = len(Y_val)
p = X_val.shape[1]
adjusted_r2 = r2 if n - p - 1 <= 0 else 1 - ((1 - r2) * (n - 1) / (n - p - 1))
return 1 - adjusted_r2, {"r2": r2, "adjusted_r2": adjusted_r2}
2. 自定义WMAPE指标
加权平均绝对百分比误差(WMAPE)是业务场景中常用的指标:
def custom_wmape(
X_val, Y_val, estimator, labels,
X_train, Y_train, weight_val=None,
weight_train=None, config=None,
groups_val=None, groups_train=None
):
Y_pred = estimator.predict(X_val)
if weight_val is not None:
num = np.sum(weight_val * np.abs(Y_val - Y_pred))
den = np.sum(weight_val * np.abs(Y_val))
else:
num = np.sum(np.abs(Y_val - Y_pred))
den = np.sum(np.abs(Y_val))
wmape = num / den if den != 0 else float('inf')
return wmape, {"wmape": wmape}
在FLAML中使用自定义指标
定义好自定义函数后,需要直接将函数对象传递给FLAML:
automl = AutoML()
automl_settings = {
"metric": custom_adjusted_r2, # 直接传递函数对象
"task": "regression",
"eval_method": "cv",
"n_splits": 5,
"time_budget": 300
}
automl.fit(X_train=X_train, y_train=y_train, **automl_settings)
实现原理解析
FLAML处理自定义指标时,会在模型训练过程中自动调用用户提供的函数,并传入以下关键参数:
X_val和Y_val:当前验证集的特征和标签estimator:当前评估的模型实例X_train和Y_train:训练集数据(可用于计算训练-验证差距)- 权重参数:支持样本加权
函数需要返回两个值:
- 第一个是要最小化的指标值(FLAML总是尝试最小化目标)
- 第二个是包含所有相关指标的字典(用于日志记录)
实际应用建议
-
输入验证:在自定义函数中添加对输入数据的检查,特别是处理None值和空数组的情况。
-
异常处理:考虑分母为零等边界条件,如WMAPE中的分母求和。
-
性能优化:对于大规模数据,考虑使用numpy的向量化操作提高计算效率。
-
指标组合:可以在一个自定义函数中计算多个相关指标,通过返回字典记录所有值。
-
与MLflow集成:如示例所示,可以将自定义指标的结果直接记录到MLflow中,便于实验追踪。
总结
FLAML的自定义评估指标功能为特定业务场景下的模型优化提供了强大支持。关键在于理解FLAML的调用机制,直接将定义好的函数对象传递给metric参数,而非函数名称字符串。通过合理设计自定义指标,可以更好地引导FLAML找到符合业务需求的模型,而不仅仅是统计上最优的模型。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00