Evaluate 包使用记录
创始人
2025-05-31 20:45:01

        训练模型时将数据划分为训练集和验证集,根据模型在验证集的性能来评价模型的好坏。任务不同,对应的评价指标也不一样,常见的指标包括Accuracy、F1、Rouge等,如果不自定义评价函数,需要安装包来支持。模型对比时还需要做假设性检验的工作。

        Evaluate包简化了上述工作,像加载数据集一样加载对应的评估函数,进行模型评估;不同任务对应不同的评价方法可查看:Tasks - Hugging Face,或命令evaluate.list_evaluation_modules("metric") 查看。

计算准确率的方法

        accuracy_metric = evaluate.load("accuracy")
        accuracy_metric.compute(references=[0, 1, 2, 0, 1, 2], predictions=[0, 1, 1, 2, 1, 0])

计算多个指标的方法

def compute_metrics(eval_pred) -> dict:preds, labels = eval_predpreds = np.argmax(preds, axis=-1)precision, recall, f1, support = precision_recall_fscore_support(labels.flatten(), preds.flatten(), average='macro', zero_division=0)return {'accuracy': (preds == eval_pred.label_ids).mean(),'precision': precision,'recall': recall,'f1': f1}
trainer = Trainer(model=model, args=training_args,train_dataset=train_data_set,eval_dataset=test_data_set,compute_metrics=compute_metrics)


模型对比

        使用与评估指标类似。

        exact_match:

                对比两个模型在同一数据集上预测结果的一致程度。

        mcnemar:

                配对卡方检验,衡量两个模型在同一数据集上的差异,

                输出p值,范围[0-1],越小表示差异越明显。

参考:

1.5 Evaluate快速使用 - 知乎

相关内容

热门资讯

从家常菜看美食文化,感受地方特... 琢磨美食文化,常常易于掉进对“色香味”这般浅显夸赞里,又或者是对各处菜系进行粗略排列。而实际的美食文...
文旅融合双向发力 文化强区增添... “十四五”时期,华州区聚焦文旅深度融合,通过硬件升级与文化赋能双向发力,推动区域文旅产业提质增效,走...
原创 广... 看完两场广东队的比赛,内线的护框问题确实太大了。数据看广东两场比赛篮板球并没有输,但是对手能够在广东...
原创 王... 12日至16日,中共中央政治局委员、外交部长王毅应邀访问阿联酋、沙特和约旦。这次行程是继王毅访问非洲...
快看数据|你尝试过哪些“工位养... 你是不是一上班就犯困、脖子僵、腰酸背疼?今天教你几个在工位就能做的“轻养生法”!中国青年报社社会调查...