-
LLM AutoEval: 语言模型评估工具简化设置和执行
LLM AutoEval是一款旨在简化和加速语言模型评估过程的工具,为开发者提供自动化设置和执行,可定制的评估参数以及摘要生成和GitHub Gist上传功能。它满足开发者在评估语言模型性能时的多样化需求,提高工作效率。- 273
- 0
-
微软推出全新评估工具库PromptBench,支持多种大语言模型评估和分析
微软最近推出了PromptBench,一个支持多种大语言模型评估和分析的工具库,提供了丰富的功能和方法,适用于研究人员进行全面的性能评估。- 242
- 0
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!