如何评估生成模型的多样性

释放双眼,带上耳机,听听看~!
本文介绍了在实际业务中评估生成模型多样性的方法,包括distinct-n计算和人工评测方法。

在前两篇文章中,我们已经介绍了基于统计方法的文本生成评估方案基于 bert 表征的语义匹配评估方法。但在实际业务当中,用上方法,并不能满足评估需求,业务中往往对生成的事实性有较高要求,并且希望每个用户看到的东西不一样,也就是对多样性有较高的要求。接下来,我们将介绍在实际业务中,如何评估生成模型的好坏。

多样性评估:distinct-n

应用场景

在实际应用当中,一般需要生成具有多样性的文案,保证千人千面。例如在电商中的商品标题生成、电商广告中商品文案生成,还有在智能客服场景下,如果一个问题,用户询问了好几次,如果每次回答的内容都一样,那用户体验就会很不好,如果每个轮次生成的答案不同,不仅可以解决用户的问题,也会提高在咨询过程中的满意度。

计算方法

  • 核心思路

    • 主要的想法就是判断同一个句子中,不同的 n-gram 个数,占总的 n-gram 片段的比例,这个比例越高,说明同一个句子的重复度约低;
    • 不同候选集之间也可以按照如上的思路,只是这个 n-gram 片段是所有句子的 n-gram
  • 计算方法

Distinct(n)=Count(uniquen−gram)/Count(word)Distinct(n) = Count(unique n-gram)/Count(word)

其中,count(word) 表示回复中 n-gram 词语的总数量。

  • 参考代码

def get_map(tokens, n, dicts=None):
    token_dict = {}
    if dicts is not None:
        token_dict = dicts
    
    lens = len(tokens)

    for i in range(0, lens - n +1):
        ngram_token = "".join(tokens[i:(i+n)])

        if token_dict.get(ngram_token) is not None:
            token_dict[ngram_token] += 1
        else:
            token_dict[ngram_toal] = 1
    return token_dict

def distinct_ngram(pair, n):
    ngram_toal = 0
    ngram_dsitinct = 0

    pred_dict = {}

    for pred, - in pair:
        get_map(pred, n, pred_dict)
    
    for k, v in pred_dict.items():
        ngram_toal += v
        ngram_dsitinct += 1
    
    return ngram_dsitinct/ngram_toal

# 1-gram
distict1 = distinct_ngram(lists, 1)

人工评测方法

人工评测的方法

人工评测的方法也有很多种,例如:

  • 打分法: 直接让一个标注人员根据标准打分
  • 投票法: 三个人,每个人打分后取平均
  • 对比法: 给出生成的和人工写的,让标注人员判断哪个是机器哪个是人工
人工评测标准

比起打分,大家可能更加关心”如何“打分,毕竟大家遇到比较头疼的是,好像自己也不是很确定评测的标准是什么。这里依照经验给大家一些建议,例如我们在做商品文案生成的时候,可以考虑:

人工评测维度 解释 指标(打分制度)
可读性 生成的句子不流畅、可读性较差; 0分
忠实度 生成的句子流程,无重复截断,但生成句子与输入描述不一致【输出的商品特性和输入「冲突】例如写的是高筒袜子,输出是低筒袜子; 1分
生成句子中存在部分不实信息 2分
语法正确 生成的句子流程、无重复截断、输入输出一致,无大毛病偶尔 存在语法问题,例如鞋子适合搭配鞋子这种 3分
无事实性错误,卖点比较多 生成的句子流程、无重复截断、输入输出一致;无语法错误,无事实性错误(即不存在和商品本身特性冲突的描述) 4分
具有吸引力、有一定的创作 在4分的基础上,有一些额外信息,如更吸引人的文案、输入信息不具备的特性描述(但这些特性是正确的、符合商品客观事实的 5分

除了上面的信息,可以结合业务的特性再加入需要的评估方面

总结

至此,我们已经介绍了基于统计方法,以 BLEU为代表的统计评估方法、以 bert 表征做语义相似度评估的向量方法、多样性评估的自动化方法、还有人工评估方法。 目前,机器翻译任务会看 BLEU,学术界看的比较多。在生成任务中,多样性评估、人工评估依然占据主导地位。人工评测依然有很多可以探索的点,本文给出了自己在实战中的一些经验,希望能给大家一些帮助和启发。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

Midjourney指令详解,让你更便捷使用

2023-11-29 18:37:14

AI教程

吐血整理!30+款实用谷歌Chrome插件大合集

2023-11-29 18:47:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索