kappa系数在评测中的应用

春衣少年当酒歌,起舞四顾以笑和。这篇文章主要讲述kappa系数在评测中的应用相关的知识,希望能为你提供帮助。
  ◆版权声明:本文出自胖喵~的博客,转载必须注明出处。
    转载请注明出处:http://www.cnblogs.com/by-dream/p/7091315.html
 
前言
最近打算把翻译质量的人工评测好好的做一做。
首先废话几句,介绍下我这边翻译质量的人工评测怎么做。先找一批句子,然后使用不同的引擎对其进行翻译,然后将原文和译文用下面的方式进行呈现,把这些交给专业的人士去进行打分,打完分之后,对结果进行统计,得出评测结果。

kappa系数在评测中的应用

文章图片

 
看似流程很顺利,且结果也有参考价值。然而实际操作的过程中发现如果一个用户的能力或者态度有问题的话,就会影响一个打分的效果。因此评测人员究竟是否靠谱也成了我们需要考虑的一项因素。
通过向专业人士请教,得知了kappa系数可以进行一致性的校验且可用来衡量分类精度。因此我决定试试它。
好了先看看kappa系数的概念和计算公式。
 
 
kappa系数概念
它是通过把所有地表真实分类中的像元总数(N)乘以混淆矩阵对角线(Xkk)的和,再减去某一类地表真实像元总数与被误分成该类像元总数之积对所有类别求和的结果,再除以总像元数的平方减去某一类中地表真实像元总数与该类中被误分成该类像元总数之积对所有类别求和的结果所得到的。
——来自百科
kappa计算结果为-1~1,但通常kappa是落在 0~1 间,可分为五组来表示不同级别的一致性:0.0~0.20极低的一致性(slight)、0.21~0.40一般的一致性(fair)、0.41~0.60 中等的一致性(moderate)、0.61~0.80 高度的一致性(substantial)和0.81~1几乎完全一致(almost perfect)。 
计算公式:
kappa系数在评测中的应用

文章图片

 
po是每一类正确分类的样本数量之和除以总样本数,也就是总体分类精度
假设每一类的真实样本个数分别为a1,a2,...,aC
而预测出来的每一类的样本个数分别为b1,b2,...,bC
总样本个数为n
则有:pe=a1×b1+a2×b2+...+aC×bC /  n×n
 
 
运算举例
为了更好的理解上述运算的过程,这里举例说明一下:
学生考试的作文成绩,由两个老师给出 好、中、差三档的打分,现在已知两位老师的打分结果,需要计算两位老师打分之间的相关性kappa系数:
kappa系数在评测中的应用

文章图片
Po = (10+35+15) / 87 = 0.689
a1 = 10+2+8 = 20; a2 = 5+35+5 = 45; a3 = 5+2+15 = 22;
b1 = 10+5+5 = 20; b2 = 2+35+2 = 39; b3 = 8+5+15 = 28;
Pe = (a1*b1 + a2*b2 + a3*b3) / (87*87) = 0.455 
K = (Po-Pe) / (1-Pe) =  0.4293578
这样我们就得到了kappa系数。

 
实际应用
像开头说的一样,真实的问卷回收回来后,我一般都会对用户的结果进行kappa系数计算之后才会发放奖励,因为我的奖励价格不低,也算是为了公司节省成本吧。
一般一个问卷我会让5个人去做,当然人越多越准确,但是为了考虑成本且就能得到有效的结果,我这里选了5个人,起初我的想法是用5个人的平均分做为标准答案,然后让每个人的打分去和平均分算kappa,后来思考后发现这样有些不太合理,如果有一个人乱答,那么他的结果就会影响平均分,从而影响到整个结果。于是最终换成了一个人和所有人直接计算kappa,然后再求平均。这样当一个人乱作答的时候,我们在算出两两kappa的时候就可以发现这个人,然后在最终计算平均kappa的时候,去掉这个所有人和这个人之间的值即可。
刚开始我用python实现了kappa系数计算的代码,直接算出了一组结果,然后发现大家相互之前的kappa系数都非常的低,大概在0.1-0.2左右,后来分析是由于5分制导致数据太离散,因此针对翻译引擎的评测,我将用户打分的5分制换算成了3分制,1、2分归为一类,2为一类,4、5为一类。
当然在完成了这些之后,为了再多一轮保险,每一份问卷中的5个人中,有一个我非常信任的专业评测者,因此我还会计算所有人和她直接的kappa,这样更加的保证每一个打分的结果合理性和相关性都竟在掌握之中。
下面是我实现的python脚本。
#-*- coding:utf-8 -*- # 脚本用途:算出所有人的kappa 和 第一个人和所有人的kappa默认第一个人是 优质用户 # 脚本使用方法: # get**.py优秀用户文件 其他用户文件。。。。 import sysreload(sys) sys.setdefaultencoding("utf-8")# (用户1) #avg_file = sys.argv[1] avglist = []# (用户2) #user_file = sys.argv[2] userlist = []# 二维矩阵 matrix = [[0 for col in range(4)] for i in range(4)]# 数据读取到list中 def initList(file1, file2): #print \'avg file: \' + file1 + \'; user file: \' + file2 global avglist global userlist avglist = [] userlist = []for line in open(file1): line = line.strip() avglist.append(float(line))for line in open(file2): line = line.strip() userlist.append(float(line)) #print avglist, userlist# 处理平均分为标准分 def avgFormat(): global avglist global userlist for i in range(0, len(avglist)): num = avglist[i] if num < 2.499: avglist[i] = 1 elif num > 2.499 and num < 3.499: avglist[i] = 2 elif num > 3.499 : avglist[i] = 3 else: print \'num is error! \', numfor i in range(0, len(userlist)): num = userlist[i] if num < 2.499: userlist[i] = 1 elif num > 2.499 and num < 3.499: userlist[i] = 2 elif num > 3.499 : userlist[i] = 3 else: print \'num is error! \', num #print avglist, userlist# 输出,调试用 def printlist(listname): for l in listname: print l# 计算矩阵 def getMatrix(): num1 = len(avglist) num2 = len(userlist) if num1 != num2: print \'two list num is not same!\' returnglobal matrix matrix = [[0 for col in range(4)] for i in range(4)]for i in range(0, num1): x = int(avglist[i]) y = int(userlist[i]) matrix[x][y] = matrix[x][y] + 1# 输出矩阵 def printmatrix(): #print \'\\nmatrix is:\' for num in range(1, 4): print matrix[num][1], matrix[num][2],matrix[num][3] #print \'\\n\'# 得到kappa值 def getkappa(): # 对角线之和 dsum = 0.0 # 总数 allsum = float(len(avglist))global matrix# 计算对角线的和 for i in range(1, 4): dsum = dsum + matrix[i][i] #print dsum #print \'diagonal sum is :\', dsum p0 = float(dsum)/allsum #print \'p0 is :\', p0 , \'\\n\'# 计算a1*b1+a2*b2+...ac*bc的和(a1 等于 matrix[1][x]的和b1等于matrix[x][1]的和) a = 0 al = [] b = 0 bl = [] for j in range(1, 4): a = 0 b = 0 for k in range(1, 4): a = a + matrix[j][k] b = b + matrix[k][j] al.append(a) bl.append(b)#print \'a list is \', al #print \'b list is \', bltmpsum = 0 for l in range (0, 3): tmpsum = tmpsum + al[l]*bl[l] #print \'pe fenzi sum is: \', tmpsum pe = float(tmpsum)/float(allsum*allsum) #print \'pe is: \',pe , \'\\n\'kappa = (p0-pe)/(1-pe) #print \'kappa is : \', kappa return kappadef gettwokappa(file_one, file_two): initList(file_one, file_two) avgFormat() #printlist(avglist) getMatrix() #printmatrix() return getkappa()file_list = sys.argv[1:]i = 0 for user_file in file_list: allkappa = 0 for other_file in file_list: if user_file != other_file: #print user_file, other_file,\':\' kapp = gettwokappa(user_file, other_file) allkappa = allkappa + kapp # 第一个优质用户 需要输出一下别人和她的kappa if i == 0: print user_file, other_file, \':\', kapp i= i+1print user_file, \' avg kappa: \', allkappa/(len(file_list)-1)

运行的时候,需要 python  getallKappa_ref_3level.py 用户1的文件  用户2的文件 .. (默认认为用户1是优秀的用户)
这里用户文件中就是用户的打分信息:
kappa系数在评测中的应用

文章图片

好,我们运行一下看下真实的运行结果。
下面是其中一次问卷,我计算的 “所有人之间kappa的平均分” 和 “所有人和优秀评测者之间的kappa” 不言而喻,很明显下图中标红的这位用户的打分就不合格,无论是他和优秀者之间的kappa还是他和别人之间kappa的平均值,都是非常低的。经过我人工筛查,果然这个用户的打分的确非常的不合理。 这样就被我们过滤掉了。
kappa系数在评测中的应用

文章图片

有了kappa系数的计算规则后,对于一些类似这样的打分规则,我们就有了更多的把握以及更了解我们的评测结果是否准确可靠。
 
 
算法优化
按照上面的步骤,确实可以滤除一些不好的用户,但是我又仔细思考了一下整个过程。
首先我的做法是:我在已经有了这些翻译的的平均得分的情况下,将平均分首先四舍五入,然后和新用户的打分结果计算kappa,这里我选择了“10个新的用户的数据”和“四舍五入后的数据”进行kappa计算:
kappa系数在评测中的应用

文章图片

kappa系数在评测中的应用

文章图片

我们可以看到,人员之间的差距其实比较明显了,但是有一个致命的问题就是:kappa系数普遍较低,难度没有一个人做的和正确答案比较的相似吗?经过仔细分析以及向有经验的人请教得知:由于5分制导致数据太离散,因此结果会很低,其实应该将4分5分归为同样的结果,3分一个结果,1分2分看做为同样的结果,因此我将代码修改了将用户打分的5分制换算成了3分制。具体可以看看代码,最终计算的结果:
kappa系数在评测中的应用

文章图片

kappa系数在评测中的应用

文章图片

可以看到,kappa系数的分值明显提高了,但是新的问题来了:改用3分制后,曲线的部分趋势和5分值不一致了。那么到底哪个更趋近于真实呢?造成的误差在哪里呢?我自己的想了一下,将平均分(一般都是小数)转换为整数的时候,势必会丢掉一些信息,而将五分制转换为三分制的时候同样也会面临这样的问题,并且丢失的信息更多。那么我们回到最初的那个问题上,如何在不损失以后数据信息的情况下,计算kappa。其实还是刚才那个问题,举个简单例子:一道题平均分4.4,一个用户打了5分,一个打了4分,按照5分制计算的话,4.4会被转换为4,因此4分会被加到P0的分子里,但是5分的不会,但其实5分的也应该算很高相似度的,因为正是有了很多人打5分,平均值才能在4分之上,那么我们是否可以不转4.4,而是用用户打分和平均分之间的差值来决定是否要被加到P0的分子中,那么新的问题就来了,这个值我应该选多少合适,这里我做了一组实验,将这个值在0.1~0.9的结果都进行了计算:
kappa系数在评测中的应用

文章图片

图中可以看到差值越小,得到的kappa值越小,差值越大,kappa值就越大,之前的方案都是因为只抓了一个点,而实际上这些数据我们都需要考虑,差值越小,说明和平均分越接近,如果在越接近的情况下,kappa值高,那就说明相关性更高,因此我们需要给差值小的更大的权重。
0.1~0.9 我们都给分配不同的权重,暂时按照:1x+2x+3x+4x+5x+6x+7x+8x+9x = 1  解得 x = 0.0222..
所以最终公式:=F:F*0.199+G:G*0.177+H:H*0.155+I:I*0.133+J:J*0.11+K:K*0.088+L:L*0.066+M:M*0.044+N:N*0.022 (excel公式,从F列开始的),得到:
kappa系数在评测中的应用

文章图片

kappa系数在评测中的应用

文章图片

 
相关资料:这里
 
kappa系数在评测中的应用

文章图片

由于0.1的值小于0,所以这里我们将这个值忽略,
0.021689*8x + 0.378608*7x + 0.6713388*6x + 1*5x + 1*4x + 1*3x + 1*2x + 1*1x = 1,得:x=0.045
所以每个差值(0.1的差值我们就不取了)对应的权重值为:8x、7x、6x、5x、4x、3x、2x、1x
即  0.36、0.315、0.27、0.225、0.18、0.135、0.09、0.045
【kappa系数在评测中的应用】 

    推荐阅读