要训练机器成为人类的好帮手,就必须先让机器从学习人类的文明成果——文字开始。此时,机器学习就犹如一个新生的宝宝,如果人们让它一口气读完数百万本书,而无须从任何字母表、单词和语法开始学起。这种方法确有奇效,但同时也存在问题。有一个研究团队利用 Google 新闻的数据训练了一个 AI 程序。假设要求系统回答“他是国王,那么她是什么?”,系统回答“王后”,那么这显然是成功的,因为人类也会这样回答。当接着问,“男人是计算机工程师,那么女人是什么?”,系统回答“家庭主妇”,这显然是一个带有刻板印象的答案,类似这样的答案层出不穷。另外的一些研究发现,这样的系统往往会将听起来像白人的名字与欢乐、平静等正面词汇联系起来,而将听起来像非裔人士的名字则与苦恼、战争等负面词汇相联系。这就是偏见甚至是歧视了。当然,这些结果并不意味着这些程序天生就存在偏见,而是因为它们所学习的人类文化和语言本身有偏见。
这样的学习过程采用了一种称为词语表达全局向量(GloVe,Global Vectors for Word Representation)的无监督学习算法,通过对语料库中全局字词同现(word-word co-occurrence)的统计结果进行训练,所得到的结果可展示字词向量空间的线性子结构。在处理词汇时,这类程序通常只根据各种因素来观察词语之间的相关性,即不同的词共同出现的频率。要量化两个词之间的相关性,可采用最近邻估计中的相似性测度,并给出一个数字量。GloVe模型是对全局字词同现矩阵的非零条目进行训练,该矩阵列出了给定语料库中单词彼此共存的频率。要填充该矩阵,首先需要遍历整个语料库,因此对于大型语料库来说计算量非常大,但这此遍历是一次性的代价,随后的训练迭代会越来越快,因为非零条目的数量远小于语料库中的单词总数。但是,这种简单的方法可能存在问题,因为两个给定词所表达的复杂关系,肯定比单个数字所捕获的的联系要丰富得多。当这些大数据集本身蕴含了人类固有的社会偏见和刻板印象时,机器也就自然而然地学会了,这其中就包含性别歧视和种族偏见。
参考文献:
[1] 佩德罗·多明戈斯(黄芳萍译),2017。《终极算法:机器学习和人工智能如何重塑世界》(The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World),中信出版集团。
[2] Jeffrey Pennington, Richard Socher, Christopher D. Manning. GloVe: Global Vectors for Word Representation.
[3] Removing gender bias from algorithms
[4] https://en.wikipedia.org/wiki/Tay_(bot)
[5] AI也有性别和种族歧视?都是被人类教坏的
[6] AI没有偏见?它们从人类的语言中学会了性别和种族歧视