数据要素产业
人工智能也存在偏见?是的。千万不要让你的偏见进入这些技术领域
人类天生就有偏见,这是我们社会的一个不幸事实。当人类倾向于种族少数群体、宗教、性别或民族时,这种情况可能会有意识地发生,甚至可能在出生以来由于社会、家庭和社会条件的影响而产生偏见的情况下无意识地发生这种情况。不管是什么原因,偏见确实存在于人类之中,现在它们也被传递到人类创造的人工智能系统中。
这些偏见可以传递给人工智能偏差在人工智能系统中,当他们接受包括人类偏见、历史不平等或基于人类性别、种族、国籍、性取向等不同判断指标的数据的培训时。例如,亚马逊发现他们的人工智能招聘算法对女性有偏见。该算法基于过去10年提交的简历数量和聘用的候选人。由于大多数候选人都是男性,所以算法也比女性更青睐男性。
1.针对黑人的COMPAS算法
COMPASS是一种人工智能算法,由Northpointe创建,在美国用于预测哪些罪犯在未来更有可能再次犯罪。根据这些预测,法官对这些罪犯的未来作出决定,从继承人的刑期到保释的数额不等。
然而,ProPublica一家获得普利策奖的非营利新闻机构发现COMPAS存在偏见。黑人罪犯被认为未来重犯的可能性比他们所犯的要大得多。另一方面,被判定为白人罪犯的风险低于COMPAS。即使是暴力犯罪,黑人罪犯也被误认为更危险,几乎是白人罪犯的两倍。COMPAS的这一发现证明,它从某种程度上了解了人类固有的偏见,即黑人比白人平均犯罪要多得多,而且今后也更有可能犯罪。
2.对少数群体有偏见的PredPol算法
预测警务是一种人工智能算法,其目的是根据警方收集的犯罪数据,如逮捕数量、报警次数等,预测未来犯罪发生的地点。该算法已被美国加州、佛罗里达州、马里兰等地的警察部门使用,其目的是通过将犯罪预测留给人工智能来减少警察部门的人为偏见。
然而,美国的研究人员发现PredPol它本身是有偏见的,它一再派遣警察到包含大量少数民族的特定社区,不管该地区发生了多少犯罪。这是因为PredPol中有一个反馈回路,在这个循环中,该算法预测了更多警察报案的地区的犯罪情况。然而,这些地区可能会出现更多的警察报告,因为这些地区的警察集中程度较高,这可能是由于现有的人的偏见所致。这也导致了算法中的一个偏差,从而向这些地区派遣了更多的警察。
3.亚马逊的招聘引擎对妇女有偏见
亚马逊招聘引擎是一种人工智能算法,用来分析申请亚马逊的求职者的简历,并决定哪些简历需要进一步的面试和选择。这一算法是亚马逊公司的一项尝试,目的是使他们对人才的搜寻机械化,并消除所有人力招聘人员固有的人类偏见。但是,Amazon算法结果是在招聘过程中对妇女有偏见。
这可能是因为招聘算法是通过研究亚马逊对过去10年提交的简历的反应来分析候选人简历的。然而,过去分析这些简历的人力招聘人员大多是男性,他们对女性候选人有着固有的偏见,并将这种偏见传递给了人工智能算法。当亚马逊研究这一算法时,他们发现它自动妨碍了包含“女性”字样的简历,同时也自动降低了两所全女子学院的毕业生的等级。因此,亚马逊最终放弃了这个算法,没有用它来评估应征者。
4.针对黑人的谷歌照片算法
GooglePhotos有一个标签功能,将标签添加到与图片中显示的任何内容相对应的照片中。这是由一个卷积神经网络(CNN)完成的,该网络在监督学习中对数百万幅图像进行了训练,然后使用图像识别来标记照片。然而,这Google算法当一名黑人软件开发人员和他的朋友的照片贴上大猩猩的标签时,发现他们是种族主义者。谷歌声称,他们对这一错误感到震惊和真诚的遗憾,并承诺将在未来纠正这一错误。
然而,谷歌直到两年后才把大猩猩和其他类型的猴子从卷积神经网络的词汇中移除,这样它就不会识别任何照片。谷歌图片显示,所有与猴子有关的搜索词,如大猩猩、黑猩猩等,都没有结果。然而,这只是一个暂时的解决办法,因为它不能解决根本的问题。图像标记技术还不完善,即使是最复杂的算法也只能依赖于训练,无法识别真实生活中的情况。
5.IDEMIA针对黑人妇女的面部识别算法
IDEMIA公司是一家制造美国、澳大利亚、法国等国家警察使用的面部识别算法的公司。在美国,使用这种面部识别系统对大约3000万名持枪歹徒进行了分析,以检查是否有人是罪犯或对社会构成危险。然而,美国国家标准和技术研究所检查了这一算法,发现与白人女性甚至黑人和白人男性相比,它在识别黑人女性时犯了重大错误。
根据国家标准和技术研究所的说法,Idemia算法每10,000名白人女性中就有1名匹配白人女性的脸,而每1,000名黑人女性中就有1名黑人女性的脸与白人女性的脸相匹配。这是10倍以上的假匹配!一般来说,如果人脸识别算法的错误匹配率是十分之一,而对黑人女性的错误匹配率则要高得多。Idemia声称,NIST测试的算法尚未在商业上发布,他们的算法在以不同的速度识别不同种族方面正变得越来越好,因为在种族中存在着物理上的差异。