AI算法为什么存在性别歧视?谷歌做出了解释

【2018-01-16】

  人工智能算法为什么存在性别歧视? Google做了一个解释

  一直以来,研究表明,人类开发的机器也可以在这个世界上学习人类的视角,不管他们是否感兴趣。对于人工智能阅读文本,可能会优先将“医生”一词与男性而不是女性相关联,否则图像识别算法将更可能误导黑人进入大猩猩。 2015年,Google相册应用程序错误地将两个黑人标识为“大猩猩”,这是一个错误,当时意味着Google的机器学习“还有很长的一段路要走”。随后,Google立即道歉,并表示将调整算法为解决问题最近,谷歌作为这个错误的责任方,试图让公众了解人工智能是如何不经意地永久性地了解创造者的偏见,一方面这是一个好方法对于Google来说,公关(public relations)的沟通是非常重要的,第二,AI程序员可以简单地勾画自己的偏见,在这个视频中,Google列举了三种偏见:交互式偏见:用户可以通过交互偏好来抵消算法。谷歌召集了一些参与者,要求他们每个人都抽一只鞋,但是大多数用户会选择抽一个男人的鞋,所以基于这些数据的系统可能不知道高跟鞋也是鞋。潜在偏差:该算法不正确地将想法与性别,种族,收入等相关联。例如,当用户在Google搜索上搜索“医生”时,会出现大多数白人。雷锋网了解到,经过Quarts发布相关消息,报告称,普林斯顿大学最新研究成果表明,这些偏见,如医生与男性相关,与护士和女性相关的算法都是讲授语言的影响。正如一些数据科学家所说:如果没有好的数据,算法不会做出正确的决定。选择偏差:据了解,为了实现更好的算法和理解,用于训练算法的数据量已经大大超过了全球人口。所以如果训练图像识别数据仅用于白人,所获得的数据只能来自AI。去年六月,“青年实验室”(如Nvidia,微软等技术巨头,实验室的合作伙伴和支持者)组织了一个Beauty.ai网页比赛。游戏通过人工智能分析,征求60万条记录。该算法参考诸如皱纹,面部比例,皮肤肿块和瑕疵数量,种族和预测年龄等因素。最终的结果显示,种族因素的作用比预期更大:44名获奖者中有36人是白人。事实上,在算法中对性别和种族偏见的研究和报告早已有了。据雷锋网先前的报道,消除这些偏见并不容易。正如微软纽约技术学院的高级研究员汉纳·瓦拉赫(Hanna Wallach)所说的那样:“只要机器学习计划接受了社区中已经存在的数据的培训,机器学习就会重新审视这些偏见,只要存在偏见在那个社会里“。