不只性别、种族歧视,AI可能还会“嫌贫爱富”

  • 时间:
  • 浏览:4
  • 来源:3分快3平台-5分11选5网投平台_5分3D投注平台
 黄琨 • 2019-06-12 22:49:39 来源:前瞻网 E6721G0

长期以来,对AI偏见的担忧突然是业内重点讨论搞笑的话题。前一天这方面讨论多集中在性别歧视、种族歧视疑问上,如今又有研究发现,包括谷歌、微软和亚马逊等科技巨头推广的物体识别算法,都存在对来自低收入国家的物品时识别表现更差的疑问。

这是Facebook AI实验室进行的一项新研究的结果,该研究表明,AI偏见不仅会重现国家外部的不平等,还会 重现国家之间的不平等。

在这项研究中,研究人员测试了5种流行的现成物品识别算法——微软Azure、Clarifai、谷歌Cloud Vision、亚马逊reko和IBM Watson——以了解每个进程识别全球数据集中各种家庭物品的能力。

数据集包括117个类别(从鞋子到肥皂再到沙发),并以不同的家庭收入和地理位置(类似于月收入27美元的布隆迪家庭和月收入1090美元的乌克兰家庭)作了区分。

研究人员发现,与月收入超过34000美元的家庭相比,在识别月收入400美元的家庭物品时,算法出错的几率一下子高出了10%左右。而在准确性上的绝对差异甚至更大:与索马里和布基纳法索家庭的物品相比,哪几种算法在识别来自美国的物品方面要高出15-20%。

研究作者表示,亲戚亲戚一群人在“一系列商用云服务的图像识别算法中得出了一致结论”。

你这个 偏见有越来越来太大越来越来太大潜在意味着,最常见的解释是,用于创建算法的培训数据往往反映了相关工程师的生活和背景。而不可能 哪几种人通常是来自高收入国家的白人男性,亲戚亲戚一群人教授的课程所要识别的世界也是越来越。

研究作者分析,有多少不可能 的意味着意味着了你这个 疑问:第一,用于创建系统的训练数据受地理限制,第二,算法有一种无法识别文化差异。他表示,视觉算法的训练数据主要来自欧洲和北美,而“在人口众多的地理区域,有点儿是非洲、印度、中国和东南亚,对视觉场景的采样严重严重不足”。

人工智能偏见最著名的例子之一是面部识别算法,你这个 算法在识别男人的女人的女人面孔时,通常表现得更差,尤其是有色人种男人的女人的女人。你这个 偏见会渗透到各种各样的系统中,从计算假释的算法,到即将到来的面试前评估简历的算法。

还有有一种状态是,大多数图像数据集使用英语名词作标记,并分类分类整理相应的数据。然而,某样存在于某个地区的东西,在别的地方不可能 不须存在,全是不可能 老出同样名字对应在不同国家对应不同事物的状态。比如说“dish soap”你这个 英语单词,直译为洗碗皂,在有些国家指的是有一种肥皂,但在某有些国家,“洗碗皂”却是有一种甲烷氯化氯化氢气体体容器。

这项研究结果说明哪几种?首先,这意味着任何使用哪几种算法创建的系统对于低收入和非西方国家的人来说还会 表现得更差。不可能 美国科技公司在AI领域存在世界领先地位,这不可能 会影响到从照片存储服务和图像搜索功能,到动安全摄像头和自动驾驶汽车等系统的方方面面。

这还不可能 却说冰山一角。行业对视觉算法的偏见不可能 有了警惕,但创建哪几种进程的渠道同样也在为整个行业提供算法,而有些不受重视的算法不可能 永远太大再受到怀疑。

总而言之,硅谷突然把每该人的产品——尤其是近年来的AI产品——宣传为人人平等、人人可得。但类似于的研究表明,科技公司继续按照每该人的形象评估、定义和塑造世界。

本文来源前瞻网,转载请注明来源。本文内容仅代表作者每该人观点,本站只提供参考不须构成任何投资及应用建议。(若存在内容、版权或其它疑问,请联系:service@qianzhan.com) 品牌合作与广告投放请联系:0755-340040062 或 hezuo@qianzhan.com