甚至人工智能也是性别歧视

照片: 华盖创意

性别歧视 我们对世界的思考是如此根深蒂固,我们实际上已经把它传递到我们的计算机上了,根据弗吉尼亚大学(UVA)和华盛顿大学 学习 .人工智能(AI)更可能给正在做饭的人贴上标签,购物,作为妇女和从事体育运动的人,指导,像男人一样射击。

当UVA计算机科学教授VicenteOrdez注意到他的图像识别软件正在将厨房的照片和女人联系起来时,他就有了这个实验的想法。在使用研究人员用来创建图像识别软件的两个照片集训练软件之后,包括Facebook和微软支持的一个,他和他的同事发现,这些藏品不仅包含性别偏见,但是,当他们把这种偏见传递给软件时,这种偏见也会成倍增加。这些照片集制作的节目实际上贴上了“男人”的标签。女人因为他站在炉边。

这并不是我们拥有的唯一证据表明技术包含偏见。除了图像识别软件之外,分析写作和演讲的软件也反映了隐藏的性别假设,根据 一项研究 今年早些时候出版的 科学。 研究人员分析了计算机如何解释来自Google新闻的词语和计算机科学家使用的8400亿个词的数据集,他们发现机器连接在一起 男性的 男人 使用STEM字段和 女人 女性的 家务杂事。问题不仅仅与性别有关:通常白名更可能与积极的词语有关,比如 幸福的 礼物。 另一 学习 去年夏天公布的研究发现,当问及基于Google新闻的软件时,“男人对计算机程序员就像女人对程序员一样 X, “它回答“家庭主妇。”“

当然,计算机不是凭空建立起这些联系的。他们在向我们反映我们自己的偏见。但当他们拾起那些信念时,这些可以采取自己的生活。谷歌图像软件在2015年制造的混乱,当它 把黑人误称为大猩猩 ,证明这一点。Google图像搜索是另一个例子:搜索 大部分都是白色的,虽然 女孩 产生性感的照片和 男孩 生孩子。

当人工智能被用于制造与人类交互的机器人时,这种趋势变得更加成问题。Mark Yatskar艾伦人工智能研究所的研究员和新研究的作者,, 告诉 有线 他可以想象一个场景,机器人在给男人递啤酒时询问女人是否需要帮助洗碗。“这样做不仅可以强化现有的社会偏见,而且实际上会使它们变得更糟,“他说。

人工智能识别单词和图像的方法是基于人们使用它们的方式,因此,为了促进一个更加平等的世界,工程师们将不得不介入软件的创建。这也是许多人正在考虑的可能性。Eric Horvitz微软研究部主任,告诉 有线 微软为此设立了一个委员会。“我和微软作为一个整体,庆祝在识别和解决由它们产生的数据集和系统中的偏见和差距的努力,“他说。“这是一个非常重要的问题——我们何时应该改变现实,以使我们的系统以有抱负的方式运行?““

得到我们 时事通讯
你每天服用的最新时尚产品,w88手机版登录优德官方网站美女,和娱乐-直接送到你的收件箱。