人工智能偏见(AI Bias)是什么及有哪些类型,例子和解决办法  第1张Google’s What-If Tool

使用,你可以在假设的情况下测试性能,分析不同数据特征的重要性,并在多个模型和输入数据的子集以及不同的ML公平性指标上可视化模型行为。

湾区初创公司Sanas开发了一个基于人工智能的口音翻译系统,使来自世界各地的呼叫中心工作人员听起来对美国客户更熟悉。该工具将说话者的口音实时转化为 “中性 “美国口音。,Sanas公司总裁Marty Sarim说,口音是一个问题,因为 “它们会导致偏见,会造成误解”。

种族偏见不可能通过让每个人听起来都是白人和美国人而消除。相反,这将加剧这些偏见,因为如果美国白人口音成为常态,不使用这种技术的非美国呼叫中心工作人员将面临更严重的歧视。

怀着将招聘过程自动化的梦想,亚马逊。他们的项目完全是基于审查求职者的简历,并通过使用人工智能驱动的算法对求职者进行评级,这样招聘人员就不会在人工简历筛选任务上花费时间。然而,到了2015年,亚马逊意识到他们的新人工智能招聘系统没有对候选人进行公平的评级,它显示出对女性的偏见。

亚马逊曾使用过去10年的历史数据来训练他们的人工智能模型。历史数据包含对女性的偏见,因为整个科技行业都是男性占主导地位,男性占亚马逊员工的60%。因此,亚马逊的招聘系统错误地认为男性候选人更受欢迎。它惩罚了包含 “女性” 一词的简历,如 “女子国际象棋俱乐部队长” 的简历。因此,亚马逊停止将该算法用于招聘目的。

一种用于2亿多美国公民的医疗保健风险预测算法,因为它依赖一个错误的指标来确定需求。

该算法旨在预测哪些病人可能需要额外的医疗护理,然而,后来发现该算法产生了错误的结果,有利于白人病人而不是黑人病人。

该算法的设计者使用以前病人的医疗支出作为医疗需求的代表。这是对历史数据的错误解释,因为收入和种族是高度相关的指标,只根据相关指标中的一个变量进行假设,导致该算法提供不准确的结果。

人类偏见的例子很多,我们看到这种情况发生在科技平台上。由于科技平台上的数据后来被用来训练机器学习模型,这些偏见导致了有偏见的机器学习模型。

2019年,Facebook在。例如,在护理或秘书工作的招聘广告中,女性被优先考虑,而看门人和出租车司机的招聘广告则主要展示给男性,特别是来自少数民族背景的男性。

因此,Facebook。

Krita Sharma是一位人工智能技术专家和企业高管,他正在解释科技界缺乏多样性是如何悄悄进入人工智能的,并提供三种方法来制造更有道德的算法:

巴拉克-图罗夫斯基是谷歌AI的产品总监,他正在解释谷歌翻译是如何处理AI偏见的:

希望这能澄清关于人工智能偏见的一些主要观点。关于人工智能如何改变世界的更多信息,你可以查看。