📜  什么是人工智能偏见以及如何消除它?

📅  最后修改于: 2021-10-18 12:28:46             🧑  作者: Mango

你在生活中经历过偏见吗?偏见被描述为对极端不公平群体中的人的偏见。如果您是印度人,您可能会经历过深色皮肤的偏见。如果您是美国人,您可能会因成为非裔美国人而受到偏见。而这还在继续……

什么是人工智能偏差和如何消除它

不幸的是,由于各种不合逻辑的原因,人类对其他人类存在偏见。这可能会在人类对少数种族、宗教、性别或国籍有偏见的情况下有意识地发生。例如,联合国的一份报告发现,世界上至少有90%的男性和女性对女性存在某种偏见,世界上没有一个国家的性别偏见为零。这种偏见也可能在不知不觉中发生在它自出生以来由于社会、家庭和社会条件而发展的地方。不管是什么原因,偏见确实存在于人类中,现在它们也被传递到人类创造的人工智能系统中。这是人工智能偏见,但真正的问题是“它是如何发生的”?即使采取措施处理,人类的偏见如何传递给人工智能系统?这是本文旨在回答的问题,同时了解不同的公司如何努力将其从其系统中完全删除。

什么是人工智能偏见?

人工智能偏差构成了传递到人类创造的人工智能系统中的累积人类偏差。当人工智能系统接受包括人类偏见、历史不平等或基于性别、种族的不同判断指标的数据训练时,这些偏见可以传递到人工智能系统中。人的国籍、性取向等。

例如,亚马逊发现他们的人工智能招聘算法对女性有偏见。这可能是因为招聘算法被训练为通过研究亚马逊对过去 10 年提交的简历的反应来分析候选人的简历。然而,过去分析这些简历的人力招聘人员大多是男性,对女性候选人有固有的偏见,这些偏见被传递给了 AI 算法。当亚马逊研究该算法时,他们发现它会自动降低包含“女性”等词的简历,并自动降级两所全女子大学的毕业生。因此亚马逊最终放弃了该算法,并没有使用它来评估招聘候选人。

从这个例子中可以看出,人工智能中的偏见会造成很大的损害。这种偏见损害了有偏见的群体充分参与世界并为经济提供平等利益的机会。这意味着有偏见的群体在最坏的情况下也可能受到歧视,甚至失去在社会中自由生活的能力。 COMPAS 人工智能算法证明了这一点,该算法在美国用于预测未来哪些罪犯更有可能再次犯罪。根据这些预测,法官将对这些罪犯的未来做出决定,范围从他们的监禁刑期到保释金数额。然而,发现COMPAS是有偏差的。黑人罪犯被判断为在未来再次犯罪的可能性比他们犯罪的可能性大得多。另一方面,白人罪犯的风险低于 COMPAS。这意味着有偏见的人工智能导致黑人罪犯比法律系统中的白人罪犯受到更严厉的审判。

但这还不是人工智能偏见造成的危害程度。从长远来看,人工智能偏见会降低人类对技术的信任。虽然它伤害了算法所针对的群体,但它也伤害了人类对人工智能算法无偏见工作的信任。它减少了人工智能在商业和工业的各个方面被使用的机会,因为这会产生不信任和人们可能会被人工智能歧视的恐惧。因此,生产这些人工智能算法的技术行业需要在将其投放市场之前确保其算法无偏见。公司可以通过鼓励对人工智能偏见的研究来消除未来的偏见。关于这一点,让我们看看领先的科技公司正在采取哪些措施来消除算法中的人工智能偏见。

如何消除人工智能偏见?

人工智能系统的好坏取决于放入其中的数据。所以如果数据有偏差,显然人工智能系统也会有偏差。不良数据可能包含种族、性别、性别意识形态偏见,这也会使基于这些数据训练的 AI 系统出现问题。现在,有很多方法可以在数据中强制执行公平性,从而使人工智能系统公平。

一种方法是预处理数据,以便在对数据训练 AI 系统之前消除偏差。这是一种通过使用无偏见的数据训练它们来创建无偏见的 AI 系统的方法。另一种方法是它是在数据训练后进行后处理AI系统。这意味着改变人工智能系统的一些预测,使其满足可以事先决定的任意公平常数。但是,这两种方法都包括开发易于解释的 AI 算法。这是必要的,因为 AI 算法通常是黑匣子,很难理解它们是如何得出结论的。所以也很难理解AI算法的偏差在哪里。但是如果人工智能算法很容易解释,那么偏差就可以被发现并消除。

例如, IBM Research目前正在致力于消除人工智能偏见。他们认为,五年内,随着人工智能使用量的增加,人工智能偏见的数量只会在算法中增加。但是他们正在研究新的解决方案来控制这种偏见并创建没有它的人工智能系统。 MIT-IBM Watson AI Lab 正在利用计算认知建模和人工智能方面的最新进展来考虑道德原则以及人类如何将其应用于决策,以便他们能够将这些原则纳入具有人类价值观和道德决策技能的机器中。 IBM 科学家还创建了一个独立的偏见评级系统,可用于确定人工智能系统的公平性。