📜  人工智能的伦理问题是什么?

📅  最后修改于: 2021-10-22 02:57:24             🧑  作者: Mango

人工智能是科技行业的新革命。但没有人确切知道它将如何发展!有人认为人工智能需要被控制和监控,否则未来机器人可能会接管世界!其他人认为人工智能将改善人类的生活质量,并可能使他们成为更先进的物种。但是谁知道在它发生之前实际会发生什么!!!

人工智能中的伦理问题是什么

目前,谷歌、微软、亚马逊、Facebook、IBM等科技巨头都在努力开发前沿的人工智能技术。但这意味着人工智能中的伦理问题也需要讨论。开发人工智能有哪些危险?他们在社会中应该扮演什么角色?应该赋予他们什么样的责任,如果他们犯了错误怎么办?在大力投资人工智能研究之前,所有这些问题(以及更多!)都需要由公司解决。现在,让我们看看人工智能世界中需要解决的一些伦理问题。

1. 如何消除人工智能偏见?

不幸的是,人类有时会对其他宗教、性别、国籍等存在偏见,而这种偏见可能会在不知不觉中也进入到人类开发的人工智能系统中。由于人类生成的有缺陷的数据,偏见也可能蔓延到系统中。例如,亚马逊最近发现他们基于机器学习的招聘算法对女性存在偏见。该算法基于过去 10 年提交的简历数量和招聘的候选人。而且由于大多数候选人是男性,因此该算法也偏向男性而不是女性。

所以问题是“如何解决这种偏见?”如何确保人工智能不像这个世界上的某些人那样种族主义或性别歧视。嗯,重要的是人工智能研究人员在开发和训练人工智能系统以及选择数据时专门尝试消除偏见。有许多公司正在努力创建公正的 AI 系统,例如 IBM Research。 IBM 科学家还创建了一个独立的偏见评级系统来计算 AI 系统的公平性,以便将来避免上述灾难。

2. 机器人应享有哪些权利?到什么程度?

机器人目前只是机器。但是当人工智能变得更先进时呢?可能有一天,机器人不仅看起来像人类,而且还可能具有先进的智能。那么应该赋予机器人什么权利呢?如果机器人在情感上变得足够先进,他们应该获得与人类一样的平等权利还是更低的权利?如果机器人杀了人怎么办。它应该被视为谋杀还是机器故障?随着人工智能变得越来越智能,所有这些都是需要回答的伦理问题。

还有公民身份的问题。机器人是否应该被赋予其创建国家的公民身份? 2017 年,当人形机器人 Sophia 在沙特阿拉伯获得公民身份时,这个问题被强烈提出。虽然这更像是一种宣传噱头,而不是实际的公民身份,但这仍然是政府未来可能必须认真对待的问题。

3. 如何确保人工智能仍处于人类控制之中?

目前,人类是地球上的优势物种。这并不是因为它们是最快或最强的物种。不,人类之所以占主导地位,是因为他们的智慧。所以关键的问题是, “当人工智能变得比人类更聪明时会发生什么?”这被称为“技术奇点”或人工智能可能变得比人类更聪明的点,因此变得不可阻挡。人类甚至无法摧毁这种智能,因为它甚至可能预见到我们所有的方法。这将使人工智能成为地球上的优势物种,并导致人类生存甚至灭绝的巨大变化。

然而,“技术奇点”究竟是一种可能性还是只是一个神话? Google 工程总监Ray Kurzweil认为这是非常真实的,甚至可能最早在 2045 年发生。但是,他认为这没什么可怕的,如果人类与人工智能融合,只会导致人类智能的扩展。好吧,无论如何,很明显,人类需要为“技术奇点”做好准备以及如何应对。 (以防万一!)

4. 人工智能导致的人类失业如何处理?

随着人工智能变得越来越先进,它显然将接管曾经由人类完成的工作。根据麦肯锡全球研究所发布的一份报告,到 2030 年,全球可能会因为自动化而失去大约 8 亿个工作岗位。但随之而来的问题是“因此而失业的人呢?”好吧,有些人认为人工智能也会创造许多工作岗位,这可能会稍微平衡一下规模。人们可以从体力劳动和重复性工作转向真正需要创造性和战略思维的工作。人们还可以有更多时间与家人朋友在一起,从事体力要求较低的工作。

但这更有可能发生在已经受过教育并且属于较富裕阶层的人身上。这可能会进一步拉大贫富差距。如果在劳动力中使用机器人,这意味着它们不需要像人类雇员一样获得报酬。因此,人工智能驱动公司的所有者将获得所有利润并变得更富有,而被取代的人类将变得更穷。因此,必须建立一个新的社会结构,以便所有人即使在这种情况下也能赚钱。

5. 如何处理人工智能犯下的错误?

人工智能可能会在几年内演变成超级智能,但现在它是基本的!所以它会犯错误。例如, IBM Watson与德克萨斯州 MD 安德森癌症中心合作,检测并最终治愈患者的癌症。但是这个人工智能系统失败了,因为它向患者提供了完全错误的药物建议。在另一次失败中,微软开发了一款 AI 聊天机器人,并在 Twitter 上发布。但是这个聊天机器人很快就从其他 Twitter 用户那里了解到纳粹宣传和种族主义侮辱,并很快被摧毁。谁知道呢,它在未来可能会犯甚至更复杂的错误。这些都是相对安全的故障,很容易处理。谁知道呢,人工智能未来可能会犯更复杂的错误。那该怎么办呢?

问题是关于相对论。人工智能系统比人类犯的错误更少还是更多?他们的错误是否会导致实际上失去生命或只是让上述案例中的公司感到尴尬?如果有生命损失,比人类犯错时多还是少?在为不同的应用程序开发 AI 系统时,所有这些问题都需要考虑在内,以便他们的错误是可以忍受的,而不是灾难性的!