📜  人工智能中的中文论证

📅  最后修改于: 2021-04-17 02:51:55             🧑  作者: Mango

当我们问:“人工智能(AI)有可能吗?”我们真的在问“我们可以在计算机中创造意识”吗?

中国人的房间论点认为,程序不能给计算机“头脑”,“理解”或“意识”,无论程序如何聪明或像人一样使计算机表现出来/ [Source Wiki]

1980年,约翰·塞尔(John Searle)辩称,图灵测试不能用于确定“一台机器是否像人类一样被认为是智能的”。他认为,像ELIZA和PARRY这样的任何机器都可以通过操纵他们不了解的符号轻松地通过图灵测试。没有理解,就不能像人们一样将它们描述为“思考”。

配置

约翰将自己(而不是机器)想象成坐在房间内的非中国人与另一个在房间外的中国人隔离,试图进行交流。提供给他一个字符列表和一本教学手册,其中详细解释了可根据其形成字符字符串(序列)的规则,但没有给出字符的含义。这意味着他有一本书,其中包含计算机程序的英语版本,以及足够的纸张,铅笔,橡皮擦和文件柜。

在这种思想实验中,“中国房间”中的一个人从房间外传递了问题,并向图书室咨询以制定答案。

现在,他收到了所有在门上用中文写的信息。他将根据程序指令处理所有符号,并输出以下字符作为输出:

  • 如果发现Chinese等中文符号,则返回symbol
  • 如果发现Chinese等中文符号,则返回symbol

实际上,指导书包含许多规则,其中包含输入符号及其各自的输出符号。他只需要找到输入的中文符号并返回相应的中文符号作为输出即可。
现在,争论继续下去,一台计算机(机器)就像这个人一样,因为它只不过遵循了指导书(程序)中给出的规则。它既不理解所提出的问题的含义,也不理解其自身的答案,因此不能说是在思考。事实是,内部人对汉语不了解,但是他仍然设法与外部人完美地用汉语进行交流。

John与图灵测试中的机器进行比较,该机器可能具有大量包含问题和答案的数据库。当询问者问问题时,机器只是在数据库中查找问题并将相应的答案返回给询问者。整个场景似乎像是人类正在返回的答案不同于机器。

因此,配置中的机器无法理解这些问题和答案,如果没有“理解”(或“意向性”),我们就无法将机器正在做的事情描述为“思考”,并且由于它没有思考,因此它没有“心灵”一词在通常意义上都是这样。因此,我们不能认为机器是智能的。

参考:
https://zh.wikipedia.org/wiki/Chinese_room