埃尔法哥哥■人与机器——解析人工智能的三大类别以及哲学家的相关思想实验( 二 )


一个足够复杂的机器有很大可能可以欺骗人类 , 会让你相信你正在和一个人类聊天 。 图灵认为 , 如果一个机器可以骗过人类 , 那么这就是“强人工智能” 。 所以在图灵看来 , 一个物体如果能够像人类一样思考 , 就意味着它能够使我们相信它正在像人类一样思考 。 如果我们分辨不出其中的区别 , 那么就认为它确实没有差别 。 所以 , 这是一个严格基于“行为”的测试 。
基于“行为”的测试本身没有问题 , 因为我们经常以此判断我们身边的人的行为是否符合我们的预期 。 例如 , 我们身边的人会表现出诸如意向性、理解力的内容 , 那么我们假设他们拥有“意向性”和“意志力” 。
埃尔法哥哥■人与机器——解析人工智能的三大类别以及哲学家的相关思想实验
本文插图
美国当代哲学家威廉·莱肯在很多观点上对图灵表示认同 , 但是莱肯意识到许多人仍然认为 , 即便可以制作出一个类似人类的机器 , 也永远无法制造出一个就是“人”的机器 。 对于着一些观点 , 莱肯举了一个例子——哈利 。 哈利是一个人形机器人 , 他有和人类极其相似的皮肤 , 他可以打球、弹琴、运动 , 也会紧张 , 会有情绪 , 也有弱点 。 哈利在各方面都给人以一种“人”的印象 。 他有意向也有情感 。 如果哈利被割伤 , 他流出的是机油而不是血 , 你一定会很吃惊 。
莱肯认为 , 这样的情况不应该导致你改变对哈利的认知状态 , 如果你认为哈利不是“人” , 那么哈利缺少了什么?一个可能的回答是“他是一个由编程制造出的机器” 。 莱肯对此会回应“我们难道不是吗?”我们每一个人出生时都带着遗传密码 , 它给我们预设了诸多不同的特性 , 比如性格、喜好、血型 。 我们成长的过程中也被家长、老师影响着 , 这也是一种不同的“编程” , 还有你的行为、语言学习等 , 都是编程的过程 。 莱肯认为 , 你拥有超越程序的能力 , 而哈利也有 。
事实证明 , 人类可以跳出自身的框架进行思考 , 而机器却无法做到这一点 。 许多人认为 , 即使有机器能够通过图灵测试 , 也并不能认为他们就是“强AI” 。 学界对于强人工智能所需要拥有的智力水平 , 尚且没有准确的定义 , 但人工智能研究人员认为强人工智能需要具备以下的能力 。
1.思考能力 , 运用策略去解决问题 , 并且可以在不确定情况下做出判断;
2.展现出一定的知识量;
3.计划能力;
4.学习能力;
5.交流能力;
6.利用自身所有能力达成目的的能力 。
埃尔法哥哥■人与机器——解析人工智能的三大类别以及哲学家的相关思想实验
本文插图
三、约翰·塞尔的“中文屋”测试——你是否真的会中文呢?
人工智能的问题也涉及到心灵哲学的领域 , 哲学家约翰·塞尔构想了一个著名的思想实验“中文屋” , 同样来证明即便骗过了人类 , 也不能成为“强AI” 。
想象你是一个不会说中文的人 , 你被关在一个房间里 , 这个房间里到处都是汉字 。 另外你还有一本英文编码本 , 上面指示着每个输入对应着什么汉字 。 中文母语的人把用中文写的信息送到房间中 , 你使用编码本 , 就可以搞清楚如何回答你收到的汉字 。 这样 , 你就可以把合适的中文内容送出房间 。 但是 , 你完全不知道这些汉字是什么意思 , 却仍然能够根据编码进行回答 。 你很熟练地依照这个程序进行 , 以至于中文母语的人相信 , 你是懂得中文的 。 这也意味着你通过了说中文的“图灵测试” 。
埃尔法哥哥■人与机器——解析人工智能的三大类别以及哲学家的相关思想实验
本文插图
显然 , 你并不懂中文 , 你只是知道如何操控符号 , 却完全不理解它们的意思 。 你只是能够欺骗人们相信 , 你知道你并不真正懂得的东西 。 同样 , 根据塞尔的观点 , 机器能够欺骗人类 , 认为它是“人类” , 也并不意味着它就是“强AI” 。 强人工智能应该要求机器具备真正的理解力 , 而计算机似乎永远不可能实现这一点 。