脑极体:今日之AI,能否回应“中文屋”的质疑?( 二 )


脑极体:今日之AI,能否回应“中文屋”的质疑?
本文插图
那么 , 按照同样逻辑创造出的机器 , 到底算得上知识渊博 , 抑或仅仅是一个“工具人”呢?
尽管今天的AI已经远比赛尔提出“中文屋论证”的年代要强上不少 , 但这一哲学命题始终都在拷问着人工智能 。
对其的不同理解 , 也造就了技术发展中的两个主要流派:
第一种 , 则是模拟人脑神经网络的联结主义 。 它将神经网络引入数学建模之中 , 建立一个模拟人脑运转方式的人工智能范式 , 即我们今天熟悉的“深度学习网络” , 由此赋予机器一定的认知能力 , 比如输入几千猫的图片 , 机器就能自己学会认识“猫”这一物体 。 但这是否意味着它懂得了“猫是什么”呢?
脑极体:今日之AI,能否回应“中文屋”的质疑?
本文插图
按照图灵测试 , 机器能够自主使得对象 , 给出以假乱真的答案 , 那么它就是有意识的 , 这个输入和输出的过程就是心理状态 。
但是按照“中文屋论证” , 尽管看到任何对应物体都能够无误地反映出来 , 它只是获得了“认识”这一能力 , 却没有理解自己看到的“对象” 。
美国科学家哲学家H·希拉里·普特南就曾在1981年提出过一个类似的“机器邪典” , 他设想了一个存活在营养钵中的大脑 , 科学家可以通过计算机产生电子脉冲来控制大脑感官 , 让大脑对自身的处境一无所知 。 这个“钵中之脑”(Brain in a vat)被证明是自相矛盾的 , 根本无法成立 , 也从另一个角度说明了靠电子信号获得意识并不可行 。
那么 , 有幸被“中文屋论证”盖章“智能”的表现到底是何样子呢?
这就要提到人工智能的另一大流派——行为主义 。
行为主义人工智能强调“感知——行动”的反应模式 , 即机器可以从自己身处的环境中感知并学习 , 然后付诸行动 , 这种与外界互动、独立思考并解决问题的能力 , 才是“中文屋”眼中的“智能” 。
【脑极体:今日之AI,能否回应“中文屋”的质疑?】
脑极体:今日之AI,能否回应“中文屋”的质疑?
本文插图
换句话说 , 机器智能应该通过遗传算法自己进化出大脑 , 能够建立起与大脑相同的因果能力 。 这样的强人工智能(Strong Artificial Intelligence) , 才是“中文屋实验”认可的智慧级别 。
这也成了当下AI发展过程中一个矛盾的现状——当机器可以写出比人类更通顺优美的诗歌和文章 , 但如果它并不拥有意识 , 那么该如何看待这些“么得灵魂”的作品;如果它拥有了意识 , 一分钟能写出数百篇传世佳作 , 人类作者又能如何与之赛跑?
等待AI或人类来回答的三个问题
面对上述困境 , 接下来也是时候来抽丝剥茧 , 探寻一下AI发展或者说人类在智能社会中所需要一一面对的现实问题?
第一 , 要弄明白机器与意识的关系 , 首先要搞清楚机器解决语义问题的逻辑 。
因为人类判断机器是否具备“思维” , 最核心的考察点之一就是其是否能够对语汇中的“意义”“意向性”等产生解释能力 。
过去 , 我们在自然语言处理领域见到的大多是符号主义、联结主义层面的“智能” , 比如高精准的语言识别、语言合成、问答系统、信息检索等等 。 基本都处在以“表达”为主的输出阶段 。
每出现一个以“理解”为主的输出型突破 , 都会“技惊四座” , 比如OPENAI的GPT-2 , 就因为具备小学三年级的阅读理解能力而被看看做是突破性的进展 。
换句话说 , 机器不但要理解语义 , 还要以和人类相同的方式、以可解释的形式来实现的 。
用业界的话来说 , “人工智能如果不能使用自然语言作为其知识表示的基础 , 人工智能也就永远实现不了跨越的梦想 。 ”