曾毅对话郝景芳:人工智能不是未来,而是现在 | VC洞见( 二 )


当时这件事情 , 把我神经科学的同事吓了一跳 。 他们说 , 这一定是个假新闻 , 因为机器人怎么可能具有意识呢?我没有说机器人具有意识啊 , 我是说 , 通过这个训练后 , 使猴子有了自我意识 。 但实验是你设计的 , 猴脑是猴子大脑的一个复制品 , 我们把它运用到机器人身上去 。 现在猴子通过了测试 , 你说猴子具有自我意识 , 机器人通过测试 , 你说机器人没有自我意识 , 我说这个道理在哪里呢?实际上我的结论是说一个没有自我意识的机器人 , 现在通过了镜像测试 , 那能说明什么呢?说明从神经学和心理学出发设计的镜像测试 , 可能并不能作为检测自我意识的黄金标准 。
郝景芳:我非常有感触 。 人工智能带来的最大好处 , 其实是让我们人类更理解我们自己 。 就比如说我看了一些人工智能的相关原理后 , 我发现人工智能 , 它其实是很难做自我驱动的一些事情 , 你让它下围棋 , 它不会去干别的 。 所以我观察小朋友 。 他现在一岁多 , 每到一个陌生的环境 , 会四处打量 , 觉得很稀奇有趣 。 当他看到有人把百叶窗的窗帘哗的弄下来时 , 他看呆了 , 仿佛没见过这么有意思的现象 。 于是就跑到窗户旁边 , 也想摆弄着玩 。
但人工智能就不一样了 , 像AlphaGo虽然战胜了人类 , 却并不会想到除了下围棋 , 还能去做什么 , 这种自我驱动力是AI所没有的 。
那我们人类是如何拥有这种力量的?就像曾教授刚才讲的自我意识 , 我也是看马文·明斯基的作品《情感机器人》 , 他说人至少有六层自我认知 。 先自我认知 , 然后有个自我批评 , 再对自我批评的自我批评 , 然后有一个自我综合定位等等 。 所以 , 人类的意识是非常复杂的 。 我们越是想要构建发达的AI神经网络 , 就越发现“哦 , 其实我们人类本身就挺神奇的 。 ”
AI的善与恶 要看人类怎么定义曾毅:另一个非常有意思的观点同样来自一位哲学家 。 他认为:“拟人化的人工智能是一个错误的发展道路 , 因为人类的情感和价值观 , 就是我们仇恨、敌视的来源 , 所以模仿了人类的情感和价值观的机器人 , 会像我们现在的人类一样危险 。 ”我想他要表达的意思 , 并不是对人类很失望 , 而是说我们人类不完善的那一面 , 有可能被计算机学到 , 特别是我们所说的人类价值观 。 如果我们自身的价值观不正确的 , 定义这个价值观的人是不正确的 , 那么产出的人工智能系统就非常危险 。
郝景芳:因为现在很多人就在讨论互联网的极化 。 本来大家认为信息是平的 , 世界都变平了 。 但是现在发现互联网的时代 , 大家反而各自凑到一起 , 反而激化了各种极端观点 , 声音被放大 。 那未来会不会形成好多种人工智能 , 比如说 , 性别偏见人工智能 , 他们就专门是做性别偏见的智能 。 还有民族仇恨的人工智能 , 人和人的极端矛盾思想作用于AI 。 人工智能世界也会变得激化吗?
曾毅:不排除这种可能 。 目前构建人工智能物 , 我们是在说人类要把人工智能变成什么样子 , 所以它仍然是人类的一面镜子 。 现在人类的很多方面 , 像你说的会比较极端化 , 所以我们现在要想如何避免这些情况的发生 。
首先 , 我希望人工智能的模型演化速度要比大脑的演化速度再快一点 。 我觉得超级智能什么时候到来不重要 , 重要的是我们怎么定义 。 如果超级智能真的超级 , 那么它在我们所说的利他之心等方面 , 都要比人有过之而无不及 。 只有那样的话才是真正的超级智能 。 所以像有些人说超级智能如果真的实现了 , 那人类就灭亡了 。 我说那还不是真正超级智能 , 仍然是一个没有演化好的超级智能 。
如果它演化好了的话 , 它就会发现真正的利他行为 , 所以我觉得这个可能是未来人工智能在发展过程中 , 特别是在构建它的伦理道德框架过程中 , 非常重要的发展方向 。
基于现在对于人类价值观的理解开始 , 实际上人类也还在演化的过程当中 。 我们未来构建的你可以理解是人类的扩展 。 它是另外一种文明 , 但也有可能是人类的未来 。 像景芳说的 。 如果人类未来存在的其中一种形式就是把意识上传的话 , 那你可以认为它是另外一个增强人类的智能版本 。
如果是这样的话 , 我们现在同时也要思考的 , 就是人类如何去转型 。 人类的伦理道德价值观也在发生着演变 。 像我们刚刚提到一个场景 , 我们能不能在一个模拟的环境当中去演变 , 加速它演变的过程 , 使得现代人类能够受益于这种计算模拟演变 , 再回馈于现代社会 。 我想这可能是对人类来讲 , 既是一个终极机遇也是一个终极挑战 。