曾毅对话郝景芳:人工智能不是未来,而是现在 | VC洞见( 三 )


如果它演化好了的话 , 它就会发现真正的利他行为 , 所以我觉得这个可能是未来人工智能在发展过程中 , 特别是在构建它的伦理道德框架过程中 , 非常重要的发展方向 。
基于现在对于人类价值观的理解开始 , 实际上人类也还在演化的过程当中 。 我们未来构建的你可以理解是人类的扩展 。 它是另外一种文明 , 但也有可能是人类的未来 。 像景芳说的 。 如果人类未来存在的其中一种形式就是把意识上传的话 , 那你可以认为它是另外一个增强人类的智能版本 。
如果是这样的话 , 我们现在同时也要思考的 , 就是人类如何去转型 。 人类的伦理道德价值观也在发生着演变 。 像我们刚刚提到一个场景 , 我们能不能在一个模拟的环境当中去演变 , 加速它演变的过程 , 使得现代人类能够受益于这种计算模拟演变 , 再回馈于现代社会 。 我想这可能是对人类来讲 , 既是一个终极机遇也是一个终极挑战 。
郝景芳:我想到了阿西莫夫的机器人三大定律 , 目的就是机器人服务于人类、保护人类 , 这是基本法则 。
曾毅:对 , 但为什么要保护你而不是我?为什么保护的是人类不是机器人?一旦AI获得了这种反思的能力的话 , 它就会去挑战人类伦理道德和价值观 。 但从另外一方面 , 我们也要去深刻思考人类伦理道德价值观是不是有问题?
我有一个朋友他是耶鲁大学生物伦理中心主任叫Wendell Wallach 。 他写了一本书 , 叫做《道德机器》 。 在那本书的中文版书皮上 , 有这样一句话“永远把机器关在道德的牢笼里” 。 我看到这句话觉得很不舒服 , 提出了质疑 , 他却坚持这句话是对的 , 并且要刊在英文第二版书上 。
我说 , “如果这样的话 , 你就不要给我看你的书了” 。 我不同意这句话 , 为什么呢?你可以设想这样一个场景:在2015年的时候 , AI可以看着网络视频学会炒菜 。 然后现在我们要构建更高智能的AI , 教它去理解电影里面的场景 。 那么30年之后 , 超级智能真正到来的时刻 , AI在网络上看到 , 关于人类如何对待机器人的视频 。 你想一想 , 那到底是人类在牢笼里还是机器在牢笼里面?这是一个很难回答的问题 。
他听完笑的很大声 , 但始终没有给出问题的答案 。 我想就是这样 , 我们现在并不确定人类的道德伦理价值观就是最优的 , 构建以人类为中心的人工智能伦理 , 真就那么好吗?还有一个策略是以生态为中心 , 人类是生态的一部分 。
1950年艾伦·图灵写计算机智能的时候 , 文章中有句话 , 大意为 , 我们应该有以宇宙为中心的这样的视角来构建新兴科技的伦理的问题 。 所以我觉得人类能够看到的视野是很小一部分 , 往前一点点 。 即使是这样 , 还有很多问题亟待解决 。
郝景芳:其实科幻照进科学 , 科学也照进科幻 。 这本来就是一个思想实验的共生体 。 像刚才讨论说未来人工智能是否可以真的去判决人类 , 我其实真就写过这样一个法庭的故事 。 人工智能误判了人类 , 它从表面看事实是一回事 , 但深究内里却是不对的 。 那这样一个故事就是从我去了解到人工智能的原理所得来的灵感 。 所以想要写关于未来的故事 , 本身就应该多去学习一些前沿科技 。