埃尔法哥哥|人工智能认知的7大误区( 二 )


误区4:超人工智能很聪明 , 不会犯错
就职于牛津大学人类未来研究所(FutureofHumanityInstitute)的皮特·麦金泰尔(PeterMcIntyre)和斯图尔特·阿姆斯特朗(StuartArmstrong)都对此有不同看法 。 他们认为人工智能将很大程度上受到编程的限制 。 他们相信人工智能也会犯错误 , 或者他们还没有聪明到了解人类想从他们那里得到什么 。
牛津大学皮特·麦金泰尔与斯图尔特·阿姆斯特朗认为 , 人工智能受程序控制 , 不认为人工智能有聪明到可以理解我们期望 。 他们认为:“超级人工智能在定义上是在所有领域上都超越人脑智慧的存在” 。 “这样的存在是可以理解我们想让其所达到的意图的” 。 虽然人工智能被程序所控制 , 但如果足够聪明的话它将能够理解法的精神与人的意图 。
从定义上讲 , 超级人工智能(ASI)是一个拥有智力的载体 , 它在各个相关领域都要比最优秀的人类大脑更聪明 。 ”麦金泰尔和阿姆斯特朗相信人工智能只会做程序编写的任务 , 如果它能变得足够聪明的话 , 它将能理解依照程序完成任务与领略规则精髓的不同 , 也将能理解人类的意图 。
误区5:人工智能将超越和毁灭人类
我们无法断言人工智能是否会毁灭人类或者人类将无法控制人工智能 。 牛津大学哲学家尼克?波斯特洛姆(NickBostrom)认为 , 真正超级人工智能的出现或许是人类所发明的有史以来最大的危机 。 但我们无法确定人工智能会以什么形式和方式对人类产生威胁 。
没有任何证据表明我们会被人工智能毁灭或无法控制它们 。 正如人工智能研究者埃利德?尤德考斯(EliezerYudkowsky)所说:“人工智能既不会恨 , 也不会爱 , 但人类由原子构成的 , 除了智能以外 , 人类还有感情 。 ”
牛津大学的哲学学者尼克?波斯特洛姆在他的书《超级智能:路径、危险与策略》中提到 , 真正的超级人工智能一旦完成 , 将比以往人类的任何发明都危险 。 斯蒂芬·霍金(StephenHawking)认为,人工智能的出现可能是“我们文明史上最糟糕的事” , 而埃隆·马斯克(ElonMusk)和比尔·盖茨(BillGates)也提出了警告 。
但没有什么事是可以确定的 , 没人知道人工智能将采取什么行动以及如何威胁到人类 。 正如埃隆·马斯克指出的 , 人工智能可以用来控制、调节和监视其它人工智能 。 也许可以给它灌输人类的价值观 , 使之毫无保留地对人类保持友好 。
误区6:未来人工智能与科幻作品中的相同
科幻作品中的人工智能展现出趣味性和艺术性 , 是没有被方方面面束缚的天马行空的想象 。 而现实人工智能的发展受制于技术、计算能力和数据等方面 , 并且在发展过程中充满了太多不确定因素 , 因此现实人工智能与科幻作品中的人工智能还是有很大区别 , 当然 , 受科幻作品的影响 , 在人工智能的发展过程中不排除有科幻作品影子的可能性 。 但如今超级人工智能所导致的问题跟那些完全不同 。 许多的科幻作品为了作品的趣味性 , 牺牲了许多科学上的正确性 。
的确 , 科幻作品被作家和未来主义者们用来预测美好的将来 , 但超级人工智能所带来的图景完全不是一回事 。 更重要的是 , 与人类本性不同的人工智能不会让我们知道并预测它们确切的本性和形式 。
科幻作品考虑到我们人类是弱小的 , 大多数人工智能被设定地与人类很类似 , 而大多数科幻小说旨在讲一个引人入胜的故事 , 但不够科学准确 。 因此 , 科幻小说中的冲突往往是存在于实力接近的实体之间 。
误区7:未来所有工作将被人工智能所取代
毫无疑问 , 人工智能将取代很多现存的职业 , 包括从车间一线工人到高级白领 。 一些专家预测在不久的将来美国的一半工作将被自动化所取代 。 但这不意味着我们没有能力应付局面 。 最理想的情况是为我们人类实现人人称赞的目标 , 达到接近乌托邦的境界 , 无论是脑力劳动者还是体力劳动者 , 人人都从劳役中解放了出来 。