为AI注入一缕意识:构建更智能、更强大的神经网络


全文共2848字 , 预计学习时长8分钟
为AI注入一缕意识:构建更智能、更强大的神经网络
本文插图
图源:unsplash
1998年 , 日本索尼计算机科学实验室的一名工程师拍摄了一台机器人在围栏里不知所措地到处跑的情景 。 机器人有两个任务:避开障碍并在围栏中找到特定物品 , 它通过了解场地布局和目标物体的位置来完成任务 。
但是 , 每当机器人遇到超预期的障碍时 , 有趣的现象就出现了:它的认知过程一时变得混乱起来 。 机器人努力应付和它对围栏的预测不一致的新数据 。
设立该实验的研究人员解释道 , 在不一致的情况下 , 机器人出现了“自我意识” 。 相比于像往常那样运行 , 机器人必须将注意力转移到内部——可以说 , 它在决定如何处理冲突 。
为AI注入一缕意识:构建更智能、更强大的神经网络
本文插图
(工程艺术公司(Engineered Arts)的假肢专家迈克·汉弗莱(Mike Humphrey)正在检查弗瑞德(Fred) 。 Fred是用Penryn处理器制作的生物力学“梅斯梅尔(Mesmer)”机器人 , 于2018年5月9日在位于英格兰康沃尔的公司总部制造完毕 。 | 图源:Getty Images)
关于自我认知(在特定情况下发挥效用 , 比如当我们接收到不得不重新评估所处环境并作出如何执行下一步的决定时)的想法渊源已久 , 最早出现在20世纪初期德国哲学家马丁·海德格尔(MartinHeidegger)的作品中 。 现在 , 越来越多的AI研究专家受到神经科学的影响 , 正在琢磨神经网络是否可以并应该达到与人脑相当的高水平认知 。
当下 , 我们早就不关注那些“愚蠢”的机器人了——它们对自己究竟在哪或在做什么毫无概念 。 我们希望 , 与人脑认知水平类似的意识能让未来的AI更加智能 。 这样的AI可以自我学习 , 比如 , 如何选择并重点关注数据以获取可掌握并能轻松使用的新技能 。
然而 , 赋予机器这类思考能力同样带来了风险及道德上的不确定性 。
谷淳(Jun Tani)是1998年试验的共同设计者、博士、现冲绳技术大学认知神经机器人研究室教授 。 他说:“我不设计认知” , 他认为要用比喻的说法才能描述其机器人的“认知”行为 , 即机器人实际不会有人类认可的认知方式 , 它们不过是展示结构上类似的行为罢了 。 并且 , 他对机器思维及人类思维的相似性有着极高的兴趣 , 甚至尝试用机器人模拟自闭症相关的神经反应 。
世界最著名的AI专家、魁北克人工智能机构Mila 的创始人约书亚·本吉奥(YoshuaBengio)同样痴迷于对AI认知的研究 。 他用驾驶类比认知和非认知行为的转变 。
他在邮件中解释道:“一开始 , 你刚学会如何开车 , 这时是认知控制 。 在有了一些驾驶经验后 , 大多数驾驶行为都是在无意识层面进行 , 你可以边开车边聊天 。 ”
为AI注入一缕意识:构建更智能、更强大的神经网络
本文插图
图源:unsplash
更高级的专注处理水平并非总是必要的 , 甚至也不总是十分理想的 。 但是对于人类来说 , 学习新技能或适应突发的挑战似乎至关重要 。 只有能获取与人类相同的划分优先级、集中注意力及解决问题的能力 , AI系统和机器人才有可能避免当前困扰它们的愚蠢行径 。
本吉奥及其同事在一定程度上受到我们对人类意识认识的启发 , 用了几年时间研究AI系统的“注意力机制”原则 。 这些系统能学习哪些数据是相关的 , 从而知道应该关注哪些内容才能完成给定任务 。
本吉奥补充道:“在AI领域 , 研究认知仍披有禁忌色彩 。 ”他认为 , 认知是个十分难以理解的理论 , 即便对神经科学家也是如此 , 讨论认知形态的主力军至今仍是哲学家 。