『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译

在《三体》当中 , 大刘为三体文明设计了一种“思考即说话”的意念交流方式 。 在严酷的三体环境下 , 三体人正是依靠这种高效无误的意念交流方式 , 实现了知识的无障碍共享、理性决策的高度统一 , 才能创造出如此高度发达的文明成果和整齐划一的社会体制 。
这一思路就如同去中心化的分布式计算机 , 只要建立联接 , 每一台独立的计算机单元都可以获知其他计算机单元的数据 , 每一台计算机单元理论上也都能够共享共同的执行命令 。
反观人类 , 我们就显得有些“低能”了 。 首先 , 我们每个人的大脑都像是一块白板 , 任何的数据信息都需要经过大脑的发育和长期的经验训练才可能学到一星半点的知识;其次 , 我们的大脑又仿佛一个神秘黑箱 , 每个人都只能通过外在的语言、表情、姿态等信号来识别对方的动机 , 所谓知人知面不知心就是这个意思 。 再次 , 我们的数据信号的输出又非常低效 , 我们只能以这种每秒钟几KB的语音、词汇等信息来输出想法 , 严重制约了沟通效率 。
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
可能有人会质疑 , 我们有必要向三体人那样通过“意念”直接交流吗?假如有一天我们的思想真的可以直接交流 , 即便有那么多的好处 , 同样那些个人的贪念、恶意也无法隐瞒 , 这些对我们人类来说都可能是一场巨大灾难 。
在高等文明来临前 , 私欲和恶意就会将人类推进深渊 。 不过 , 这种推论仍然是杞人忧天 。
一方面目前这种程度的“脑机接口”技术的实现还遥遥无期;另一方面 , 一旦人类动了“意念交流”的念头 , 只要技术有任何可能的突破 , 好奇心都会驱使那些最聪明的人去实现它 。 至于技术出来是否“洪水滔天” , 那就事后再说了 。
当前来看 , 脑机接口技术正在取得一些显著的进展 。 最近一项可以称之为脑机语言翻译的技术 , 又实现了新的突破 。
3月底 , 在Nature杂志的副刊《神经科学》上面 , 来自美国加州大学旧金山分校的研究人员发表了一项新的研究 , 他们利用机器学习的方法 , 可以把脑电波信号直接翻译成了有意义的语音和文字 , 翻译准确度得到大幅提高 , 最低错误率只有3% 。
这一结果是如何实现的 , 这一研究意味着什么 , 距离实现“意念交流”还有多远?这些正是我们接下来要讨论的内容 。
人脑语言翻译规律 , 机器学习很有一套
我们先来还原一下这项实验的过程:研究人员找到四名患有癫痫的受试者 , 事先在其大脑的控制发音的脑区植入电极装置 。 在实验中 , 受试者需要先在一个有限的词语库里 , 反复地朗读一些句子 。 电极装置就可以在过程中捕捉朗读瞬间活跃的脑电波信号 。
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
(记录大脑活动的颅内ECoG电极阵列)
然后 , 研究人员就可以在在收集到的信号和语句库之间找规律 , 把跟控制发声动作相关的脑电波信息提取出来 。 接着就可以通过机器学习对这些数据进行训练 , 使得AI可以在脑电波信号和语句库之间建立起映射关系的模型 。
最后 , 你只要在大脑中想象自己说出词语库内的某一句话 , AI程序就可以根据训练后的映射关系 , 来识别你的内心独白了 。
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
(通过声波动作的脑电波信号识别语音)
由此可知 , 实验得以成功的前提就是复杂的脑电波信号和明确的语词之间 , 可以建立一套准确的映射关系 。 那么基于数据标记的有监督的机器学习就很容易在训练中“找到规律” 。
论文中还表明 , AI在学习识别人类脑电波的速度非常快 。 实验结果显示 , 只要经过大概40分钟语音数据的简单训练 , 语音相关的脑电波的AI翻译 , 就可以达到比较高的准确率了 。 其中效果最好的一名受试者 , 在仅仅经过9次数据训练之后 , 词错率就降到只有3%了 。 这个词错率已经接近于迄今为止AI读取人的想法的最佳表现 。 研究人员认为 , 如果再经过更多的训练 , 识别的效果还会进一步上升 。