『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译( 三 )


一般来说 , 我们通过语言传输大脑信息 , 必然就存在着信息缺失、传输损耗以及效率低下的问题 。 翻译成人话就是 , 我们经常词不达意、左耳朵进右耳朵出 , 写篇文章好几天 , 聊个天就大半天过去 。
脑脑交互则可以大幅提升人们之间交流的速度和信息量 , 能够保留和传输真实无损的大脑信息 , 避免误会 , 从而根本改变人类的协作方式 。
脑脑交互并非完全的空想 , 现在也有一些基础的实验证实了这一可能性 。 比如2018年华盛顿大学 , 通过以下实验 , 让三个相互隔离的人带上了脑电图头盔这种非侵入式脑机设备 , 纯靠看和想 , 共同协作 , 来完成俄罗斯方块游戏 。 其中2个人负责观察底部情况和下落的方块形状 , 操控手柄的人则完全不知道状况 , 只能让这两个人产生脑电波信号 , 通过一种叫TMS的磁刺激方式来传递信息给操控者的大脑 , 让其大脑产生操作的指令 。
经过5组不同的实验中 , 这种脑脑交互传达信息的准确率达到了81.25% 。 虽然还远远达不到人类之间传输信息需要的准确率和复杂度 , 但是这一实验带来脑脑交互的一种可能性 。
但是可能性并不意味着现实性 。 这一点可能性之后仍然要面对大脑这个神秘黑箱制造的无尽难题 。
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
(大脑皮层的语言分区)
目前 , 神经科学家已经知道人类的认知功能跟大脑的分区有关 。 研究人员可以通过对大脑神经活动的空间和时间信号进行高分辨率的数据采集 , 并配合机器学习算法将各种感知觉、运动、语言等高级认知功能所对应的神经信号互相分离出来 。 然后 , 可以实现像一些基本的脑机语言翻译这样的功能 。
但是真正实现语言的解码翻译其实还要面临众多的困难 。 除了上面提到的声波信号对于每个人的脑区的刺激会因人而异之外 , 由于世界上有上万种的语言及方言 , 同一个语义在不同语言和方言下可能对应着不同的脑电波信号 。 甚至于不同年龄、不同成长环境 , 不同的情绪状态都有可能导致完全不同的脑电波信号 。
此外 , 我们阅读文字也可以引发语言相关的脑电波活动 , 这肯定与语音刺激的反应又不相同 。 同样 , 不同的文字形态又会带来不同的脑电波信号模式 。
也就是实验室状态下的无干扰的测试结果 , 极难应用到现实场景当中 。 要实现如此多复杂的脑电波语言翻译 , 其难度可能比全世界统一语言和文字的难度还大 。 那么想要实现后者 , 你们认为其可能性有多大呢?
那么 , 对于脑脑交互呢?我们是否可以先绕开语言翻译的这座大山 , 先去实现一些非语言化或者先于语言化的脑信号交互呢?比如 , 找到人类共同的一些辨识方向、情绪以及一些本能应激反应的脑电波信号 , 通过AI学习 , 实现信号的解码和共享 。
这确实是有可能的 , 比如上面俄罗斯方块游戏的方向测试 , 以及在一些大鼠身上做的一些头部预期运动的信号的测试 。 但是 , 再复杂一些 , 就可能会必须要从脑电波信号转码为语言(语音或文字)来进行交互了 , 不然 , 这些探测到的脑电波数据就仅仅是一些物理信号 , 而不能具有任何的信息价值 。
这可能还是应了那个哲学命题 , 如果意识不通过语言来表达 , 我们怎么意识到这个意识呢?
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
在一个需要靠讲故事来撑市值的新型产业 , 脑机语言翻译的实现 , 确实再一次给脑机接口的技术发展和商业化注入了一剂强心针 。 当然 , 我们也要冷静地看到这一技术仍然只具有“实验室”的成功价值 , 其用于商业化方面还需要脑机接入的材料成本、安全性 , 信号检测的准确度 , 翻译模型的迁移性和普适性等各个方面走向成熟 。
至于我们试图去回答的“意念交流”的脑脑交互 , 大家其实也看到了 , 前途茫茫 , 困难依旧重重 , 甚至还有一座语言的大山横亘在人类面前 。