『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译( 二 )


当然 , 这套映射规则是限定语种、限定语句库和限定测试者的基础上完成的 。
首先 , 在这次的研究中所使用的语句库 , 只包含100多个词汇 , 50-60个句子 , 比我们日常交流的语句库少很多 。
其次 , 脑电波的识别是在同一个人的人脑中完成的 , 也就是还不能证明 , 不同人之间 , 脑电波信号的识别规律是否具有迁移性 。
很显然同样的一句话 , 受到不同语言背景、不同理解能力 , 甚至更为复杂的生理因素的影响 , 在不同的人脑中 , 形成的脑电波可能是完全不同的 。
这可能就需要针对每个人的脑电波信号的特点 , 分别建立完全不同的AI识别模型 。 这也意味着大脑信号之间的直接交流几乎很难实现 , 仍然需要具有公共涵义的共同语言作为中介来实现思想的交流 。 这也是哲学家维特根斯坦提出的“没有私人语言”的一种现实困境吧 。
【『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译】那么 , 如果AI对于脑电波的文本翻译能够达到实际应用的程度 , 这项技术对于我们意味着什么呢?
让失语者重新“说话” , 脑机语言翻译大有作为
我们先来理解下这项脑机语言翻译的真正意义 。 在人类的漫长进化史中 , 大脑的复杂和语言的出现成为一对互为因果的因素 , 帮助人类从严酷的自然环境中胜出 , 建立起复杂的文明和文化形态 。 也就是从人之为人的数万年时间里 , 我们人类的最主要交互方式就是语言 , 以及在语言基础上衍生出的文字、信号等沟通方式 。
而这次脑机语言翻译的出现 , 意味着人类的交互方式出现了新的形式 , 也就是由大脑信号直接转化为语言信号 。 尽管如我们所说 , 这一方式离三体人的“意念交流”还有很大距离 , 但已经是在向这一“意念交流”的方向前进了一大步 。
至于现实意义呢?对于普通人而言 , 无论是谁也不会轻易尝试在大脑中植入一块电极装置 , 再是日常语言交流仍然是最廉价、最高效地表达信息的方式 。 短期内 , 我们还是会习惯语音和手指作为信息输入的主要手段 。
那么 , 这项技术最靠谱的实际应用场景就是针对那些失去语言能力或写字能力的患病人群了 。 事实上研究者的出发点正是帮助因为中风偏瘫、渐冻症或者其他因神经系统疾病而丧失语言功能和沟通能力的人们 , 恢复语言沟通能力 。 而AI脑机语言翻译 , 就成为他们重新获得与世界沟通的工具 。
『脑极体』那距离“意念交流”还有多远?,机器学习实现了脑机语言翻译
文章图片
(脑控打字)
在这项技术实现之前 , 帮助失语者沟通的主要脑机接口技术就是“脑控打字” , 也就是通过采集脑信号 , 控制光标选择字母 , 然后组成单词后输出 。 这个领域做到最好效果的Facebook也只能做到每分钟最多打8个单词 。
在脑控打字难以突破效率难关的情况下 , AI脑机语言翻译可以直接完成脑电波信号到语言转化 , 效率一下子提高到了正常人的语速水平 。 这让失语者进行语言输出产生了飞跃的进步 。
但现实问题仍然存在 , 因为这些测试者都是可以正常说话的 , 那么从他们身上采集数据训练而成的AI算法 , 是否可以应用到中风病人或者渐冻人身上呢?
正如我们上面所述 , 每个人的脑电波的信号采集可能存在一些差异 , 那么AI算法可能会因人而异 , 因此很难进行不同人之间的迁移 。
那么就目前来说 , 只能是在有中风或渐冻症发作前或严重前 , 提前采集他们的脑电波信号 , 形成专属的AI翻译模型 , 才可能真正帮助患者 。
脑机语言翻译都来了 , 那“意念交流”还有多远?
相较于我们习以为常的AI语音识别技术 , AI脑机语言翻译看起来就已经非常令人惊叹了 , 那么要是达到用“意念交流”的脑脑交互的水平 , 那就有点天方夜谭的感觉了 。
所谓的脑脑交互 , 那就是不再借助语言而直接依靠脑电波信号进行人际之间的沟通 。 这种就类似于三体人的思想共享 , 《阿凡达》里的人兽联机的技术 。