brainnews|Reviews Neurosci:语言中的节奏及其神经机制|导读 37期,Nature
?顶刊导读目录
1 , 说话人能够根据舌头的体感对元音进行分类
2 , 通过绘制大脑皮层对语义关系的表征地图来连接大脑中的概念
3 , 听觉和额叶皮层中非紧缩声学类别的动态变化和层级性编码
4 , 语言中的节奏及其神经机制
5 , 丘脑、皮层和杏仁核参与处理危险信号的自然声音线索
文章图片
1 , 说话人能够根据舌头的体感对元音进行分类
期刊:PNAS
作者:Loren
意义:众所周知 , 听觉语音感知将连续的声学输入归类为离散的语音单位 , 这一特性通常被认为是对母语中的音系类别的获取和保存的关键 。 当声音信号不清晰时 , 与语音产生相关的体感输入也被证明会影响语音感知 , 从而导致类别边界的变化 。
本研究利用一个专门设计的实验范式 , 证明在没有听觉反馈的情况下 , 躯体感觉反馈本身就可以识别语音类别 。 这一发现表明 , 语音清晰度的听觉和体感关联可能共同促进了语音范畴的产生、维持和进化 。
摘要:听觉语音感知使听者能够从语音中获取语音类别 。 在言语生产和言语运动学习过程中 , 说话人的经验与听觉和体感输入相匹配 。 因此 , 体感信息也可以提供语音单位 。
目前研究评估了人类在没有听觉反馈的情况之下 , 是否可以使用体感反馈来识别元音 。 在一项舌尖定位任务中 , 参与者被要求在/e , ε/发音范围内实现不同的舌位 , 这个过程是完全非言语性的 , 涉及扭曲的舌形视觉反馈(舌位测量采用电磁关节造影) 。
在每个舌位试验结束时 , 被试被要求通过被遮掩的听觉反馈对相应的声道结构进行耳语 , 并识别与到达的舌位相关的元音 。 遮掩听觉反馈确保元音分类是基于体感反馈而不是听觉反馈 。 另一组受试者被要求对窃窃私语的声音进行听觉分类 。
此外 , 我们还利用贝叶斯分类器对正常语音生产中元音类别和舌位之间的联系进行了模拟 , 该分类器基于同一个人在单独的语音生成任务中多次重复/e、ε、a/元音时记录的舌位 。
总之 , 我们的结果表明 , 仅用体感反馈就可以实现元音分类 , 其准确性类似于听觉感知的准确性 , 并且与贝叶斯分类器所描述的正常语音发音清晰度一致 。
https://www.pnas.org/content/117/11/6255
文章图片
2 , 通过绘制大脑皮层对语义关系的表征地图来连接大脑中的概念
期刊:Naturecommunications
作者:Niki
文章图片
对于三种语义关系:“对象-属性”(a)、“事件关系”(b)和“空间相关”(c) , 多元模式分析揭示了与这三种关系相关的两种皮层模式 。 表格列出了激活模式和图中所示最相似的4个单词对
在大脑中 , 语义系统被认为存储了抽象概念 。 然而 , 很少有人知道语义系统如何连接不同的概念 , 并推断语义关系 。 为了解决这个问题 , 本研究让受试听了很多段自然故事材料 , 同时记录了数小时的功能性磁共振影像数据 。 作者通过建模分析得到了一个体素响应的预测模型 , 并进一步应用于成千上万的新词 。
研究结果表明 , 语义类别和语义关系对应的皮层响应都表现为空间上重叠的模式 , 而不是解剖分离的区域 。 并且 , 反映概念从具体到抽象的语义关系表现为大脑皮层默认网络的激活和额顶注意网络的失活 。 作者认为人类大脑使用分布式网络编码概念以及概念之间的关系 , 尤其是默认网络 , 在概念抽象化的语义处理中起着核心作用 。
https://doi.org/10.1038/s41467-020-15804-w