您当前的位置: > 详细浏览

面孔表情和声音情绪信息整合加工的脑机制

请选择邀稿期刊:
摘要: 在现实生活中, 有效的情绪识别往往依赖于不同通道间的信息整合(如, 面孔、声音)。本文梳理相关研究认为, 面孔表情和声音情绪信息在早期知觉阶段即产生交互作用, 且初级感知觉皮层负责两者信息的编码; 而在晚期决策阶段, 杏仁核、颞叶等高级脑区完成对情绪信息内容的认知评估整合; 此外, 神经振荡活动在多个频段上的功能耦合促进了跨通道情绪信息整合。未来研究需要进一步探究两者整合是否与情绪冲突有关, 以及不一致的情绪信息在整合中是否有优势, 探明不同频段的神经振荡如何促进面孔表情和声音情绪信息整合, 以便更深入地了解面孔表情和声音情绪信息整合的神经动力学基础。

版本历史

[V1] 2023-03-28 00:30:22 ChinaXiv:202303.09336V1 下载全文
点击下载全文
预览
许可声明
metrics指标
  •  点击量226
  •  下载量100
评论
分享
  • 运营单位: 中国科学院文献情报中心
  • 制作维护:中国科学院文献情报中心知识系统部
  • 邮箱: eprint@mail.las.ac.cn
  • 地址:北京中关村北四环西路33号
招募志愿者 许可声明 法律声明

京ICP备05002861号-25 | 京公网安备11010802041489号
版权所有© 2016 中国科学院文献情报中心