Les chercheurs découvrent que les neurones travaillent en équipe pour traiter les interactions sociales

[ad_1]

Les chercheurs ont découvert qu’une partie du cerveau associée à la mémoire de travail et à l’intégration multisensorielle peut également jouer un rôle important dans la façon dont le cerveau traite les signaux sociaux. Des recherches antérieures ont montré que les neurones du cortex préfrontal ventrolatéral (VLPFC) intègrent les visages et les voix – mais de nouvelles recherches, dans le Journal des neurosciencesmontre que les neurones du VLPFC jouent un rôle dans le traitement à la fois de l’identité du « locuteur » et de l’expression véhiculée par les gestes faciaux et les vocalisations.

« Nous ne comprenons toujours pas complètement comment les informations faciales et vocales sont combinées ni quelles informations sont traitées par différentes régions du cerveau », a déclaré Lizabeth Romanski, PhD, professeure agrégée de neurosciences à l’Institut Del Monte de neurosciences de l’Université de Rochester et senior auteur de l’étude. « Cependant, ces résultats confirment que le VLPFC est un nœud essentiel du réseau de communication sociale qui traite les expressions faciales, les vocalisations et les signaux sociaux. »

Le VLPFC est une zone du cerveau hypertrophiée chez les primates, notamment les humains et les macaques. Dans cette étude, le Romanski Lab a montré à des macaques rhésus de courtes vidéos d’autres macaques se livrant à des vocalisations/expressions amicales, agressives ou neutres. Ils ont enregistré l’activité de plus de 400 neurones dans le VLPFC et ont constaté qu’individuellement, les cellules ne présentaient pas de fortes réponses catégoriques aux expressions ou à l’identité des macaques dans les vidéos. Cependant, lorsque les chercheurs ont combiné les neurones en tant que population, un modèle d’apprentissage automatique a pu être formé pour décoder l’expression et l’identité des vidéos en se basant uniquement sur les modèles d’activité neuronale, ce qui suggère que les neurones réagissaient collectivement à ces variables. Dans l’ensemble, l’activité de la population de neurones VLPFC était principalement dictée par l’identité du macaque présent dans la vidéo. Ces résultats suggèrent que le VLPFC est une région cérébrale clé dans le traitement des signaux sociaux.

« Nous avons utilisé des stimuli dynamiques et riches en informations dans notre étude et les réponses que nous avons observées à partir de neurones uniques étaient très complexes. Au départ, il était difficile de donner un sens aux données », a déclaré Keshov Sharma, PhD, auteur principal de l’étude. « Ce n’est que lorsque nous avons étudié la corrélation entre l’activité de la population et les informations sociales contenues dans nos stimuli que nous avons trouvé une structure cohérente. Pour nous, c’était comme voir enfin une forêt au lieu d’un fouillis d’arbres. » Sharma et Romanski espèrent que leur approche encouragera d’autres à analyser l’activité au niveau de la population lorsqu’ils étudient la manière dont les visages et les voix sont intégrés dans le cerveau.

Disséquer les circuits de traitement audiovisuel du cerveau

Comprendre comment le cortex préfrontal traite les informations auditives et visuelles est la pierre angulaire du laboratoire Romanski. Ce processus est nécessaire à la reconnaissance des objets par la vue, ainsi que par le son, et est requis pour une communication efficace. Lors de recherches antérieures, le laboratoire Romanski a identifié le VLPFC comme une zone du cerveau responsable du maintien et de l’intégration des informations faciales et vocales au cours de la mémoire de travail. Cet ensemble de recherches souligne l’importance de cette région cérébrale au sein du circuit plus vaste qui sous-tend la communication sociale.

« Connaître quelles caractéristiques les populations de neurones extraient des stimuli faciaux et vocaux et comment ces caractéristiques sont généralement intégrées nous aidera à comprendre ce qui peut être modifié dans les troubles de la parole et de la communication, y compris les troubles du spectre autistique, où plusieurs stimuli sensoriels peuvent ne pas se combiner de manière optimale », » dit Romanski.

Parmi les autres auteurs figurent Mark Diltz du centre médical de l’Université de Rochester, Theodore Lincoln d’Astrobotic Technology Inc. et Eric Albuquerque de la faculté de médecine de l’Université de Miami. Cette recherche a été soutenue par les National Institutes of Health, le programme Schmitt pour les neurosciences intégratives par l’intermédiaire de l’Institut Del Monte pour les neurosciences et le programme de formation des scientifiques médicaux de l’Université de Rochester (MSTP).

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*