Découvrez le programme complet des conférences de Laval Virtual

Santé / HandicapIntelligence artificielleCas d'usages

Comprendre comment notre cerveau traite le son pour améliorer les aides auditives

réussir à isoler les sons grâce à la commande de notre cerveau

Isoler les sons dans le brouhaha d’un bar grâce au machine-learning serait un vrai bénéfice pour des millions de malentendants. Les “soirées cocktails” formelles sont rares de nos jours. Mais le syndrome du “problème des cocktails” persiste dans l’esprit des scientifiques.

En effet, les audiologistes et les neuroscientifiques s’interrogent depuis des décennies sur ce sujet. Quelle est la capacité du cerveau à naviguer dans des pièces bondées ? Même lorsque des dizaines de personnes se parlent, le cerveau est capable de se concentrer sur un seul interlocuteur. Ceci se fait instantanément et sans effort. Une prothèse auditive basée sur ces performances serait une vraie révolution. Et si seulement nous pouvions comprendre comment le cerveau s’y prend réellement.

Que se passe-t-il dans le cortex du cerveau quand plusieurs personnes nous parlent ?

Les ingénieurs de l’Institut Zuckerman de l’Université Columbia ont aperçu de ce qui se passe dans le cortex auditif pendant une conversation de groupe. Une équipe dirigée par Nima Mesgarani, ingénieur électricien à Columbia, a travaillé avec huit volontaires. Ces derniers ont subit une surveillance des crises d’épilepsie à l’électrode dans le cadre du traitement de l’épilepsie.

En effet subir une neurochirurgie serait trop invasif. Les chirurgiens ont inséré de minuscules électrodes sur la partie du cerveau consacrée à l’audition. Ils ont enregistré l’activité neuronale des sujets pendant qu’ils écoutaient. D’abord, à deux voix parlant séparément, puis simultanément à des volumes similaires.

Le processus qui permet à notre cerveau d’isoler des voix dans le brouhaha d’un bar dure à peine 150 milli-secondes

Notre cerveau choisit ce qu’il veut entendre

Les chercheurs ont également enregistré l’activité des patients qui passaient d’un conférencier à l’autre. C’est un peu comme ce que vous feriez si vous écoutiez deux conversations différentes. En gros, ont-ils constaté, le cerveau choisit qui il veut entendre en deux étapes distinctes. Tout d’abord, une zone interprète les voix des deux orateurs. Elle les aligne comme un producteur de radio pourrait doubler un invité parlant une langue étrangère. Ensuite, les neurones d’une deuxième région travaillent à amplifier la voix désirée tout en atténuant la seconde. C’est un peu comme le producteur qui fait monter la voix anglaise dans le mix. L’ensemble du processus dure environ 150 millisecondes.

Un travail, publié dans la revue Neuron le 21 octobre, pourrait contribuer à l’amélioration des aides auditives. Les prothèses auditives conventionnelles fonctionnent en amplifiant toutes sortes de discours. Ce qui peut aider lorsque les personnes qui les portent conversent dans des situations avec peu de bruit de fond. Mais, dans les endroits bruyants, comme un bar ou un restaurant, c’est difficile de choisir la voix qu’ils veulent entendre.

Plus de 4 millions de malentendants en France

Ce n’est pas un problème insignifiant. En France, plus de 4 millions de personnes sont atteintes à un certain degré , soit 6 à 8 % de la population. 2 millions de personnes sont malentendantes légères, 1,8 million sont atteintes de surdité moyenne et 200 000 sont sourdes profondes. Leur condition peut être améliorée avec des appareils auditifs. Mais ce chiffre ne fera qu’augmenter à mesure que la proportion des adultes de plus de 65 ans augmentera.

Beaucoup de personnes qui pourraient utiliser une aide auditive ne le font pas. En partie parce que la technologie est encore imparfaite. De plus en plus d’études suggèrent que la perte auditive non traitée peut être liée au déclin cognitif. Ceci peut être le premier symptôme de la démence. Les soins et le traitement d’Alzheimer et des affections connexes ont coûté près d’un trillion de dollars à l’échelle mondiale ; selon certaines estimations, ce chiffre devrait doubler au cours de la prochaine décennie.

Le défi : développer un appareil pour capter les bons sons dans le cerveau

L’une des prochaines étapes pour le laboratoire de Mesgarani est de trouver comment appliquer ces recherches pour développer un appareil. Une solution qui se connecterait directement au cerveau pour capter les bons sons. Cela ressemblerait à un implant cochléaire. Ainsi, l’appareil aiderait les personnes ayant une audition extrêmement limitée en stimulant directement la partie auditive du cerveau.

Cela dit, il faudra probablement des années avant que ce genre de produit soit prêt à être testé. Comme la technique des électrodes utilisée dans cette étude, les technologies informatiques cérébrales sont invasives. L’ équipe tente également de déterminer comment “former” les appareils auditifs externes existants pour qu’ils puissent capter des voix spécifiques au choix de l’utilisateur.

En 2017, l’équipe a montré qu’il était possible de former un algorithme de “machine-learning“. Des travaux décrits dans un document de validation de principe prometteur.

Source : texte original publié par Katherine Ellen Folley pour Quartz.

Ecouter le podcast Laval Virtual

Laisser un commentaire

Cet article pourrait aussi vous intéresser...
Comment détecter des “deepfake” de plus en plus réalistes ?