Les données « brutes » montrent que les signaux de l’IA reflètent la façon dont le cerveau écoute et apprend
Les données « brutes » montrent que les signaux de l’IA reflètent la façon dont le cerveau écoute et apprend

Les données
Les chercheurs ont trouvé des signaux étonnamment similaires entre le cerveau et les réseaux de neurones artificiels. La ligne bleue est une onde cérébrale lorsque les humains écoutent une voyelle. Le rouge est la réponse du réseau neuronal artificiel à exactement la même voyelle. Les deux signaux sont bruts, ce qui signifie qu'aucune transformation n'a été nécessaire. Crédit : Gasper Begus

Une nouvelle recherche de l'Université de Californie à Berkeley montre que les systèmes d'intelligence artificielle (IA) peuvent traiter les signaux d'une manière remarquablement similaire à la façon dont le cerveau interprète la parole, une découverte selon les scientifiques pourrait aider à expliquer la boîte noire du fonctionnement des systèmes d'IA .

À l'aide d'un système d'électrodes placées sur la tête des participants, les scientifiques du Berkeley Speech and Computation Lab ont mesuré les ondes cérébrales pendant que les participants écoutaient une seule syllabe - "bah". Ils ont ensuite comparé cette activité cérébrale aux signaux produits par un système d'IA formé pour apprendre l'anglais.

"Les formes sont remarquablement similaires", a déclaré Gasper Begus, professeur adjoint de linguistique à l'UC Berkeley et auteur principal de l'étude publiée récemment dans la revue Rapports scientifiques. "Cela vous indique que des choses similaires sont encodées, que le traitement est similaire."

Un graphique de comparaison côte à côte des deux signaux montre cette similitude de manière frappante.

"Il n'y a aucune modification des données", a ajouté Begus. "C'est cru."

Les systèmes d'IA ont récemment progressé à pas de géant. Depuis que ChatGPT a ricoché dans le monde entier l'année dernière, ces outils devraient bouleverser des secteurs de la société et révolutionner la façon dont des millions de personnes travaillent. Mais malgré ces progrès impressionnants, les scientifiques ont eu une compréhension limitée de la manière exacte dont les outils qu'ils ont créés fonctionnent entre l'entrée et la sortie.

Une question et une réponse dans ChatGPT ont été la référence pour mesurer l'intelligence et les biais d'un système d'IA. Mais ce qui se passe entre ces étapes ressemble à une boîte noire. Savoir comment et pourquoi ces systèmes fournissent les informations qu'ils fournissent (comment ils apprennent) devient essentiel à mesure qu'ils s'enracinent dans la vie quotidienne dans des domaines allant des soins de santé à l'éducation.

Begus et ses co-auteurs, Alan Zhou de l'Université Johns Hopkins et T. Christina Zhao de l'Université de Washington, font partie d'un groupe de scientifiques travaillant à ouvrir cette boîte.

Pour ce faire, Begus s'est tourné vers sa formation en linguistique.

Lorsque nous écoutons des mots parlés, a déclaré Begus, le son pénètre dans nos oreilles et est converti en signaux électriques. Ces signaux voyagent ensuite à travers le tronc cérébral et vers les parties externes de notre cerveau. Avec l'expérience des électrodes, les chercheurs ont tracé ce chemin en réponse à 3 000 répétitions d'un seul son et ont découvert que les ondes cérébrales pour la parole suivaient de près les sons réels du langage.

Les chercheurs ont transmis le même enregistrement du son "bah" via un réseau de neurones non supervisé - un système d'IA - capable d'interpréter le son. À l'aide d'une technique développée au Berkeley Speech and Computation Lab, ils ont mesuré les ondes coïncidentes et les ont documentées au fur et à mesure qu'elles se produisaient.

Des recherches antérieures nécessitaient des étapes supplémentaires pour comparer les ondes du cerveau et des machines. L'étude des ondes sous leur forme brute aidera les chercheurs à comprendre et à améliorer la façon dont ces systèmes apprennent et reflètent de plus en plus la cognition humaine, a déclaré Begus.

"En tant que scientifique, je suis vraiment intéressé par l'interprétabilité de ces modèles", a déclaré Begus. "Ils sont si puissants. Tout le monde en parle. Et tout le monde les utilise. Mais on fait beaucoup moins pour essayer de les comprendre."

Begus pense que ce qui se passe entre l'entrée et la sortie ne doit pas rester une boîte noire. Comprendre comment ces signaux se comparent à l'activité cérébrale des êtres humains est une référence importante dans la course à la construction de systèmes de plus en plus puissants. Il en va de même pour savoir ce qui se passe sous le capot.

Par exemple, avoir cette compréhension pourrait aider à mettre des garde-corps sur des modèles d'IA de plus en plus puissants. Cela pourrait également améliorer notre compréhension de la façon dont les erreurs et les préjugés sont intégrés aux processus d'apprentissage.

Begus a déclaré que lui et ses collègues collaboraient avec d'autres chercheurs utilisant des techniques d'imagerie cérébrale pour mesurer comment ces signaux pourraient se comparer. Ils étudient également comment d'autres langues, comme le mandarin, sont décodées différemment dans le cerveau et ce que cela pourrait indiquer sur la connaissance.

De nombreux modèles sont formés sur des repères visuels, comme les couleurs ou le texte écrit, qui ont tous deux des milliers de variations au niveau granulaire. La langue, cependant, ouvre la porte à une compréhension plus solide, a déclaré Begus.

La langue anglaise, par exemple, n'a que quelques dizaines de sons.

"Si vous voulez comprendre ces modèles, vous devez commencer par des choses simples. Et la parole est beaucoup plus facile à comprendre", a déclaré Begus. "J'ai bon espoir que la parole est la chose qui nous aidera à comprendre comment ces modèles apprennent."

En sciences cognitives, l'un des principaux objectifs est de construire des modèles mathématiques qui ressemblent le plus possible aux humains. Les similitudes récemment documentées entre les ondes cérébrales et les ondes d'IA sont une référence sur la proximité des chercheurs avec cet objectif.

"Je ne dis pas que nous devons construire des choses comme les humains", a déclaré Begus. "Je ne dis pas que nous ne le faisons pas. Mais il est important de comprendre en quoi différentes architectures sont similaires ou différentes des humains."

Plus d'information: Gašper Beguš et al, Encodage de la parole dans les couches convolutives et le tronc cérébral basé sur l'expérience du langage, Rapports scientifiques (2023). DOI : 10.1038/s41598-023-33384-9

Fourni par Université de Californie - Berkeley

Citation: Les données «brutes» montrent que les signaux de l'IA reflètent la façon dont le cerveau écoute et apprend (2023, 2 mai) récupéré le 2 mai 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top