Pourquoi ChatGPT n’est pas conscient, mais les futurs systèmes d’IA pourraient l’être
Pourquoi ChatGPT n’est pas conscient, mais les futurs systèmes d’IA pourraient l’être

Pourquoi ChatGPT n'est pas conscient, mais les futurs systèmes d'IA pourraient l'être
Crédit : Shutterstock

En juin 2022, l'ingénieur Blake Lemoine de Google a fait la une des journaux en affirmant que le chatbot LaMDA de l'entreprise avait atteint la sensibilité. Le logiciel avait la capacité de conversation d'un enfant précoce de sept ans, Lemoine a ditet nous devrions supposer qu’il possédait une conscience similaire du monde.

LaMDA, rendu public plus tard sous le nom Barde, est alimenté par un « grand modèle de langage » (LLM) du type de celui qui constitue également le moteur du bot ChatGPT d'OpenAI. D’autres grandes entreprises technologiques se précipitent pour déployer une technologie similaire.

Des centaines de millions de personnes ont désormais eu la chance de jouer avec les LLM, mais peu semblent croire qu’elles en sont conscientes. Au lieu de cela, en linguiste et data scientist La phrase poétique d'Emily Bender, ce sont des « perroquets stochastiques », qui bavardent de manière convaincante sans comprendre. Mais qu’en est-il de la prochaine génération de systèmes d’intelligence artificielle (IA) et de celle qui suivra ?

Notre équipe de philosophes, de neuroscientifiques et d'informaticiens s'est appuyée sur les théories scientifiques actuelles sur le fonctionnement de la conscience humaine pour élaborer un liste des propriétés informatiques de base que tout système hypothétiquement conscient devrait probablement posséder. À notre avis, aucun système actuel n’atteint la barre de la conscience – mais en même temps, il n’y a aucune raison évidente pour que les systèmes futurs ne deviennent pas véritablement conscients.

Trouver des indicateurs

Depuis que le pionnier de l'informatique Alan Turing a proposé son « jeu d'imitation » en 1950, la capacité de réussir à se faire passer pour un humain dans une conversation a souvent été considérée comme un marqueur fiable de la conscience. C’est généralement parce que la tâche semble si difficile qu’elle nécessite une prise de conscience.

Cependant, comme pour l'ordinateur d'échecs Deep Blue de 1997 défaite du grand maître Gary Kasparov, la fluidité conversationnelle des LLM pourrait bien faire bouger les choses. Existe-t-il une manière fondée sur des principes d’aborder la question de la conscience de l’IA qui ne s’appuie pas sur nos intuitions sur ce qui est difficile ou spécial dans la cognition humaine ?

Notre récente papier blanc vise à faire exactement cela. Nous avons comparé les théories scientifiques actuelles sur ce qui rend les humains conscients pour dresser une liste de « propriétés indicatrices » qui pourraient ensuite être appliquées aux systèmes d’IA.

Nous ne pensons pas que les systèmes qui possèdent les propriétés des indicateurs soient définitivement conscients, mais plus il y a d'indicateurs, plus nous devrions prendre au sérieux les affirmations sur la conscience de l'IA.

Les processus informatiques derrière la conscience

Quel type d’indicateurs recherchions-nous ? Nous avons évité les critères comportementaux manifestes, comme la capacité de tenir des conversations avec des gens, car ils ont tendance à être à la fois centrés sur l'humain et faciles à simuler.

Au lieu de cela, nous avons examiné les théories des processus informatiques qui soutiennent la conscience dans le cerveau humain. Ceux-ci peuvent nous renseigner sur le type de traitement de l’information nécessaire pour soutenir l’expérience subjective.

Les « théories de l'espace de travail global », par exemple, postulent que la conscience naît de la présence d'un goulot d'étranglement à capacité limitée qui rassemble les informations de toutes les parties du cerveau et sélectionne les informations à rendre disponibles à l'échelle mondiale. Les « théories du traitement récurrent » mettent l'accent sur le rôle du feedback des processus ultérieurs vers les processus antérieurs.

Pourquoi ChatGPT n'est pas conscient, mais les futurs systèmes d'IA pourraient l'être
Crédit : La conversation

Chaque théorie suggère à son tour des indicateurs plus spécifiques. Notre liste finale contient 14 indicateurs, chacun se concentrant sur un aspect de la façon dont les systèmes travail plutôt que comment ils se comporter.

Aucune raison de penser que les systèmes actuels sont conscients

Comment se situent les technologies actuelles ? Notre analyse suggère qu’il n’y a aucune raison de penser que les systèmes d’IA actuels sont conscients.

Certains répondent à quelques-uns des indicateurs. Systèmes utilisant l'architecture du transformateur, une sorte de modèle d'apprentissage automatique derrière ChatGPT et outils similaires, répondent à trois des indicateurs de « l'espace de travail mondial », mais n'ont pas la capacité cruciale de rediffusion mondiale. Ils ne satisfont pas non plus à la plupart des autres indicateurs.

Ainsi, malgré les capacités conversationnelles impressionnantes de ChatGPT, il n’y a probablement personne à l’intérieur. De même, d’autres architectures répondent au mieux à une poignée de critères.

La plupart des architectures actuelles ne répondent tout au plus qu’à quelques indicateurs. Cependant, pour la plupart des indicateurs, il existe au moins une architecture actuelle qui répond à ces critères.

Cela suggère qu’il n’existe pas d’obstacles techniques de principe évidents à la création de systèmes d’IA qui satisfont à la plupart ou à la totalité des indicateurs.

Il s'agit probablement de quand plutôt que si un tel système est construit. Bien entendu, de nombreuses questions resteront encore en suspens lorsque cela se produira.

Au-delà de la conscience humaine

Les théories scientifiques que nous étudions (et les auteurs de l'article !) ne sont pas toujours d'accord les unes avec les autres. Nous avons utilisé une liste d’indicateurs plutôt que des critères stricts pour reconnaître ce fait. Cela peut s’avérer une méthodologie puissante face à l’incertitude scientifique.

Nous avons été inspirés par des débats similaires sur la conscience animale. La plupart d’entre nous pensent qu’au moins certains animaux non humains sont conscients, même s’ils ne peuvent pas nous parler de ce qu’ils ressentent.

Un 2021 rapport de la London School of Economics, affirmant que les céphalopodes tels que les poulpes ressentent probablement la douleur a joué un rôle déterminant dans le changement de la politique britannique d’éthique animale. L’accent mis sur les caractéristiques structurelles a pour conséquence surprenante que même certains animaux simples, comme les insectes, pourraient même posséder une forme minimale de conscience.

Notre rapport ne fait pas de recommandations sur ce qu’il faut faire avec l’IA consciente. Cette question deviendra plus pressante à mesure que les systèmes d’IA deviendront inévitablement plus puissants et plus largement déployés.

Nos indicateurs ne seront pas le dernier mot, mais nous espérons qu’ils constitueront une première étape vers une approche scientifiquement fondée de cette question délicate.

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Pourquoi ChatGPT n'est pas conscient, mais les futurs systèmes d'IA pourraient l'être (12 septembre 2023) récupéré le 13 septembre 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top