Comment un robot devrait-il explorer la lune ? Une question simple montre les limites des systèmes d’IA actuels
Comment un robot devrait-il explorer la lune ? Une question simple montre les limites des systèmes d’IA actuels

Comment un robot devrait-il explorer la lune ?  Une question simple montre les limites des systèmes d'IA actuels
Crédit : Université de l'Alberta

Les progrès rapides de l'intelligence artificielle (IA) ont incité certaines voix de premier plan dans le domaine à appel à une pause de recherchesoulève la possibilité de Extinction humaine basée sur l'IAet même demander une réglementation gouvernementale. Au cœur de leur préoccupation se trouve l'idée que l'IA pourrait devenir si puissante que nous en perdrions le contrôle.

Mais avons-nous oublié un problème plus fondamental ?

En fin de compte, les systèmes d'IA devraient aider les humains à prendre de meilleures décisions plus précises. Pourtant, même les outils d'intelligence artificielle les plus impressionnants et les plus flexibles d'aujourd'hui, tels que les grands modèles de langage derrière ChatGPT, peuvent avoir l'effet inverse.

Pourquoi? Ils ont deux faiblesses cruciales. Ils n'aident pas les décideurs à comprendre la causalité ou l'incertitude. Et ils créent des incitations à collecter d'énormes quantités de données et peuvent encourager une attitude laxiste vis-à-vis de la vie privée, des questions juridiques et éthiques et des risques.

Cause, effet et confiance

ChatGPT et d'autres "modèles de base" utilisent une approche appelée apprentissage en profondeur pour parcourir d'énormes ensembles de données et identifier les associations entre les facteurs contenus dans ces données, tels que les modèles de langage ou les liens entre les images et les descriptions. Par conséquent, ils sont excellents pour interpoler, c'est-à-dire prédire ou combler les écarts entre les valeurs connues.

L'interpolation n'est pas la même chose que la création. Il ne génère pas de connaissances, ni les connaissances nécessaires aux décideurs opérant dans des environnements complexes.

Cependant, ces approches nécessitent d'énormes quantités de données. En conséquence, ils encouragent les organisations à constituer d'énormes référentiels de données ou à parcourir des ensembles de données existants collectés à d'autres fins. La gestion des « mégadonnées » comporte des risques considérables en matière de sécurité, de confidentialité, de légalité et d'éthique.

Dans les situations à faible enjeu, les prédictions basées sur « ce que les données suggèrent qu'il va se passer » peuvent être extrêmement utiles. Mais lorsque les enjeux sont plus importants, il y a deux autres questions auxquelles nous devons répondre.

Le premier concerne le fonctionnement du monde : "qu'est-ce qui motive ce résultat ?" La seconde porte sur notre connaissance du monde : "comment sommes-nous confiants à ce sujet ?"

Du big data à l'information utile

De manière peut-être surprenante, les systèmes d'IA conçus pour déduire des relations causales n'ont pas besoin de "big data". Au lieu de cela, ils ont besoin informations utiles. L'utilité de l'information dépend de la question à l'étude, des décisions auxquelles nous sommes confrontés et de la valeur que nous attachons aux conséquences de ces décisions.

Pour paraphraser le statisticien et écrivain américain Nate Silver, le quantité de vérité est à peu près constante quel que soit le volume de données que nous collectons.

Alors, quelle est la solution? Le processus commence par le développement de techniques d'IA qui nous disent ce que nous ne savons vraiment pas, plutôt que de produire des variations des connaissances existantes.

Pourquoi? Parce que cela nous aide à identifier et à acquérir le minimum d'informations précieuses, dans une séquence qui nous permettra de démêler les causes et les effets.

Un robot sur la lune

De tels systèmes d'IA de renforcement des connaissances existent déjà.

À titre d'exemple simple, considérons un robot envoyé sur la lune pour répondre à la question « À quoi ressemble la surface de la lune ?

Les concepteurs du robot peuvent lui donner une "croyance" préalable sur ce qu'il trouvera, ainsi qu'une indication de la "confiance" qu'il devrait avoir dans cette croyance. Le degré de confiance est aussi important que la croyance, car c'est une mesure de ce que le robot ne sait pas.

Le robot atterrit et fait face à une décision : dans quelle direction doit-il aller ?

Puisque le but du robot est d'apprendre le plus rapidement possible sur la surface de la lune, il doit aller dans la direction qui maximise son apprentissage. Cela peut être mesuré par quelles nouvelles connaissances réduiront l'incertitude du robot sur le paysage ou dans quelle mesure cela augmentera la confiance du robot dans ses connaissances.

Le robot se rend à son nouvel emplacement, enregistre des observations à l'aide de ses capteurs et met à jour sa croyance et la confiance associée. Ce faisant, il apprend la surface de la lune de la manière la plus efficace possible.

Des systèmes robotiques comme celui-ci - connus sous le nom de " SLAM actif " (Active Simultaneous Localization and Mapping) - ont été proposés pour la première fois il y a plus de 20 anset ils sont toujours un domaine de recherche actif. Cette approche consistant à rassembler régulièrement des connaissances et à mettre à jour la compréhension est basée sur une technique statistique appelée Optimisation bayésienne.

Cartographier des paysages inconnus

Un décideur au sein du gouvernement ou de l'industrie fait face à plus de complexité que le robot sur la lune, mais la pensée est la même. Leur travail consiste à explorer et à cartographier des paysages sociaux ou économiques inconnus.

Supposons que nous souhaitions élaborer des politiques pour encourager tous les enfants à s'épanouir à l'école et à terminer leurs études secondaires. Nous avons besoin d'une carte conceptuelle des actions, à quel moment et dans quelles conditions, qui aideront à atteindre ces objectifs.

En utilisant les principes du robot, nous formulons une première question : "Quelle(s) intervention(s) aidera(nt) le plus les enfants ?"

Ensuite, nous construisons une ébauche de carte conceptuelle en utilisant les connaissances existantes. Nous avons également besoin d'une mesure de notre confiance dans ces connaissances.

Ensuite, nous développons un modèle qui intègre différentes sources d'information. Celles-ci ne proviendront pas de capteurs robotiques, mais de communautés, d'expériences vécues et de toute information utile provenant de données enregistrées.

Après cela, sur la base de l'analyse informant les préférences de la communauté et des parties prenantes, nous prenons une décision : "Quelles actions doivent être mises en œuvre et dans quelles conditions ?"

Enfin, nous discutons, apprenons, mettons à jour nos croyances et répétons le processus.

Apprendre au fur et à mesure

Il s'agit d'une approche "apprendre au fur et à mesure". Au fur et à mesure que de nouvelles informations arrivent, de nouvelles actions sont choisies pour maximiser certains critères prédéfinis.

Là où l'IA peut être utile, c'est pour identifier les informations les plus précieuses, via des algorithmes qui quantifient ce que nous ne savons pas. Les systèmes automatisés peuvent également collecter et stocker ces informations à un rythme et dans des endroits où cela peut être difficile pour les humains.

Les systèmes d'IA comme celui-ci appliquent ce qu'on appelle un Cadre théorique de décision bayésien. Leurs modèles sont explicables et transparents, construits sur des hypothèses explicites. Ils sont mathématiquement rigoureux et peuvent offrir des garanties.

Ils sont conçus pour estimer les voies causales, pour aider à faire la meilleure intervention au meilleur moment. Et ils intègrent des valeurs humaines en étant co-conçus et co-mis en œuvre par les communautés impactées.

Nous devons réformer nos lois et créer de nouvelles règles pour guider l'utilisation de systèmes d'IA potentiellement dangereux. Mais il est tout aussi important de choisir le bon outil pour le travail en premier lieu.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: Comment un robot devrait-il explorer la lune ? Une question simple montre les limites des systèmes d'IA actuels (2023, 28 juin) récupéré le 2 juillet 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top