La presse populaire et les consommateurs sont trop indulgents avec ChatGPT, déclare Anton Dahbura, expert en cybersécurité et en intelligence artificielle de l'Université Johns Hopkins. Selon lui, le manque de fiabilité de ces grands modèles linguistiques, ou LLM, et leur production de contenus fabriqués et biaisés constituent une menace réelle et croissante pour la société.
"L'industrie gagne beaucoup d'argent avec des produits dont elle sait qu'ils sont utilisés de manière inappropriée, à grande échelle", déclare Dahbura, directeur de l'Institut de sécurité de l'information de Johns Hopkins et codirecteur de l'Institute for Assured Autonomy. "Les 'hallucinations' de ChatGPT [the system's tendency to sometimes generate senseless content] seraient appelées "défaillances" si elles se produisaient dans d'autres produits de consommation - par exemple, si l'accélérateur de ma voiture avait une "hallucination" et me renversait contre un mur de briques."
De meilleures données, la responsabilité des entreprises et l'éducation des utilisateurs sur ce qu'est l'IA et ses limites peuvent aider à atténuer les risques, dit Dahbura, "mais ils ne feront jamais disparaître complètement le problème à moins que le problème ne soit si simple que l'IA n'aurait pas dû l'être. utilisé pour le résoudre en premier lieu."
Le Hub s'est entretenu avec Dahbura pour discuter des raisons de l'incertitude dans les grands modèles de langage, du rôle qu'il pense que l'industrie et le gouvernement devraient jouer dans l'éducation des consommateurs sur l'IA et ses risques, et les menaces que ces nouvelles technologies pourraient représenter pour la société.
Vous avez qualifié ChatGPT et d'autres grands modèles linguistiques de "version moderne du Magic 8 Ball". Expliquer.
L'intelligence artificielle est une large classe d'approches pour résoudre des problèmes difficiles qui n'ont pas de solutions faciles ou "basées sur des règles". Un thermostat est une réponse à un problème simple : lorsque la température dépasse un certain seuil, il enclenche la climatisation, et lorsqu'il descend en dessous de ce seuil, il enclenche le chauffage.
Mais parfois, les questions n'ont pas de réponses claires que seules des règles simples peuvent résoudre. Par exemple, lors de la formation de l'IA pour différencier les images de chiens et de chats, les facteurs que le système d'IA utilise pour sa classification sont extrêmement complexes et rarement bien compris. Par conséquent, il est difficile de pouvoir donner des garanties sur la façon dont le système répondra à une image d'un chien ou d'un chat sur lequel il n'a pas été dressé, et encore moins à une image d'une orange. Il peut même ne pas répondre de manière prévisible à une image sur laquelle il a été entraîné !
J'ai appelé cette propriété inhérente et inextricable des systèmes d'IA le "principe d'incertitude de l'IA" parce que la complexité des problèmes d'IA signifie que la certitude et l'IA ne peuvent coexister que si la solution est si simple qu'elle ne nécessite pas d'IA, ou basée sur des règles garde-fous conçus pour tempérer la nature imprévisible du système d'IA.
Ce que je dis, c'est qu'il n'est pas possible de former ces technologies sur chaque scénario, vous ne pouvez donc pas prédire avec précision le résultat de leur utilisation à chaque fois. C'est la même chose avec le Magic 8 Ball : la réponse n'est peut-être pas celle que vous attendez.
Vous qualifiez les entreprises d'irresponsables pour avoir omis d'avertir les gens du potentiel d'"hallucination" des LLM. Pourriez-vous partager un exemple de ce que vous entendez par hallucination ?
Les hallucinations font référence à des réponses qui contiennent des informations incorrectes ou imaginaires. Il existe une gamme d'hallucinations qui pourraient avoir un impact sur les technologies, y compris certaines qui sont relativement inoffensives, comme un LLM disant à un groupe d'élèves du primaire qu'il y a 13 planètes dans le système solaire. Ces informations sont faciles à vérifier à l'aide d'une recherche rapide sur Google, mais d'autres détails ou déclarations plus obscurs générés par ChatGPT pourraient avoir des impacts plus néfastes. Un exemple est l'utilisation de l'IA pour détecter le cancer sur la base de rayons X ou de scanners. Une hallucination peut détecter un cancer qui n'existe pas, ou simplement ne pas détecter un cancer qui apparaît sur le scanner. L'un ou l'autre de ces scénarios pourrait évidemment être préjudiciable.
Que vous posiez une question à un LLM ou que vous l'utilisiez pour interpréter une image, ou qu'elle soit intégrée dans une voiture dans laquelle vous dévalez l'autoroute à 65 miles par heure, vous la présentez avec des entrées et elle génère des sorties. Parfois ça va aller, mais parfois ça ne va pas. Lorsque vous jouez avec une Magic 8 Ball, la réponse n'a pas d'importance. Mais dans certains scénarios de la vie réelle, c'est tout à fait le cas.
Dites-nous en plus sur votre recommandation selon laquelle les entreprises et le gouvernement fédéral devraient sensibiliser les utilisateurs et les consommateurs à la composante dite «Magic 8 Ball» des LLM.
Les consommateurs doivent être pleinement informés des capacités et des risques associés à ChatGPT et aux autres LLM. Nous parlons de problèmes graves comme les entreprises automobiles autonomes qui utilisent les routes publiques comme terrains d'essais en laboratoire pour ces technologies. Les conducteurs doivent être conscients que ces véhicules occupent les mêmes routes qu'eux.
Je pense qu'il y a aussi des attentes que oui, ces choses fonctionnent mal, mais elles sont en train d'être réparées et une fois que cela se produira, tous ces problèmes disparaîtront. Mais il y aura toujours des problèmes. Les hallucinations ne feront pas partie du passé de si tôt.
Cela dit, les problèmes avec ChatGPT et d'autres modèles similaires s'amélioreront car les entreprises et les organisations développant ces technologies construisent rapidement des garde-fous. Pourtant, il appartient aux utilisateurs de rester sceptiques. Exploiter l'IA va être difficile, et nous ne voulons pas que les choses empirent avant qu'elles ne s'améliorent.
Citation: Q&A : Les grands modèles linguistiques sont-ils le Magic 8 Ball des temps modernes ? (2023, 17 juillet) récupéré le 17 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source