Alors que les systèmes d'intelligence artificielle (IA) de plus en plus performants se généralisent, la question des risques qu'ils peuvent poser revêt une nouvelle urgence. Les gouvernements, les chercheurs et les développeurs ont mis l'accent sur la sécurité de l'IA.
L'UE avance Réglementation IAle Royaume-Uni organise une Sommet sur la sécurité de l'IAet l'Australie est en cherchant saisir sur le soutien à une IA sûre et responsable.
La vague d'intérêt actuelle est l'occasion d'aborder des problèmes concrets de sécurité liés à l'IA, tels que les préjugés, les abus et l'exploitation au travail. Mais beaucoup dans la Silicon Valley voient la sécurité à travers le prisme spéculatif de «l'alignement de l'IA», qui passe à côté des dommages très réels que les systèmes d'IA actuels peuvent causer à la société - et le manières pragmatiques nous pouvons les aborder.
Qu'est-ce que "l'alignement de l'IA" ?
"Alignement de l'IA" consiste à essayer de s'assurer que le comportement des systèmes d'IA correspond à ce que nous vouloir et ce que nous attendre. La recherche sur l'alignement a tendance à se concentrer sur de futurs systèmes d'IA hypothétiques, plus avancés que la technologie actuelle.
C'est un problème difficile parce qu'il est difficile de prédire comment la technologie se développera, et aussi parce que les humains ne sont pas très doués pour savoir ce que nous voulons ou pour nous mettre d'accord à ce sujet.
Néanmoins, les recherches sur l'alignement ne manquent pas. Il existe une multitude de propositions techniques et philosophiques aux noms ésotériques tels que "apprentissage coopératif par renforcement inverse" et "amplification itérée".
Il existe deux grandes écoles de pensée. Dans l'alignement "descendant", les concepteurs spécifient explicitement les valeurs et les principes éthiques que l'IA doit suivre (pensez à l'Asimov trois lois de la robotique), tandis que les efforts "ascendants" tentent de désosser les valeurs humaines à partir des données, puis de construire des systèmes d'IA alignés sur ces valeurs. Il y a bien sûr des difficultés à définir les "valeurs humaines", à décider qui choisit quelles valeurs sont importantes et à déterminer ce qui se passe lorsque les humains ne sont pas d'accord.
OpenAI, la société à l'origine du chatbot ChatGPT et du générateur d'images DALL-E, entre autres produits, a récemment présenté ses plans pour "superalignement". Ce plan vise à éviter les questions délicates et à aligner une future IA superintelligente en construisant d'abord une IA purement humaine pour aider à la recherche d'alignement.
Mais pour ce faire, ils doivent d'abord aligner l'IA de recherche d'alignement…
Pourquoi l'alignement est-il censé être si important ?
Les partisans de l'approche d'alignement de la sécurité de l'IA affirment que le fait de ne pas "résoudre" l'alignement de l'IA pourrait entraîner d'énormes risques, jusqu'à et y compris le disparition de l'humanité.
La croyance en ces risques découle en grande partie de l'idée que "l'intelligence générale artificielle" (AGI) - en gros, un système d'IA qui peut faire tout ce qu'un humain peut faire - pourrait être développée dans un avenir proche, et pourrait ensuite continuer à s'améliorer sans intervention humaine. . Dans ce récitl'IA super-intelligente pourrait alors anéantir la race humaine, soit intentionnellement, soit comme effet secondaire d'un autre projet.
De la même manière, la simple possibilité du ciel et de l'enfer a suffi à convaincre le philosophe Blaise Pascal de croire en Dieula possibilité de futurs super-AGI suffit à convaincre certains groupes nous devrions consacrer tous nos efforts à "résoudre" l'alignement de l'IA.
Il y a beaucoup de philosophique pièges avec ce genre de raisonnement. C'est aussi très difficile pour faire prédictions sur la technologie.
Même en laissant ces préoccupations de côté, l'alignement (et encore moins le "superalignement") est une façon limitée et inadéquate de penser à la sécurité et aux systèmes d'IA.
Trois problèmes avec l'alignement de l'IA
D'abord, le concept d'"alignement" n'est pas bien défini. Recherche d'alignement vise généralement des objectifs vagues comme construire des systèmes "prouvablement bénéfiques" ou "empêcher l'extinction humaine".
Mais ces objectifs sont assez étroits. Une IA super-intelligente pourrait les rencontrer et faire encore un mal immense.
Plus important, La sécurité de l'IA ne se limite pas aux machines et aux logiciels. Comme toute technologie, l'IA est à la fois technique et sociale.
Rendre l'IA sûre impliquera de s'attaquer à toute une série de problèmes, notamment l'économie politique du développement de l'IA, les pratiques de travail abusives, les problèmes de données détournées et les impacts écologiques. Nous devons également être honnêtes quant aux utilisations probables de l'IA avancée (telles que la surveillance autoritaire omniprésente et la manipulation sociale) et qui en bénéficiera en cours de route (entreprises technologiques bien implantées).
Enfin, traiter l'alignement de l'IA comme un problème technique place le pouvoir au mauvais endroit. Les technologues ne devraient pas être ceux qui décident quels risques et quelles valeurs comptent.
Les règles régissant les systèmes d'IA devraient être déterminées par le débat public et les institutions démocratiques.
OpenAI fait des efforts à cet égard, comme la consultation d'utilisateurs dans différents domaines de travail lors de la conception de ChatGPT. Cependant, nous devons nous méfier des efforts visant à "résoudre" la sécurité de l'IA en recueillant simplement les commentaires d'un groupe plus large de personnes, sans laisser d'espace pour aborder des questions plus importantes.
Un autre problème est le manque de diversité - idéologique et démographique - parmi les chercheurs en alignement. Beaucoup ont des liens avec des groupes de la Silicon Valley tels que altruistes efficaces et rationalisteset il y a un manque de représentation de femmes et d'autres groupes de personnes marginalisées qui ont historiquement les moteurs du progrès comprendre les dommages que la technologie peut causer.
Si ce n'est pas l'alignement, alors quoi?
Les impacts de la technologie sur la société ne peuvent pas être traités en utilisant uniquement la technologie.
L'idée de "l'alignement de l'IA" positionne les entreprises d'IA comme des gardiens protégeant les utilisateurs contre l'IA voyou, plutôt que comme les développeurs de systèmes d'IA qui pourraient bien causer des dommages. Bien que l'IA sûre soit certainement un bon objectif, l'aborder en se concentrant étroitement sur «l'alignement» ignore trop de dommages pressants et potentiels.
Alors, quelle est la meilleure façon de penser à la sécurité de l'IA ? En tant que problème social et technique à résoudre en premier lieu en reconnaissant et en traitant les préjudices existants.
Cela ne veut pas dire que la recherche sur l'alignement ne sera pas utile, mais le cadrage n'est pas utile. Et des schémas insensés comme le « superalignement » d'OpenAI reviennent à donner un coup de pied à la boîte méta-éthique d'un bloc sur la route, et à espérer que nous ne trébucherons pas dessus plus tard.
Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.
Citation: Qu'est-ce que "l'alignement de l'IA" ? La façon préférée de la Silicon Valley de penser à la sécurité de l'IA passe à côté des vrais problèmes (2023, 13 juillet) récupéré le 16 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source