
Lorsque le président Joe Biden a des questions sur l’intelligence artificielle, il se tourne vers son conseiller scientifique Arati Prabhakar, directeur du Bureau de la politique scientifique et technologique de la Maison Blanche.
Prabhakar contribue à orienter l’approche américaine en matière de sauvegarde de la technologie de l’IA, en s’appuyant en partie sur la coopération de grandes entreprises technologiques américaines comme Amazon, Google, Microsoft et Meta.
Cet ingénieur et physicien appliqué né en Inde et élevé au Texas aborde ce problème après une carrière de transition au sein du gouvernement - notamment à la tête de la branche de recherche en technologies avancées du ministère de la Défense - et dans le secteur privé en tant qu'ancien cadre et capital-risqueur de la Silicon Valley.
Elle s'est entretenue avec l'Associated Press plus tôt ce mois-ci avant un test des systèmes d'IA organisé par la Maison Blanche lors de la convention des hackers DefCon à Las Vegas. L'interview a été éditée pour des raisons de longueur et de clarté.
Q : Le président vient-il vous poser des questions sur l’IA ?
R : J'ai eu le grand privilège de discuter avec lui à plusieurs reprises de l'intelligence artificielle. Ce sont d’excellentes conversations, car il se concentre sur la compréhension de ce que c’est et de la façon dont les gens l’utilisent. Puis il aborde immédiatement les conséquences et les implications profondes. Ce furent de très bonnes conversations. Très exploratoire, mais aussi très axé sur l'action.
Q : Le chef de la majorité au Sénat, Chuck Schumer (qui milite en faveur d'une réglementation de l'IA), affirme que rendre les modèles d'IA explicables est une priorité. Est-ce réaliste ?
R : C'est une caractéristique technique de ces systèmes d'apprentissage profond et d'apprentissage automatique qu'ils sont opaques. Ce sont des boîtes noires par nature. Mais la plupart des risques auxquels nous sommes confrontés en tant qu’êtres humains proviennent de choses qui ne sont pas explicables. À titre d’exemple, je prends un médicament chaque jour. Même si je ne peux pas prédire exactement comment ils vont interagir avec les cellules de mon corps, nous avons trouvé des moyens de rendre les produits pharmaceutiques suffisamment sûrs. Pensez aux médicaments avant les essais cliniques. Vous pouvez vendre de la poudre ou du sirop et cela pourrait vous améliorer ou vous tuer. Mais lorsque nous avons mis en place des essais cliniques et un processus, nous avons commencé à disposer des moyens techniques nécessaires pour en savoir suffisamment pour commencer à exploiter la valeur des produits pharmaceutiques. C’est le voyage que nous devons entreprendre maintenant pour l’intelligence artificielle. Nous n'aurons pas de mesures parfaites, mais je pense que nous pouvons arriver au point où nous en saurons suffisamment sur la sécurité et l'efficacité de ces systèmes pour vraiment les utiliser et tirer la valeur qu'ils peuvent offrir.
Q : Quelles sont les applications spécifiques de l'IA qui vous préoccupent ?
R : Certaines des choses que nous voyons sont importantes et évidentes. Si vous brisez les garde-fous d'un chatbot, ce que les gens font régulièrement, et que vous l'amassez pour vous dire comment fabriquer une arme, eh bien, c'est clairement inquiétant. Certains préjudices sont beaucoup plus subtils. Lorsque ces systèmes sont formés à partir de données humaines, ils distillent parfois les biais contenus dans ces données. Il existe désormais un historique assez important et pénible d’utilisation inappropriée des systèmes de reconnaissance faciale qui ont conduit à des arrestations injustifiées de Noirs. Et puis les problèmes de confidentialité. Toutes nos données qui existent dans le monde, chaque élément individuel ne révèle peut-être pas grand-chose sur nous, mais lorsque vous les rassemblez, cela vous en dit beaucoup sur chacun de nous.
Q : Sept entreprises (dont Google, Microsoft et OpenAI, créateur de ChatGPT) ont accepté en juillet de respecter les normes volontaires de sécurité de l'IA fixées par la Maison Blanche. Certains de ces engagements ont-ils été plus difficiles à obtenir ? Où est la friction ?
R : Je tiens tout d’abord à reconnaître à quel point nous avons de la chance qu’un si grand nombre d’entreprises qui pilotent aujourd’hui la technologie de l’IA soient des entreprises américaines. Cela reflète une longue histoire de valorisation de l’innovation dans ce pays. C'est un énorme avantage. Nous devons également être très clairs sur le fait que, malgré toutes les bonnes intentions du monde, les réalités de l’activité sur le marché constituent, par définition, une contrainte sur la mesure dans laquelle ces entreprises individuelles peuvent aller. Nous espérons que beaucoup d’autres les rejoindront et que les engagements volontaires se développeront. Nous devons simplement être clairs : ce n’est qu’une partie du problème. Cela signifie que les entreprises assument leurs responsabilités. Mais nous, au gouvernement, devons intensifier nos efforts, tant au niveau du pouvoir exécutif que du pouvoir législatif.
Q : Avez-vous un calendrier pour les actions futures (comme un décret prévu pour Biden) ? Comprendra-t-il des mesures de responsabilité exécutoires pour les développeurs d’IA ?
R : De nombreuses mesures sont à l’étude. Je n'ai pas de calendrier pour vous. Je dirai juste vite. Et cela vient directement d’en haut. Le président a clairement indiqué qu’il s’agissait d’une question urgente.
© 2023 La Presse associée. Tous droits réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.
Citation: Le conseiller scientifique de la Maison Blanche appelle à davantage de garanties contre les risques liés à l'intelligence artificielle (21 août 2023) récupéré le 27 août 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Source