L’exécutif déclare à la première réunion du conseil de l’ONU qu’on ne peut pas faire confiance aux grandes technologies pour garantir la sécurité de l’IA
L’exécutif déclare à la première réunion du conseil de l’ONU qu’on ne peut pas faire confiance aux grandes technologies pour garantir la sécurité de l’IA

par Edith M. Lederer

L'exécutif déclare à la première réunion du conseil de l'ONU qu'on ne peut pas faire confiance aux grandes technologies pour garantir la sécurité de l'IA
Sur cette photo fournie par United Nations Photo, Jack Clark présenté à l'écran, co-fondateur d'Anthropic, informe la toute première réunion du Conseil de sécurité sur l'intelligence artificielle (IA), le mardi 18 juillet 2023, au siège de l'ONU. Cette rencontre, convoquée par le Royaume-Uni, porte sur le thème « L'intelligence artificielle : opportunités et risques pour la paix et la sécurité internationales ». Le Secrétaire général a prononcé une allocution au cours du débat en déclarant : "J'exhorte le Conseil à aborder cette technologie avec un sentiment d'urgence, une vision globale et un état d'esprit d'apprenant." Crédit : Eskinder Debebe/Photo ONU via AP

On ne peut pas faire confiance à la poignée de grandes entreprises technologiques qui mènent la course à la commercialisation de l'IA pour garantir la sécurité des systèmes que nous ne comprenons pas encore et qui sont sujets à "un comportement chaotique ou imprévisible", a déclaré un dirigeant d'une société d'intelligence artificielle à la première ONU. Réunion du Conseil de sécurité sur les menaces d'IA à la paix mondiale mardi.

Jack Clark, co-fondateur de la société d'intelligence artificielle Anthropic, a déclaré que c'est pourquoi le monde doit s'unir pour empêcher l'utilisation abusive de la technologie.

Clark, qui dit que son entreprise se plie en quatre pour former son chatbot IA à mettre l'accent sur la sécurité et la prudence, a déclaré que les choses les plus utiles qui peuvent être faites maintenant "sont de travailler sur le développement de moyens de tester les capacités, les abus et les failles de sécurité potentielles de ces systèmes ." Clark a quitté OpenAI, créateur du chatbot ChatGPT le plus connu, pour former Anthropic, dont le produit d'IA concurrent s'appelle Claude.

Il a retracé la croissance de l'IA au cours de la dernière décennie jusqu'en 2023, où de nouveaux systèmes d'IA peuvent battre les pilotes militaires dans des simulations de combat aérien, stabiliser le plasma dans les réacteurs à fusion nucléaire, concevoir des composants pour les semi-conducteurs de nouvelle génération et inspecter les marchandises sur les lignes de production.

Mais si l'IA apportera d'énormes avantages, sa compréhension de la biologie, par exemple, peut également utiliser un système d'IA capable de produire des armes biologiques, a-t-il déclaré.

Clark a également mis en garde contre les "menaces potentielles pour la paix, la sécurité et la stabilité mondiales" de deux qualités essentielles des systèmes d'IA - leur potentiel d'utilisation abusive et leur imprévisibilité "ainsi que la fragilité inhérente à leur développement par un ensemble aussi restreint d'acteurs. "

Clark a souligné qu'à travers le monde, ce sont les entreprises technologiques qui disposent d'ordinateurs sophistiqués, de grands pools de données et de capitaux pour construire des systèmes d'IA et qu'elles semblent donc susceptibles de continuer à définir leur développement.

Dans un briefing vidéo à l'organe le plus puissant de l'ONU, Clark a également exprimé l'espoir que l'action mondiale réussira.

Il s'est dit encouragé de voir de nombreux pays souligner l'importance des tests et de l'évaluation de la sécurité dans leurs propositions d'IA, notamment l'Union européenne, la Chine et les États-Unis.

À l'heure actuelle, cependant, il n'y a pas de normes ou même de meilleures pratiques sur "comment tester ces systèmes frontaliers pour des choses comme la discrimination, l'abus ou la sécurité", ce qui rend difficile pour les gouvernements de créer des politiques et permet au secteur privé de bénéficier d'un avantage en matière d'information, il a dit.

"Toute approche sensée de la réglementation commencera par avoir la capacité d'évaluer un système d'IA pour une capacité ou un défaut donné", a déclaré Clark. "Et toute approche ratée commencera par de grandes idées politiques qui ne sont pas soutenues par des mesures et des évaluations efficaces."

Avec une évaluation solide et fiable des systèmes d'IA, a-t-il déclaré, "les gouvernements peuvent tenir les entreprises responsables et les entreprises peuvent gagner la confiance du monde dans lequel elles souhaitent déployer leurs systèmes d'IA". Mais s'il n'y a pas d'évaluation solide, a-t-il dit, "nous courons le risque d'une capture réglementaire compromettant la sécurité mondiale et cédant l'avenir à un ensemble restreint d'acteurs du secteur privé".

L'exécutif déclare à la première réunion du conseil de l'ONU qu'on ne peut pas faire confiance aux grandes technologies pour garantir la sécurité de l'IA
Sur cette photo fournie par United Nations Photo, une vue large de la toute première réunion du Conseil de sécurité sur l'intelligence artificielle (IA) qui s'est tenue le mardi 18 juillet 2023 au siège de l'ONU. Cette rencontre, convoquée par le Royaume-Uni, porte sur le thème « L'intelligence artificielle : opportunités et risques pour la paix et la sécurité internationales ». Le Secrétaire général a prononcé une allocution au cours du débat en déclarant : "J'exhorte le Conseil à aborder cette technologie avec un sentiment d'urgence, une vision globale et un état d'esprit d'apprenant." Crédit : Eskinder Debebe/Photo ONU via AP

D'autres dirigeants de l'IA tels que le PDG d'OpenAI, Sam Altman, ont également appelé à une réglementation. Mais les sceptiques disent que la réglementation pourrait être une aubaine pour les pionniers aux poches profondes dirigés par OpenAI, Google et Microsoft, car les petits acteurs sont évincés par le coût élevé de l'adhésion de leurs grands modèles linguistiques aux restrictions réglementaires.

Le secrétaire général de l'ONU, Antonio Guterres, a déclaré que l'ONU est "l'endroit idéal" pour adopter des normes mondiales afin de maximiser les avantages de l'IA et d'atténuer ses risques.

Il a averti le conseil que l'avènement de l'IA générative pourrait avoir des conséquences très graves pour la paix et la sécurité internationales, soulignant son utilisation potentielle par des terroristes, des criminels et des gouvernements causant « des niveaux horribles de mort et de destruction, des traumatismes généralisés et des dommages psychologiques profonds sur un échelle inimaginable."

Comme première étape pour rapprocher les nations, Guterres a déclaré qu'il nommait un conseil consultatif de haut niveau pour l'intelligence artificielle qui fera rapport sur les options pour la gouvernance mondiale de l'IA d'ici la fin de l'année.

Le chef de l'ONU a également déclaré qu'il se félicitait des appels de certains pays à la création d'un nouvel organe des Nations Unies pour soutenir les efforts mondiaux de gouvernance de l'IA, "inspiré par des modèles tels que l'Agence internationale de l'énergie atomique, l'Organisation de l'aviation civile internationale ou le Groupe d'experts intergouvernemental". sur le changement climatique."

Le professeur Zeng Yi, directeur du laboratoire d'intelligence cognitive inspiré par le cerveau de l'Académie chinoise des sciences, a déclaré au conseil que "les Nations Unies doivent jouer un rôle central pour mettre en place un cadre sur l'IA pour le développement et la gouvernance afin d'assurer la paix et la sécurité mondiales".

Zeng, qui codirige également le Centre de recherche sino-britannique sur l'éthique et la gouvernance de l'IA, a suggéré que le Conseil de sécurité envisage de créer un groupe de travail pour examiner les défis à court et à long terme que l'IA pose à la paix et à la sécurité internationales.

Dans son briefing vidéo, Zeng a souligné que les récents systèmes d'IA générative "sont tous des outils de traitement de l'information qui semblent être intelligents" mais qui n'ont pas une réelle compréhension, et donc "ne sont pas vraiment intelligents".

Et il a averti que "l'IA ne devrait jamais, jamais prétendre être humaine", insistant sur le fait que les vrais humains doivent garder le contrôle, en particulier sur tous les systèmes d'armes.

Le ministre britannique des Affaires étrangères, James Cleverly, qui a présidé la réunion alors que le Royaume-Uni assure la présidence du Conseil ce mois-ci, a déclaré que cet automne, le Royaume-Uni réunirait les dirigeants mondiaux pour le premier grand sommet mondial sur la sécurité de l'IA.

"Aucun pays ne sera épargné par l'IA, nous devons donc impliquer et engager la plus large coalition d'acteurs internationaux de tous les secteurs", a-t-il déclaré. "Notre objectif commun sera d'examiner les risques de l'IA et de décider comment ils peuvent être réduits grâce à une action coordonnée."

© 2023 L'Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué sans autorisation.

Citation: Exec dit à la première réunion du conseil de l'ONU qu'on ne peut pas faire confiance aux grandes technologies pour garantir la sécurité de l'IA (2023, 19 juillet) récupéré le 19 juillet 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top