Les géants de la technologie forment un groupe d’IA axé sur la sécurité
Les géants de la technologie forment un groupe d’IA axé sur la sécurité

Le développement de l'intelligence artificielle s'accompagne de craintes que les risques de la technologie l'emportent sur ses avantages
Le développement de l'intelligence artificielle s'accompagne de craintes que les risques de la technologie ne l'emportent sur ses avantages.

Quatre leaders américains de l'intelligence artificielle (IA) ont annoncé mercredi la formation d'un groupe industriel consacré à la gestion des risques que les versions de pointe de la technologie peuvent poser.

Anthropic, Google, Microsoft et le fabricant de ChatGPT, OpenAI, ont déclaré que le nouveau Frontier Model Forum s'appuiera sur l'expertise de ses membres pour minimiser les risques liés à l'IA et soutenir les normes de l'industrie.

Les entreprises se sont engagées à partager les meilleures pratiques entre elles, les législateurs et les chercheurs.

Les modèles "Frontier" font référence à des plates-formes d'apprentissage automatique naissantes à grande échelle qui amènent l'IA à de nouveaux niveaux de sophistication - et ont également des capacités qui pourraient être dangereuses.

"Les entreprises qui créent la technologie de l'IA ont la responsabilité de s'assurer qu'elle est sûre, sécurisée et reste sous contrôle humain", a déclaré le président de Microsoft, Brad Smith, dans un communiqué.

"Cette initiative est une étape essentielle pour rassembler le secteur de la technologie afin de faire progresser l'IA de manière responsable et de relever les défis afin qu'elle profite à toute l'humanité."

Le président américain Joe Biden a évoqué les risques et les promesses "énormes" de l'IA lors d'une réunion à la Maison Blanche la semaine dernière avec des dirigeants de la technologie qui se sont engagés à se prémunir contre tout, des cyberattaques à la fraude, à mesure que le secteur se développe.

Aux côtés des meilleurs représentants d'Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI, Biden a déclaré que les entreprises s'étaient engagées à "guider l'innovation responsable" alors que l'IA se répand de plus en plus profondément dans la vie personnelle et professionnelle.

Avant la réunion, les sept géants de l'IA se sont engagés à une série de garanties autorégulées qui, selon la Maison Blanche, "souligneraient trois principes qui doivent être fondamentaux pour l'avenir de l'IA : sûreté, sécurité et confiance".

Dans leur engagement, les entreprises ont convenu de développer des "mécanismes techniques robustes", tels que des systèmes de filigrane, pour s'assurer que les utilisateurs savent quand le contenu provient de l'IA et non des humains.

Les principaux objectifs du Frontier Model Forum incluent la minimisation des risques et la possibilité d'évaluations indépendantes de la sécurité des plates-formes d'IA, ont déclaré les entreprises impliquées dans un communiqué.

Le Forum soutiendra également le développement d'applications destinées à relever des défis tels que le changement climatique, la prévention du cancer et les cybermenaces, selon ses créateurs.

D'autres poursuivant des percées en matière d'IA ont été invités à rejoindre le groupe.

« Les technologies d'IA avancées ont le potentiel de bénéficier profondément à la société, et la capacité d'atteindre ce potentiel nécessite une surveillance et une gouvernance », a déclaré la vice-présidente des affaires mondiales d'OpenAI, Anna Makanju.

"Il est essentiel que les entreprises d'IA, en particulier celles qui travaillent sur les modèles les plus puissants, s'alignent sur un terrain d'entente et fassent progresser des pratiques de sécurité réfléchies et adaptables."

© 2023 AFP

Citation: Les géants de la technologie forment un groupe d'IA axé sur la sécurité (2023, 26 juillet) récupéré le 31 juillet 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top