L’administration Biden-Harris a annoncé qu'il a obtenu une deuxième série d'engagements volontaires en matière de sécurité de la part de huit grandes sociétés d'IA.
Des représentants d'Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability étaient présents à la Maison Blanche pour l'annonce. Ces huit entreprises se sont engagées à jouer un rôle central dans la promotion du développement d’une IA sûre, sécurisée et digne de confiance.
L’administration Biden-Harris travaille activement sur un décret et poursuit une législation bipartite pour garantir que les États-Unis montrent la voie en matière de développement responsable de l’IA qui libère son potentiel tout en gérant ses risques.
Les engagements pris par ces entreprises s'articulent autour de trois principes fondamentaux : la sûreté, la sécurité et la confiance. Ils se sont engagés à :
- Assurez-vous que les produits sont sûrs avant leur introduction :
Les entreprises s’engagent à effectuer des tests de sécurité internes et externes rigoureux de leurs systèmes d’IA avant de les rendre publics. Cela comprend des évaluations réalisées par des experts indépendants, contribuant à se prémunir contre les risques importants liés à l’IA tels que la biosécurité, la cybersécurité et les effets sociétaux plus larges.
Ils partageront également activement des informations sur la gestion des risques liés à l’IA avec les gouvernements, la société civile, le monde universitaire et l’ensemble du secteur. Cette approche collaborative comprendra le partage des meilleures pratiques en matière de sécurité, des informations sur les tentatives de contournement des garanties et la coopération technique.
- Construisez des systèmes avec la sécurité comme priorité absolue :
Les sociétés se sont engagées à investir dans la cybersécurité et dans les mesures de protection contre les menaces internes afin de protéger les pondérations des modèles propriétaires et inédits. Reconnaissant l’importance cruciale de ces pondérations de modèle dans les systèmes d’IA, ils s’engagent à les publier uniquement lorsque cela est prévu et lorsque les risques de sécurité sont correctement pris en compte.
De plus, les sociétés faciliteront la découverte et le reporting par des tiers des vulnérabilités de leurs systèmes d'IA. Cette approche proactive garantit que les problèmes peuvent être identifiés et résolus rapidement, même après le déploiement d'un système d'IA.
- Gagnez la confiance du public :
Pour améliorer la transparence et la responsabilité, les entreprises développeront des mécanismes techniques robustes – tels que des systèmes de filigrane – pour indiquer quand le contenu est généré par l’IA. Cette étape vise à favoriser la créativité et la productivité tout en réduisant les risques de fraude et de tromperie.
Ils rendront également compte publiquement des capacités, des limites et des domaines d'utilisation appropriée et inappropriée de leurs systèmes d'IA, couvrant à la fois les risques de sécurité et les risques sociétaux, y compris l'équité et les préjugés. En outre, ces entreprises s’engagent à donner la priorité à la recherche sur les risques sociétaux posés par les systèmes d’IA, notamment en s’attaquant aux préjugés préjudiciables et à la discrimination.
Ces grandes entreprises d’IA développeront et déploieront également des systèmes d’IA avancés pour relever des défis sociétaux importants, de la prévention du cancer à l’atténuation du changement climatique, contribuant ainsi à la prospérité, à l’égalité et à la sécurité de tous.
L'engagement de l'administration Biden-Harris à l'égard de ces engagements s'étend au-delà des États-Unis, avec des consultations impliquant de nombreux partenaires et alliés internationaux. Ces engagements complètent des initiatives mondiales, notamment le Sommet du Royaume-Uni sur la sécurité de l'IA, le leadership du Japon dans le processus d'Hiroshima du G7 et le leadership de l'Inde en tant que présidente du Partenariat mondial sur l'IA.
Cette annonce marque une étape importante dans le cheminement vers le développement responsable de l’IA, les dirigeants de l’industrie et le gouvernement s’unissant pour garantir que la technologie de l’IA profite à la société tout en atténuant ses risques inhérents.
(Photo par Tabrez Syed sur Unsplash)
Voir également: L'écosystème britannique de l'IA atteindra 2,4 milliards de livres sterling d'ici 2027, troisième dans la course mondiale
Vous souhaitez en savoir plus sur l’IA et le Big Data auprès des leaders du secteur ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement complet est co-localisé avec Semaine de la transformation numérique.
Découvrez d'autres événements et webinaires technologiques d'entreprise à venir proposés par TechForge ici.
Source