Une note de politique interne rédigée par OpenAI montre que l'entreprise soutient l'idée d'exiger des licences gouvernementales de quiconque souhaite développer des systèmes avancés d'intelligence artificielle. Le document suggère également que l'entreprise est prête à lever le rideau sur les données qu'elle utilise pour former les générateurs d'images.
Le créateur de ChatGPT et de DALL-E a présenté une série d'engagements politiques en matière d'IA dans le document interne à la suite d'une réunion du 4 mai entre des responsables de la Maison Blanche et des dirigeants de la technologie, dont le directeur général d'OpenAI, Sam Altman. "Nous nous engageons à travailler avec le gouvernement américain et les décideurs politiques du monde entier pour soutenir le développement des exigences de licence pour les générations futures des modèles de fondation les plus performants", a déclaré la société basée à San Francisco dans le projet.
L'idée d'un système de licences gouvernementales co-développé par des poids lourds de l'IA tels que OpenAI ouvre la voie à un affrontement potentiel avec les startups et les développeurs open source qui peuvent y voir une tentative de rendre plus difficile pour les autres de pénétrer dans l'espace. Ce n'est pas la première fois qu'OpenAI soulève l'idée : lors d'une audition au Sénat américain en mai, Altman a soutenu la création d'une agence qui, a-t-il dit, pourrait délivrer des licences pour les produits d'IA et les retirer si quelqu'un enfreignait les règles établies.
Le document de politique intervient juste au moment où Microsoft Corp., Google et OpenAI d'Alphabet Inc. devraient s'engager publiquement vendredi à protéger le développement de la technologie, en tenant compte d'un appel de la Maison Blanche. Selon des personnes familières avec les plans, les entreprises s'engageront à développer et déployer de manière responsable l'IA.
OpenAI a averti que les idées exposées dans le document de politique interne seront différentes de celles qui seront bientôt annoncées par la Maison Blanche, aux côtés des entreprises technologiques. Anna Makanju, vice-présidente des affaires mondiales de la société, a déclaré dans une interview que la société ne "poussait" pas autant pour les licences qu'elle pensait que ces permis étaient un moyen "réaliste" pour les gouvernements de suivre les systèmes émergents.
"Il est important que les gouvernements sachent si des systèmes super puissants qui pourraient avoir des effets potentiellement nocifs voient le jour", a-t-elle déclaré, et il existe "très peu de moyens de s'assurer que les gouvernements sont au courant de ces systèmes si quelqu'un n'est pas disposé à se déclarer comme nous le faisons".
Makanju a déclaré qu'OpenAI ne prend en charge les régimes de licence que pour les modèles d'IA plus puissants que l'actuel GPT-4 d'OpenAI et souhaite s'assurer que les petites startups sont exemptes d'un fardeau réglementaire trop lourd. "Nous ne voulons pas étouffer l'écosystème", a-t-elle déclaré.
OpenAI a également signalé dans le document de politique interne qu'il est disposé à être plus ouvert sur les données qu'il utilise pour former des générateurs d'images tels que DALL-E, affirmant qu'il s'est engagé à "incorporer une approche de provenance" d'ici la fin de l'année. La provenance des données - une pratique utilisée pour tenir les développeurs responsables de la transparence de leur travail et de leur origine - a été évoquée par les décideurs politiques comme essentielle pour empêcher les outils d'IA de propager la désinformation et les préjugés.
Les engagements énoncés dans la note de service d'OpenAI suivent de près certaines des propositions de politique de Microsoft annoncées en mai. OpenAI a noté que, malgré un investissement de 10 milliards de dollars de Microsoft, elle reste une société indépendante.
La société a révélé dans le document qu'elle menait une enquête sur le filigrane - une méthode de suivi de l'authenticité et des droits d'auteur sur les images générées par l'IA - ainsi que sur la détection et la divulgation dans le contenu créé par l'IA. Il prévoit de publier les résultats.
La société a également déclaré dans le document qu'elle était ouverte à une équipe rouge externe, en d'autres termes, permettant aux gens d'entrer et de tester les vulnérabilités de son système sur plusieurs fronts, y compris le contenu offensant, le risque de manipulation, la désinformation et les préjugés. La société a déclaré dans la note qu'elle soutenait la création d'un centre de partage d'informations pour collaborer sur la cybersécurité.
Dans le mémo, OpenAI semble reconnaître le risque potentiel que les systèmes d'IA représentent pour les marchés du travail et les inégalités. La société a déclaré dans le projet qu'elle mènerait des recherches et ferait des recommandations aux décideurs politiques pour protéger l'économie contre d'éventuelles "perturbations".
2023 Bloomberg LP
Distribué par Tribune Content Agency, LLC.
Citation: OpenAI soutient l'idée d'exiger des licences pour les systèmes d'IA avancés (2023, 21 juillet) récupéré le 21 juillet 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source