Un groupe de réflexion sur l’IA qualifie le GPT-4 de risque pour la sécurité publique
Un groupe de réflexion sur l’IA qualifie le GPT-4 de risque pour la sécurité publique

Un groupe de réflexion sur l'IA a déposé une plainte avec le FTC dans le but d'arrêter OpenAI de nouveaux déploiements commerciaux de GPT-4.

Le Centre d'intelligence artificielle et de politique numérique (CAIDP) affirme qu'OpenAI a violé section cinq de la loi FTC — alléguant la société de pratiques trompeuses et déloyales.

Marc Rotenberg, fondateur et président du CAIDP, a déclaré :

« La FTC a une responsabilité claire d'enquêter et d'interdire les pratiques commerciales déloyales et trompeuses. Nous pensons que la FTC devrait examiner de près OpenAI et GPT-4.

Nous demandons spécifiquement à la FTC de déterminer si l'entreprise s'est conformée aux directives émises par l'agence fédérale.

Le CAIDP affirme que le GPT-4 d'OpenAI est "partial, trompeur et constitue un risque pour la vie privée et la sécurité publique".

Le groupe de réflexion a cité le contenu du Carte système GPT-4 qui décrivent le potentiel du modèle à renforcer les préjugés et les visions du monde, y compris les stéréotypes nuisibles et les associations dégradantes pour certains groupes marginalisés.

Dans la System Card susmentionnée, OpenAI reconnaît qu'il «a constaté que le modèle a le potentiel de renforcer et de reproduire des préjugés et des visions du monde spécifiques, y compris des associations stéréotypées et dégradantes nuisibles pour certains groupes marginalisés».

En outre, le document déclare : "Les systèmes d'IA auront un potentiel encore plus grand pour renforcer des idéologies entières, des visions du monde, des vérités et des contrevérités, et pour les cimenter ou les enfermer, empêchant toute contestation, réflexion et amélioration futures."

Selon OpenAI, GPT-4 pourrait entraîner d'autres résultats néfastes :

  1. Conseils ou encouragements pour les comportements d'automutilation
  2. Contenu graphique tel que contenu érotique ou violent
  3. Contenu harcelant, dégradant et haineux
  4. Contenu utile pour planifier des attentats ou de la violence
  5. Instructions pour trouver du contenu illégal

Le CAIDP affirme qu'OpenAI a rendu public GPT-4 sans évaluation indépendante de ses risques.

La semaine dernière, la FTC dit Entreprises américaines faisant la publicité de produits d'IA :

« Le simple fait d'avertir vos clients d'une utilisation abusive ou de leur dire de faire des divulgations est à peine suffisant pour dissuader les mauvais acteurs.

Vos mesures de dissuasion doivent être des fonctionnalités durables et intégrées et non des corrections de bogues ou des fonctionnalités facultatives que des tiers peuvent miner via une modification ou une suppression.

Avec son dossier, le CAIDP demande à la FTC d'enquêter sur les produits d'OpenAI et d'autres opérateurs de systèmes d'IA puissants, d'empêcher de nouvelles versions commerciales de GPT-4 et d'assurer la mise en place des garde-corps nécessaires pour protéger les consommateurs, les entreprises et le marché commercial. .

Merve Hickok, présidente et directrice de recherche du CAIDP, a déclaré :

« Nous sommes à un moment critique de l'évolution des produits d'IA.

Nous reconnaissons les opportunités et nous soutenons la recherche. Mais sans les garanties nécessaires établies pour limiter les préjugés et la tromperie, il existe un risque sérieux pour les entreprises, les consommateurs et la sécurité publique.

La FTC est particulièrement bien placée pour relever ce défi.

La plainte a été déposée sous le nom d'Elon Musk, Steve Wozniak et d'autres experts en IA a signé une pétition pour "mettre en pause" le développement sur des systèmes d'IA plus puissants que GPT-4.

Cependant, d'autres personnalités de premier plan pensent que les progrès ne doivent pas être ralentis/arrêtés :

Musk était co-fondateur d'OpenAI, qui a été créé à l'origine comme une organisation à but non lucratif avec pour mission de veiller à ce que l'IA profite à l'humanité. Musk a démissionné du conseil d'administration d'OpenAI en 2018 et a publiquement remis en question la transformation de l'entreprise :

Approches mondiales de la réglementation de l'IA

À mesure que les systèmes d'IA deviennent plus avancés et plus puissants, les inquiétudes concernant leurs risques et biais potentiels se sont accrues. Des organisations telles que le CAIDP, l'UNESCO et le Future of Life Institute font pression pour que des directives et des réglementations éthiques soient mises en place afin de protéger le public et d'assurer le développement responsable de la technologie de l'IA.

L'UNESCO (Organisation des Nations Unies pour l'éducation, la science et la culture) a appelé les pays à mettre en œuvre ses "Recommandation sur l'éthique de l'IA" cadre.

Plus tôt dans la journée, l'Italie banni ChatGPT. Les autorités de protection des données du pays ont déclaré que cela ferait l'objet d'une enquête et que le système ne dispose pas d'une base juridique appropriée pour collecter des informations personnelles sur les personnes qui l'utilisent.

L'UE au sens large établit un environnement réglementaire strict pour l'IA, contrairement à l'approche relativement "légère" du Royaume-Uni.

Tim Wright, associé et avocat spécialisé dans la réglementation des technologies et de l'IA au sein d'un cabinet d'avocats Fladgatea commenté la vision du Royaume-Uni :

« Les principes réglementaires énoncés dans le livre blanc confirment simplement l'approche préférée du gouvernement qui, selon eux, encouragera l'innovation dans l'espace sans imposer une charge excessive aux entreprises qui développent et adoptent l'IA tout en encourageant une utilisation juste et éthique et en protégeant les individus.

L'avenir nous dira si cette approche secteur par secteur a l'effet escompté. Ce qu'il fait, c'est placer le Royaume-Uni sur une approche complètement différente de celle de l'UE, qui impose un règlement détaillé soutenu par un nouveau régime de responsabilité et supervisé par un seul super régulateur de l'IA.

Comme toujours, il s'agit d'un équilibre entre la réglementation et l'innovation. Une réglementation insuffisante met le public en danger tandis que trop de risques entraînent l'innovation ailleurs.

(Photo par Ben doux sur Unsplash)

En rapport: À quoi ressemblera la réglementation de l'IA pour les entreprises ?

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement est co-localisé avec Semaine de la transformation numérique.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

Mots clés: agir, ai, amérique, intelligence artificielle, caidp, Centre pour l'intelligence artificielle et la politique numérique, chatgpt, développement, éthique, ue, europe, union européenne, ftc, gpt-4, loi, juridique, openai, politique, réglementation, risques, sécurité, section 5, société, carte système, royaume-uni, états-unis




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top