Les dirigeants de l’IA mettent en garde contre le « risque d’extinction » dans une lettre ouverte
Les dirigeants de l’IA mettent en garde contre le « risque d’extinction » dans une lettre ouverte

Le Center for AI Safety (CAIS) a récemment publié une déclaration signé par des personnalités éminentes de l'IA avertissant des risques potentiels posés par la technologie pour l'humanité.

"Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire", lit-on dans la déclaration.

Les signataires de la déclaration comprennent des chercheurs renommés et des lauréats du prix Turing tels que Geoffery Hinton et Yoshua Bengio, ainsi que des dirigeants d'OpenAI et de DeepMind, tels que Sam Altman, Ilya Sutskever et Demis Hassabis.

La lettre du CAIS vise à susciter des discussions sur les divers risques urgents associés à l'IA et a suscité à la fois soutien et critiques dans l'ensemble de l'industrie. Ça suit une autre lettre ouverte signé par Elon Musk, Steve Wozniak et plus de 1 000 autres experts qui ont appelé à l'arrêt du développement "hors de contrôle" de l'IA.

Malgré sa brièveté, la dernière déclaration ne fournit pas de détails spécifiques sur la définition de l'IA ni ne propose de stratégies concrètes pour atténuer les risques. Cependant, le PCSRA a précisé dans un communiqué de presse que son objectif est d'établir des garanties et des institutions pour s'assurer que les risques liés à l'IA sont gérés efficacement.

Le PDG d'OpenAI, Sam Altman, s'est activement engagé auprès des leaders mondiaux et a plaidé en faveur de la réglementation de l'IA. Lors d'une récente comparution au Sénat, Altman a appelé à plusieurs reprises les législateurs à réglementer fortement l'industrie. La déclaration du CAIS s'aligne sur ses efforts de sensibilisation aux dangers de l'IA.

Alors que la lettre ouverte a attiré l'attention, certains experts en éthique de l'IA ont critiqué la tendance à publier de telles déclarations.

Le Dr Sasha Luccioni, chercheur en apprentissage automatique, suggère que mentionner les risques hypothétiques de l'IA aux côtés de risques tangibles comme les pandémies et le changement climatique renforce sa crédibilité tout en détournant l'attention de problèmes immédiats comme les préjugés, les contestations judiciaires et le consentement.

Daniel Jeffries, écrivain et futuriste, soutient que discuter des risques de l'IA est devenu un jeu de statut dans lequel les individus sautent dans le train en marche sans encourir de coûts réels.

Les critiques pensent que la signature de lettres ouvertes sur les menaces futures permet aux responsables des dommages actuels de l'IA d'atténuer leur culpabilité tout en négligeant les problèmes éthiques associés aux technologies d'IA déjà utilisées.

Cependant, CAIS – une organisation à but non lucratif basée à San Francisco – reste concentrée sur la réduction des risques à l'échelle de la société liés à l'IA grâce à la recherche technique et au plaidoyer. L'organisation a été cofondée par des experts ayant une formation en informatique et un vif intérêt pour la sécurité de l'IA.

Alors que certains chercheurs craignent l'émergence d'une IA superintelligente qui pourrait dépasser les capacités humaines et constituer une menace existentielle, d'autres soutiennent que la signature de lettres ouvertes sur d'hypothétiques scénarios apocalyptiques détourne l'attention des dilemmes éthiques existants entourant l'IA. Ils soulignent la nécessité de s'attaquer aux vrais problèmes que pose l'IA aujourd'hui, tels que la surveillance, les algorithmes biaisés et la violation des droits de l'homme.

Équilibrer l'avancement de l'IA avec une mise en œuvre et une réglementation responsables reste une tâche cruciale pour les chercheurs, les décideurs et les chefs de file de l'industrie.

(Photo par Photographe Apolo sur Unsplash)

En rapport: PDG d'OpenAI : la réglementation de l'IA "est essentielle"

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement est co-localisé avec Semaine de la transformation numérique.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

  • Ryan Daws

    Ryan est rédacteur en chef chez TechForge Media avec plus d'une décennie d'expérience couvrant les dernières technologies et interviewant des personnalités de premier plan de l'industrie. Il peut souvent être aperçu lors de conférences techniques avec un café fort dans une main et un ordinateur portable dans l'autre. Si c'est geek, il est probablement dedans. Retrouvez-le sur Twitter (@Gadget_Ry) ou Mastodon (@gadgetry@techhub.social)

Mots clés: ai, risques IA, intelligence artificielle, éthique, droit, juridique, lettre ouverte, réglementation, Société




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top