OpenAI présente une équipe dédiée à l’arrêt de l’IA malveillante
OpenAI présente une équipe dédiée à l’arrêt de l’IA malveillante

Les dangers potentiels des systèmes d'IA hautement intelligents ont été un sujet de préoccupation pour les experts dans le domaine.

Récemment, Geoffrey Hinton – le soi-disant « parrain de l'IA » – a exprimé ses inquiétudes quant à la possibilité qu'une IA super intelligente dépasse les capacités humaines et entraîne des conséquences catastrophiques pour l'humanité.

De même, Sam Altman, PDG d'OpenAI, la société à l'origine du populaire chatbot ChatGPT, a admis avoir peur des effets potentiels de l'IA avancée sur la société.

En réponse à ces préoccupations, OpenAI a annoncé la création d'une nouvelle unité appelée Superalignement.

L'objectif principal de cette initiative est de s'assurer que l'IA superintelligente ne mène pas au chaos ou même à l'extinction humaine. OpenAI reconnaît l'immense pouvoir que la superintelligence peut posséder et les dangers potentiels qu'elle présente pour l'humanité.

Bien que le développement de l'IA superintelligente soit encore dans quelques années, OpenAI pense qu'il pourrait être une réalité d'ici 2030. Actuellement, il n'existe aucun système établi pour contrôler et guider une IA potentiellement superintelligente, ce qui rend d'autant plus crucial le besoin de mesures proactives.

Superalignment vise à constituer une équipe de chercheurs et d'ingénieurs en apprentissage automatique de haut niveau qui travailleront au développement d'un "chercheur en alignement automatisé à peu près au niveau humain". Ce chercheur sera chargé d'effectuer des vérifications de sécurité sur les systèmes d'IA superintelligents.

OpenAI reconnaît qu'il s'agit d'un objectif ambitieux et que le succès n'est pas garanti. Cependant, la société reste optimiste sur le fait qu'avec un effort ciblé et concerté, le problème de l'alignement des superintelligences peut être résolu.

La montée en puissance d'outils d'IA tels que ChatGPT d'OpenAI et Bard de Google a déjà apporté des changements significatifs au travail et à la société. Les experts prédisent que ces changements ne feront que s'intensifier dans un avenir proche, avant même l'avènement de l'IA super intelligente.

Reconnaissant le potentiel de transformation de l'IA, les gouvernements du monde entier se précipitent pour établir des réglementations garantissant son déploiement sûr et responsable. Cependant, l'absence d'une approche internationale unifiée pose des problèmes. Des réglementations variables d'un pays à l'autre pourraient conduire à des résultats différents et rendre encore plus difficile la réalisation de l'objectif du superalignement.

En travaillant de manière proactive pour aligner les systèmes d'IA sur les valeurs humaines et en développant les structures de gouvernance nécessaires, OpenAI vise à atténuer les dangers qui pourraient découler de l'immense pouvoir de la superintelligence.

Bien que la tâche à accomplir soit sans aucun doute complexe, l'engagement d'OpenAI à relever ces défis et à impliquer les meilleurs chercheurs dans le domaine signifie un effort significatif vers un développement responsable et bénéfique de l'IA.

(Photo par Zac Wolff sur Unsplash)

Voir également: Le premier bureau mondial d'OpenAI sera à Londres

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement est co-localisé avec Semaine de la transformation numérique.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

  • Ryan Daws

    Ryan est rédacteur en chef chez TechForge Media avec plus d'une décennie d'expérience couvrant les dernières technologies et interviewant des personnalités de premier plan de l'industrie. Il peut souvent être aperçu lors de conférences techniques avec un café fort dans une main et un ordinateur portable dans l'autre. Si c'est geek, il est probablement dedans. Retrouvez-le sur Twitter (@Gadget_Ry) ou Mastodon (@gadgetry@techhub.social)

Mots clés: agi, intelligence artificielle, éthique, openai, sam altman, société, superalignement




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top