
Depuis que le poème brassant ChatGPT a fait irruption il y a six mois, l'expert Gary Marcus a mis en garde contre le développement et l'adoption ultra-rapides de l'intelligence artificielle.
Mais contre les apocalyptiques apocalyptiques de l'IA, le professeur émérite de l'Université de New York a déclaré à l'AFP dans une récente interview que les menaces existentielles de la technologie pourraient actuellement être "exagérées".
"Je ne suis pas personnellement préoccupé par le risque d'extinction, du moins pour le moment, car les scénarios ne sont pas si concrets", a déclaré Marcus à San Francisco.
"Un problème plus général qui m'inquiète... est que nous construisons des systèmes d'IA sur lesquels nous n'avons pas un très bon contrôle et je pense que cela pose beaucoup de risques, (mais) peut-être pas littéralement existentiels."
Bien avant l'avènement de ChatGPT, Marcus a conçu son premier programme d'IA au lycée - un logiciel pour traduire le latin en anglais - et après des années d'études en psychologie de l'enfant, il a fondé Geometric Intelligence, une société d'apprentissage automatique acquise plus tard par Uber.
'Pourquoi l'IA?'
En mars, alarmé par le fait que le créateur de ChatGPT, OpenAI, publiait son dernier et plus puissant modèle d'IA avec Microsoft, Marcus a signé une lettre ouverte avec plus de 1 000 personnes, dont Elon Musk, appelant à une pause mondiale dans le développement de l'IA.
Mais la semaine dernière, il n'a pas signé la déclaration plus succincte des chefs d'entreprise et des spécialistes, dont le patron d'OpenAI, Sam Altman, qui a fait sensation.
Les dirigeants mondiaux devraient s'efforcer de réduire "le risque d'extinction" de la technologie de l'intelligence artificielle, ont insisté les signataires.
La déclaration d'une ligne indique que la lutte contre les risques liés à l'IA devrait être "une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire".
Les signataires comprenaient ceux qui construisent des systèmes en vue de parvenir à une IA "générale", une technologie qui maintiendrait les capacités cognitives au même niveau que celles des humains.
"Si vous pensez vraiment qu'il y a un risque existentiel, pourquoi travaillez-vous là-dessus? C'est une question assez juste à poser", a déclaré Marcus.
Au lieu de se concentrer sur des scénarios plus farfelus où personne ne survit, la société devrait se concentrer sur les véritables dangers, a supposé Marcus.
"Les gens pourraient essayer de manipuler les marchés en utilisant l'IA pour provoquer toutes sortes de dégâts, puis nous pourrions, par exemple, blâmer les Russes et dire : "regardez ce qu'ils ont fait à notre pays" alors que les Russes n'étaient en fait pas impliqués. ," il a continué.
"Vous (pourriez) avoir cette escalade qui se termine par une guerre nucléaire ou quelque chose comme ça. Donc je pense qu'il y a des scénarios où c'était assez grave. Extinction ? Je ne sais pas."
Menace contre la démocratie
A court terme, l'experte en psychologie s'inquiète pour la démocratie.
Les logiciels d'IA générative produisent de fausses photographies de plus en plus convaincantes, et bientôt des vidéos, à peu de frais.
En conséquence, "les élections vont être remportées par des personnes qui sont plus douées pour répandre la désinformation, et ces personnes peuvent changer les règles et rendre vraiment difficile la poursuite de la démocratie".
De plus, "la démocratie repose sur le fait d'avoir des informations raisonnables et de prendre de bonnes décisions. Si personne ne sait quoi croire, alors comment procéder avec la démocratie ?"
L'auteur du livre "Rebooting AI" ne pense cependant pas qu'il faille abandonner l'espoir, voyant toujours "beaucoup d'avantages".
Il y a certainement une chance que l'IA non encore inventée puisse "aider à la science, à la médecine, aux soins aux personnes âgées", a déclaré Marcus.
"Mais à court terme, j'ai l'impression que nous ne sommes tout simplement pas prêts. Il va y avoir du mal en cours de route et nous devons vraiment améliorer notre jeu, nous devons trouver une réglementation sérieuse", a-t-il déclaré.
Lors d'une audience au Sénat américain en mai, assis à côté d'Altman d'OpenAI, Marcus a plaidé pour la création d'une agence nationale ou internationale responsable de la gouvernance de l'IA.
L'idée est également soutenue par Altman, qui vient de rentrer d'une tournée européenne où il a exhorté les dirigeants politiques à trouver le "juste équilibre" entre sécurité et innovation.
Mais méfiez-vous de laisser le pouvoir aux entreprises, a averti Marcus.
"Les derniers mois ont été un véritable rappel que les grandes entreprises qui dirigent ici ne sont pas nécessairement intéressées par le reste d'entre nous", a-t-il averti.
© 2023 AFP
Citation: La menace d'extinction humaine est "exagérée", selon le sage de l'IA Marcus (2023, 4 juin) récupéré le 4 juin 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source