L’IA risque de répéter les erreurs de l’ère des médias sociaux, selon le président de Microsoft
L’IA risque de répéter les erreurs de l’ère des médias sociaux, selon le président de Microsoft

Le développement effréné de l'IA risque de répéter les erreurs commises par l'industrie technologique au début de l'ère des médias sociaux, selon Microsoft
Le développement effréné de l'IA risque de répéter les erreurs commises par l'industrie technologique au début de l'ère des médias sociaux, a déclaré le président de Microsoft, Brad Smith, lors d'un forum d'affaires.

Le développement effréné de l'intelligence artificielle risque de répéter les erreurs commises par l'industrie technologique au début de l'ère des médias sociaux, a déclaré vendredi le président de Microsoft, Brad Smith, lors d'un forum d'affaires.

Les progrès rapides de l’IA ont alimenté l’inquiétude mondiale quant au potentiel de désinformation, d’utilisation abusive et de bouleversement du marché du travail que présente cette technologie.

Mais Smith a suggéré que ces craintes n'étaient pas reflétées par les développeurs de cette technologie potentiellement révolutionnaire, dont l'optimisme lui rappelait les premières années des plateformes de médias sociaux.

À l’époque, l’industrie technologique « était devenue un peu trop euphorique face à toutes les bonnes choses que les médias sociaux apporteraient au monde – et il y en a eu beaucoup – sans penser également aux risques », a-t-il déclaré.

"Nous devons être lucides, nous devons être enthousiasmés par les opportunités, mais réfléchis, voire préoccupés, par les inconvénients. Et nous devons construire des garde-fous dès le début", a-t-il ajouté.

L’essor de l’IA a suscité à la fois enthousiasme et inquiétude quant à son potentiel à améliorer ou à remplacer les tâches effectuées par les humains.

Les outils d’IA ont montré ces derniers mois leur capacité à générer des essais, à créer des images réalistes, à imiter les voix de chanteurs célèbres et même à réussir des examens médicaux, parmi une multitude d’utilisations.

Mais on craint également que les chatbots n’inondent Internet de désinformation, que des algorithmes biaisés ne produisent du matériel raciste ou que l’automatisation basée sur l’IA ne ravage des industries entières.

Un rapport des Nations Unies publié cette semaine a déclaré que l'IA était plus susceptible d'augmenter les emplois que de les détruire, ajoutant néanmoins que la technologie modifierait l'intensité du travail et l'autonomie des travailleurs.

Il indique également que les effets de la technologie varieront considérablement selon les professions et les régions, les employés de bureau étant les plus exposés aux changements et les femmes plus susceptibles que les hommes de voir leur emploi affecté.

Smith a déclaré qu'il était clair que le public "veut être sûr que cette nouvelle technologie restera sous contrôle humain".

Le directeur général de Mastercard, Michael Miebach, a déclaré que les entreprises devaient instaurer la confiance dans l'utilisation de la technologie et prendre des mesures pour résoudre des problèmes tels que les préjugés liés à l'IA.

Mais il a également déclaré qu'il estimait que les risques liés à l'IA n'étaient "pas très nouveaux" et ne devraient pas entraver le développement ultérieur de la technologie.

"Naturellement, la réglementation sera en retard", a-t-il déclaré. "Mais cela ne devrait pas nous ralentir."

Les deux hommes s'exprimaient à New Delhi aux côtés d'autres dirigeants mondiaux de l'industrie lors d'une réunion qui sert de prélude au sommet du G20 qui se tiendra le mois prochain dans la capitale indienne.

© 2023 AFP

Citation: L'IA risque de répéter les erreurs de l'ère des médias sociaux : président de Microsoft (25 août 2023) récupéré le 26 août 2023 de

Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top