Quand OpenAI déchaînait la « bête » qu’est ChatGPT de retour en novembre 2022le rythme de la concurrence sur le marché entre les entreprises technologiques impliquées dans l’IA a augmenté de façon exponentielle.
La concurrence sur le marché détermine le prix des biens et des services, leur qualité et la vitesse de l’innovation, ce qui est remarquable dans le secteur de l’IA. Cependant, certains experts estiment que nous sommes déployer la technologie la plus puissante dans le monde beaucoup trop vite.
Cela pourrait entraver notre capacité à détecter des problèmes graves avant qu'ils ne causent des dommages, ce qui aurait de profondes implications pour la société, en particulier lorsque nous ne pouvons pas anticiper les capacités de quelque chose qui pourrait finir par avoir la capacité de s'auto-entraîner.
Mais l’IA n’a rien de nouveau et, même si ChatGPT a pu surprendre de nombreuses personnes, les graines de l’agitation actuelle autour de cette technologie ont été posées il y a des années.
L’IA est-elle nouvelle ?
Les origines de l'IA moderne remontent aux développements des années 1950, lorsque Alan Turing s'efforçait de résoudre des problèmes mathématiques complexes pour tester l'intelligence des machines.
Les ressources limitées et la puissance de calcul disponibles à l’époque ont entravé la croissance et l’adoption. Mais les avancées en matière d’apprentissage automatique, de réseaux neuronaux et de disponibilité des données ont alimenté une résurgence de l’IA au début des années 2000. Cela a incité de nombreux secteurs à adopter l’IA. Les secteurs de la finance et des télécommunications l'ont utilisé pour détection de fraude et analyse de données.
Une explosion de données, le développement de Cloud computing et la disponibilité d’énormes ressources informatiques ont ensuite facilité le développement d’algorithmes d’IA. Cela a considérablement influencé ce qui pouvait être fait avec, par exemple, la reconnaissance d'images et de vidéos et la publicité ciblée.
Pourquoi l’IA suscite-t-elle autant d’attention aujourd’hui ? L’IA est utilisée depuis longtemps dans les médias sociaux pour recommander des publications, des articles, des vidéos et des publicités pertinents. L'éthicien technologique Tristan Harris affirme que les médias sociaux constituent globalement le « premier contact » de l'humanité avec l'IA.
Et l’humanité a appris que les algorithmes basés sur l’IA sur les plateformes de médias sociaux peuvent se propager. désinformation et mésinformation— polariser l'opinion publique et favoriser les chambres d'écho en ligne. Les campagnes ont dépensé de l’argent pour cibler les électeurs en ligne lors de l’élection présidentielle américaine de 2016 et le vote britannique sur le Brexit.
Les deux événements ont sensibilisé le public à l’IA et à la manière dont la technologie pouvait être utilisée pour manipuler les résultats politiques. Ces incidents très médiatisés mettre en mouvement des préoccupations sur les capacités des technologies en évolution.
Cependant, en 2017, un une nouvelle classe d’IA est apparue. Cette technologie est connue sous le nom de transformateur. Il s'agit d'un modèle d'apprentissage automatique qui traite le langage et l'utilise ensuite pour produire son propre texte et avoir des conversations.
Cette percée a facilité la création de grands modèles de langage tels que ChatGPT, capables de comprendre et de générer un texte ressemblant à celui écrit par des humains. Les modèles basés sur des transformateurs tels que le GPT (Generative Pre-trained Transformer) d'OpenAI ont démontré des capacités impressionnantes dans générer un texte cohérent et pertinent.
La différence avec les transformateurs est que, à mesure qu’ils absorbent de nouvelles informations, ils en tirent des leçons. Cela leur permet potentiellement d’acquérir de nouvelles capacités que les ingénieurs n’ont pas programmées.
Problème plus grave
La puissance de traitement désormais disponible et les capacités des derniers modèles d’IA signifient que les préoccupations encore non résolues concernant l’impact des médias sociaux sur la société, en particulier sur les jeunes générations, ne feront que croître.
Lucy Batley, patronne de Traction Industries, une entreprise du secteur privé qui aide les entreprises à intégrer l'IA dans leurs opérations, affirme que le type d'analyse que les sociétés de médias sociaux peuvent effectuer sur nos données personnelles - et les détails qu'elles peuvent extraire - est " va être automatisé et accéléré à un point tel que les grands magnats de la technologie en sauront potentiellement plus sur nous que nous n'en savons consciemment sur nous-mêmes.
Mais l'informatique quantiquequi a connu des avancées majeures ces dernières années, pourrait surpasser les performances des ordinateurs conventionnels sur des tâches particulières. Batley pense que cela "permettrait le développement de systèmes d'IA beaucoup plus performants pour sonder de multiples aspects de nos vies".
La situation des « grandes technologies » et des pays leaders en matière d’IA peut être comparée à ce que les théoriciens des jeux appellent le « dilemme du prisonnier ». Il s’agit d’une situation dans laquelle deux parties doivent soit décider de travailler ensemble pour résoudre un problème, soit se trahir. Ils sont confrontés à un choix difficile entre un événement où l'une des parties gagne (en gardant à l'esprit que trahir rapporte souvent une récompense plus élevée) ou un événement où l'une des parties gagne. avec un potentiel de bénéfice mutuel.
Prenons un scénario dans lequel nous avons deux entreprises technologiques concurrentes. Ils doivent décider s’ils doivent coopérer en partageant leurs recherches sur les technologies de pointe ou s’ils doivent garder leurs recherches secrètes. Si les deux sociétés collaborent, elles pourraient réaliser ensemble des progrès significatifs. Cependant, si la société A partage des actions alors que la société B ne le fait pas, la société A perd probablement son avantage concurrentiel.
Cette situation n’est pas très différente de la situation actuelle dans laquelle se trouvent les États-Unis. Les États-Unis tentent d’accélérer l’IA pour vaincre la concurrence étrangère. Les décideurs politiques ont donc mis du temps à discuter de la réglementation de l’IA, qui contribuerait à protéger la société des dommages causés par l’utilisation de cette technologie.
Territoire inexploré
Il faut éviter que l’IA puisse créer des problèmes sociétaux. Nous avons le devoir de les comprendre et nous avons besoin d’une approche collective pour éviter les erreurs qui ont été commises auparavant avec les médias sociaux. Il était trop tard pour réglementer les médias sociaux. Au moment où cette conversation est entrée dans le domaine public, les plateformes sociales étaient déjà mêlées aux médias, aux élections, aux entreprises et à la vie des utilisateurs.
Le premier grand sommet mondial sur la sécurité de l’IA est prévu plus tard cette année, au Royaume-Uni. C’est l’occasion pour les décideurs politiques et les dirigeants mondiaux de réfléchir aux risques immédiats et futurs de l’IA et à la manière dont ces risques peuvent être atténués grâce à une approche coordonnée à l’échelle mondiale. C’est également l’occasion d’inviter un plus large éventail de voix de la société à discuter de cette question importante, ce qui donnera lieu à un éventail plus diversifié de points de vue sur une question complexe qui touchera tout le monde.
L’IA a un énorme potentiel pour améliorer la qualité de vie sur Terre, mais nous avons tous le devoir de contribuer à encourager le développement de systèmes d’IA responsables. Nous devons également faire pression collectivement pour que les marques opèrent selon des lignes directrices éthiques au sein des cadres réglementaires. Le meilleur moment pour influencer un média est au tout début de son parcours.
Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.
Citation: Opinion : On parle beaucoup d'IA en ce moment, et ce n'est pas trop tôt (24 août 2023) récupéré le 24 août 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation équitable à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans autorisation écrite. Le contenu est fourni seulement pour information.
Source