L’IA « générative » est-elle la voie de l’avenir ? Un expert explique les nouveaux modèles, la nécessité d’une implication humaine
L’IA « générative » est-elle la voie de l’avenir ? Un expert explique les nouveaux modèles, la nécessité d’une implication humaine

L'IA « générative » est-elle la voie de l'avenir ?  L'expert du nord-est explique l'avantage des nouveaux modèles, la nécessité de l'implication humaine
Crédit : Andy Gagné pour l'Université Northeastern

Depuis que les premières théories de l'intelligence artificielle du 20e siècle ont mis le monde sur une voie apparemment irréversible vers la technologie, la grande promesse de l'IA - celle qui a été utilisée pour justifier cette marche en avant - est qu'elle peut aider à inaugurer la transformation sociale et conduire à amélioration humaine.

Avec l'arrivée de ce qu'on appelle l'IA générative, comme le ChatGPT sans cesse amusant et plein de problèmes d'OpenAI, la lenteur des progrès de l'IA depuis des décennies a davantage ressemblé à un bond en avant. Ce saut perspicace inquiète certains experts des conséquences d'une évolution trop rapide vers un monde dans lequel l'intelligence artificielle, selon eux, pourrait devenir une force toute-puissante destructrice de l'humanité à la The Terminator.

Mais les experts du Nord-Est, dont Usama Fayyad, directeur exécutif de l'Institute for Experiential Artificial Intelligence, soutiennent que ces préoccupations ne reflètent pas la réalité. Qu'en fait, l'IA est intégrée de manière à promouvoir et à nécessiter l'implication humaine - ce que les experts ont appelé "l'humain dans la boucle".

Le mardi 25 avril, Northeastern accueillera un symposium d'experts en IA pour discuter d'une gamme de sujets liés au rythme de développement de l'IA et à la façon dont les progrès remodèlent le lieu de travail, l'éducation, les soins de santé et de nombreux autres secteurs. Northeastern Global News s'est entretenu avec Fayyad pour en savoir plus sur ce que la conférence de la semaine prochaine abordera ; les avantages de l'IA générative ; ainsi que des développements plus larges dans l'espace. La conversation a été modifiée pour plus de brièveté et de clarté.

Tout d'abord, on a beaucoup parlé d'IA générative. Qu'est-ce que c'est et en quoi est-ce différent des autres formes d'IA ?

L'IA générative fait référence au type d'IA qui peut, tout simplement, générer des sorties. Ces sorties peuvent être sous forme de texte comme vous le voyez dans ce que nous appelons les grands modèles de langage, tels que ChatGPT (un chatbot au-dessus d'un grand modèle de langage), ou des images, etc. Si vous vous entraînez [the AI] sur le texte, le texte est ce que vous en retirerez. Si vous l'entraînez sur des images, vous obtenez des images ou des modifications d'images. Si vous l'entraînez sur des sons ou de la musique, vous en tirerez de la musique. Si vous le formez sur le code de programmation, vous sortez des programmes, et ainsi de suite.

On l'appelle aussi IA générative car les algorithmes ont la capacité de générer eux-mêmes des exemples. Cela fait partie de leur formation. Les chercheurs feraient des choses comme faire en sorte que l'algorithme se défie lui-même à travers des réseaux contradictoires génératifs, ou des algorithmes qui génèrent des exemples contradictoires qui pourraient confondre le système pour aider à renforcer sa formation. Mais depuis leur développement, les chercheurs ont vite compris qu'ils avaient besoin d'une intervention humaine. Ainsi, la plupart de ces systèmes, y compris ChaptGPT, utilisent et nécessitent une intervention humaine. Les êtres humains facilitent bon nombre de ces défis dans le cadre de la formation grâce à ce qu'on appelle l'apprentissage par renforcement, une technique d'apprentissage automatique conçue pour améliorer fondamentalement les performances du système.

ChatGPT a reçu beaucoup de presse récemment, en particulier sur les réseaux sociaux où les utilisateurs ont publié leurs interactions individuelles avec l'IA. Quelles sont certaines des applications pratiques de cette nouvelle technologie?

On le voit appliqué dans l'éducation, dans l'enseignement supérieur en particulier. L'enseignement supérieur a pris note - y compris le Nord-Est, de manière très importante - du fait que ces technologies ont remis en question la façon dont nous effectuons, par exemple, les tests standardisés. Les éducateurs ont réalisé que ce n'est qu'un outil parmi d'autres. Chez Northeastern, nous avons de nombreux exemples que nous aborderons dans ce prochain atelier de personnes l'utilisant en classe. Que ce soit au College of Arts, Media and Design pour des choses comme [Salvador] Dalí et LensaAI pour les images ; ou que ce soit dans des cours d'écriture, des cours d'anglais ou en ingénierie.

Tout comme nous sommes passés de la règle à calcul à la calculatrice, à l'ordinateur, puis à l'ensemble du Web sur votre téléphone portable, c'est un autre outil, et la bonne façon de former nos étudiants à être prêts pour le nouveau monde est de trouver des moyens d'utiliser cette technologie comme un outil.

Il est trop tôt pour voir des applications réelles à grande échelle. La technologie est trop récente. Mais on estime qu'entre 50 % et 80 % — je suis plutôt dans le camp des 80 % — des tâches effectuées par un travailleur du savoir peuvent être accélérées par cette technologie. Non automatisé, accéléré. Si vous êtes avocat et que vous rédigez un accord, vous pouvez faire personnaliser très rapidement une première ébauche ; mais ensuite vous devez entrer et éditer ou apporter des modifications. Si vous êtes un programmeur, vous pouvez produire un programme initial. Mais cela ne fonctionnera généralement pas bien; il aura des erreurs ; il n'est pas adapté à la cible. Encore une fois, un être humain, à condition qu'il comprenne ce qu'il fait, peut entrer et le modifier, et économiser 50 à 80 % de l'effort.

Pouvez-vous en dire plus sur ce que vous entendez par accélération par rapport à l'automatisation ?

C'est de l'accélération, pas de l'automatisation, car nous savons que la technologie peut halluciner de manière horrible, en fait. Cela peut inventer des trucs; il peut essayer de défendre des points de vue que vous lui demandez de défendre ; vous pouvez le faire mentir, et vous pouvez lui mentir et lui faire croire.

Ils appellent cette classe spécifique de technologie des perroquets stochastiques, c'est-à-dire des perroquets qui ont, disons, des variations aléatoires. Et j'aime le terme perroquets parce qu'il décrit correctement le fait qu'ils ne comprennent pas ce qu'ils disent. Alors ils disent des choses, et les choses peuvent sembler éloquentes ou fluides. C'est l'un des points importants que nous essayons de faire valoir : d'une manière ou d'une autre, nous avons appris dans la société à associer l'intelligence à l'éloquence et à la fluidité - en gros quelqu'un qui dit les choses gentiment. Mais en réalité ces algorithmes sont loin d'être intelligents ; ils font essentiellement la saisie semi-automatique ; ils répètent des choses qu'ils ont vues auparavant, et souvent ils sont répétés de manière incorrecte.

Pourquoi dis-je tout cela ? Parce que cela signifie que vous avez besoin d'un humain dans la boucle pour faire ce travail, parce que vous devez vérifier tout ce travail. Vous supprimez une grande partie du travail répétitif et monotone, c'est formidable. Vous pouvez l'accélérer, c'est productif. Vous pouvez maintenant passer votre temps à ajouter de la valeur au lieu de répéter les tâches ennuyeuses. Tout cela, je le considère comme positif.

J'aime utiliser la comptabilité comme une bonne analogie. À quoi ressemblait la comptabilité il y a 60 à 70 ans ? Eh bien, vous deviez vous occuper de ces gros livres; il fallait avoir une belle écriture ; vous deviez avoir de bonnes capacités d'addition dans votre tête ; vous deviez vérifier manuellement les chiffres, calculer les sommes et appliquer des ratios. Devinez quoi? Aucune de ces tâches - aucune, aucune - n'est pertinente aujourd'hui. Maintenant, avons-nous remplacé les comptables parce que nous avons maintenant remplacé tout ce qu'ils faisaient par quelque chose de plus rapide, meilleur, moins cher, reproductible ? Non. Nous avons en fait plus de comptables aujourd'hui que dans l'histoire de l'humanité.

Quels sujets cet atelier à venir couvrira-t-il en ce qui concerne l'IA ?

Ce que nous faisons avec cet atelier, c'est que nous essayons de couvrir les trois domaines qui comptent. Quel est l'impact de ChatGPT et de l'IA générative en classe, et comment devrions-nous l'utiliser ? Nous faisons venir des gens qui font ce travail à Northeastern pour fournir des exemples dans un panel.

Deuxièmement, comment la nature du travail change-t-elle à cause de ces technologies ? Cela sera abordé lors d'un autre panel où nous réfléchirons à différentes applications métiers. Nous utiliserons ici la loi et les soins de santé comme deux exemples récurrents.

Le troisième panneau porte sur l'utilisation responsable. Comment guetter les pièges éthiques et comment bien utiliser cette technologie ? Nous commençons tout l'atelier en demandant à l'un de nos membres du corps professoral de donner un aperçu de ce qu'est cette technologie pour aider à démystifier le backbox, si vous voulez.

L'idée, fondamentalement, est de montrer que non seulement nous (Nord-Est) sommes conscients des développements technologiques en cours, mais que nous avons certains des meilleurs experts du monde en tête. Et nous utilisons déjà ce matériel en classe depuis le semestre dernier. De plus, nous voulons communiquer que nous sommes là et prêts à travailler avec les entreprises, avec les organisations pour apprendre les meilleures façons d'utiliser cette technologie, et de le faire correctement et de manière responsable.

Il existe de nombreuses preuves maintenant connues que ChatGPT a un composant humain dans la boucle. Parfois, les humains répondent aux questions, en particulier lorsque l'algorithme rencontre des problèmes. Ils examinent les réponses et interviennent. Soit dit en passant, il s'agit de choses banales, même pour le moteur de recherche Google. Beaucoup de gens ne savent pas que lorsqu'ils utilisent le moteur de recherche Google, que le MLR ou l'algorithme de pertinence de l'apprentissage automatique qui décide quelle page est pertinente pour quelle requête - qui est recyclé trois ou quatre fois par jour en fonction principalement de la contribution éditoriale humaine . Il y a beaucoup de choses qu'un algorithme ne peut pas capturer, que le perroquet stochastique ne comprendra jamais.

Récemment, on s'est beaucoup inquiété des menaces posées, en particulier, par la façon dont le développement de l'IA pourrait dépasser nos contrôles et protocoles de sécurité. Que pensez-vous de ces préoccupations?

Ces préoccupations se concentrent sur les mauvaises choses. Permettez-moi de dire quelques choses. Nous avons traversé une transition de phase vers 2015 ou 2016 avec ce type de technologies. Prenez la reconnaissance de l'écriture manuscrite, par exemple. Il y a eu des sauts au fil des ans, mais il a fallu environ 15 ans pour y arriver, avec de nombreuses révisions en cours de route. Reconnaissance vocale : la même chose. Ça a pris du temps, puis ça a commencé à s'accélérer ; mais ça a quand même pris du temps.

Avec ces grands modèles de langage, comme la compréhension de la lecture et la compilation du langage, nous voyons des sauts majeurs qui se sont produits avec le développement de ces grands modèles de langage qui sont formés sur ces grands corpus de littérature ou de texte. Et au fait, ce dont on ne parle pas beaucoup, c'est qu'OpenAI a dû dépenser beaucoup d'argent pour conserver ce texte ; s'assurer qu'il est équilibré. Si vous entraînez un grand modèle de langage sur deux documents qui ont le même contenu par deux résultats différents, comment l'algorithme sait-il lequel est le bon ? Ce n'est pas le cas. Soit un humain doit le dire, soit il dit par défaut : "Tout ce que je vois le plus souvent doit être vrai". Cela crée un terrain fertile pour la désinformation.

Maintenant, pour répondre à votre question sur ce moratoire proposé. Dans mon esprit, c'est un peu idiot dans ses motivations. Beaucoup de partisans de cela viennent d'un camp où ils croient que nous courons le risque d'une intelligence "générale" artificielle - c'est très loin d'être vrai. Nous sommes très, très loin de nous en approcher. Encore une fois, ces algorithmes ne savent pas ce qu'ils font. Maintenant, nous sommes dans cette zone à risque d'en abuser. Il y a eu un exemple récent en Belgique où quelqu'un s'est suicidé après six mois de conversation avec un chatbot qui, finalement, l'encourageait à le faire.

Il y a donc beaucoup de dangers auxquels nous devons faire face. Nous savons qu'il y a des problèmes. Cependant, s'arrêter ne changera rien. En fait, si les gens acceptaient d'arrêter, seuls les bons acteurs le feraient ; les mauvais acteurs continuent. Ce que nous devons commencer à faire, encore une fois, c'est mettre l'accent sur le fait que la fluidité, l'éloquence ne sont pas l'intelligence. Cette technologie a des limites ; démystifions-les. Faisons-en bon usage afin que nous puissions réaliser quels sont les mauvais usages. De cette façon, nous pouvons apprendre comment ils doivent être contrôlés.

Fourni par l'Université du Nord-Est

Citation: L'IA 'générative' est-elle la voie de l'avenir ? Un expert explique les nouveaux modèles, la nécessité d'une implication humaine (2023, 20 avril) récupéré le 20 avril 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top