La course aux armements en IA met en évidence le besoin urgent d’innovation responsable
La course aux armements en IA met en évidence le besoin urgent d’innovation responsable

La course aux armements en IA met en évidence le besoin urgent d'innovation responsable
OpenAI vient de publier GPT-4, une version mise à jour du programme d'IA basé sur du texte génératif de la société. Crédit : Shutterstock

La récente frénésie suscitée par les outils de traitement du langage tels que ChatGPT a poussé les organisations à se démener pour fournir des directives pour une utilisation responsable. La plateforme de publication en ligne Medium, par exemple, a a publié une déclaration sur l'écriture générée par l'IA qui favorise la « transparence » et la « divulgation ».

Mon propre établissement a créé une page FAQ sur l'IA générative qui appelle les éducateurs à faire un "usage sage et éthique" de l'IA et des chatbots.

Ces mesures éthiques semblent étranges, compte tenu de la sortie cette semaine du GPT-4 plus puissant, qui risque d'être un désinformation et propagande machine. OpenAI revendique GPT-4 a réussi un examen du barreau simulé dans les 10% supérieurs, par rapport à GPT-3.5 qui n'a obtenu que des résultats dans les 10% inférieurs.

Innovation incontrôlée

ChatGPT est propulsé par un supercalculateur et une puissante plate-forme de cloud computing, tous deux financés et créés par Microsoft. Ce partenariat Microsoft OpenAI accélérera la diffusion mondiale des produits d'IA générative grâce à La plateforme Azure de Microsoft.

Peut-être par coïncidence, GPT-4 a été publié moins de deux mois après Microsoft licencié une équipe éthique et société. Les membres de l'équipe frustrés ont dit la décision était basée sur la pression de la suite C de Microsoftqui a souligné la nécessité de mettre les produits d'IA « entre les mains des clients à très grande vitesse ».

La devise autrefois vilipendée de la Silicon Valley "avancer vite et casser des choses" peut-être redevenu à la mode.

Pour l'instant, Microsoft a toujours son Bureau de l'IA responsable. Mais il semble approprié de se demander ce que signifie l'innovation responsable alors que ce jeu à grande vitesse et à haut profit d'innovation incontrôlée fait rage.

Innovation responsable

Lorsque j'ai demandé à ChatGPT ce qu'est l'innovation responsable, il m'a écrit : "Le processus de développement et de mise en œuvre de nouvelles technologies, processus ou produits d'une manière qui répond aux préoccupations éthiques, sociales et environnementales. Cela implique de prendre en compte les impacts et les risques potentiels de l'innovation. sur diverses parties prenantes, y compris les clients, les employés, les communautés et l'environnement."

La définition de ChatGPT est précise, mais sans contexte. De qui sont ces idées et comment sont-elles mises en œuvre ? Autrement dit, qui est responsable de l'innovation responsable ?

Au cours de la dernière décennie, un certain nombre d'entreprises, de groupes de réflexion et d'institutions ont développé des initiatives d'innovation responsable pour prévoir et atténuer les conséquences négatives du développement technologique.

Google a fondé une équipe d'innovation responsable en 2018 pour mobiliser "des experts en éthique, en droits de l'homme, en recherche sur les utilisateurs et en justice raciale". Le résultat le plus remarquable de cette équipe a été Les principes d'IA responsable de Google. Mais le profil éthique de l'entreprise au-delà de cela est discutable.

de Google travailler avec l'armée américaine et son mauvais traitement de deux ex-employés soucieux d'éthique soulève des inquiétudes quant à la capacité de Google à s'autocontrôler.

Ces problèmes persistants, ainsi que les problèmes de la société mère de Google récente inculpation antitrustdémontrent qu'il ne suffit pas de se concentrer sur une IA responsable pour empêcher les grandes entreprises technologiques d'être "mal."

En fait, la plus grande contribution de Google à l'innovation responsable est venue des efforts locaux de ses propres employés. Cela suggère que l'innovation responsable peut devoir se développer de bas en haut. Mais c'est un défi de taille à une époque où licenciements massifs dans l'industrie technologique.

Éthique-lavage

Le Code d'éthique et de conduite professionnelle de l'Association for Computing Machinery stipule que les professionnels de la technologie ont la responsabilité de défendre le bien public lorsqu'ils innovent. Mais sans le soutien de leurs supérieurs, les conseils d'experts en éthique et la réglementation des agences gouvernementales, qu'est-ce qui motive les professionnels de la technologie à être "bons" ? Peut-on faire confiance aux entreprises technologiques pour s'auto-auditer ?

Un autre problème lié à l'auto-vérification est lavage-éthique, où les entreprises ne se soucient que du bout des lèvres de l'éthique. Les efforts d'innovation responsable de Meta en sont un bon exemple.

En juin 2021, le meilleur responsable de la conception de produits de Meta a félicité l'équipe d'innovation responsable elle a contribué au lancement en 2018, vantant "l'engagement de Meta à prendre les décisions les plus éthiquement responsables possibles, chaque jour". En septembre 2022, son équipe avait été dissoute.

Aujourd'hui, l'innovation responsable est utilisée comme slogan marketing dans la boutique Meta. L'équipe d'IA responsable de Meta a également été dissoute en 2021 et intégrée à Groupe d'impact social de Metaqui aide les organisations à but non lucratif à tirer parti des produits Meta.

Ce passage de l'innovation responsable à l'innovation sociale est une tactique de lavage de l'éthique qui masque les comportements contraires à l'éthique en transformant le sujet en philanthropie. Pour cette raison, il est essentiel de distinguer « tech for good » comme la conception responsable de la technologie de l'expression désormais courante des relations publiques philanthropiques "la technologie pour le bien."

Innovation responsable vs profit

Sans surprise, les appels les plus sophistiqués à l'innovation responsable sont venus de l'extérieur de la culture d'entreprise.

Les principes décrites dans un livre blanc du Conseil des technologies de l'information et des communications (CTIC), un organisme canadien à but non lucratif, parle de valeurs telles que la conscience de soi, l'équité et la justice, des concepts plus familiers aux philosophes et aux éthiciens qu'aux PDG et aux fondateurs.

Les principes du CTIC appellent les développeurs de technologies à aller au-delà de l'atténuation des conséquences négatives et à travailler pour inverser les déséquilibres de pouvoir social.

On peut se demander comment ces principes s'appliquent aux développements récents de l'IA générative. Quand OpenAI prétend être "développer des technologies qui autonomisent tout le monde", qui est inclus dans le terme "tout le monde ?" Et dans quel contexte ce « pouvoir » sera-t-il exercé ?

Ces questions reflètent le travail de philosophes tels que Ruha Benjamin et Villes d'Armond qui se méfient du terme « tout le monde » dans ces contextes, et qui remettent en question l'identité même de l'« humain » dans technologie centrée sur l'humain.

De telles considérations ralentiraient la course à l'IA, mais ce ne serait peut-être pas un résultat si terrible.

Tensions sur les valeurs

Il y a un tension persistante entre évaluation financière et valeurs morales dans l'industrie technologique. Des initiatives d'innovation responsable ont été mises en place pour masser ces tensions, mais ces efforts sont récemment balayés.

La tension est palpable dans la réponse des experts conservateurs américains à la récente faillite de la Silicon Valley Bank. Plusieurs piliers républicains, dont Donald Trump, ont à tort imputé la tourmente à la banque "réveillé les perspectives" et son engagement à investissement responsable et initiatives d'équité.

Dans les paroles de Bernie Marcus, co-fondateur de Home Depot"ces banques sont mal gérées parce que tout le monde se concentre sur la diversité et tous les problèmes éveillés", plutôt que sur ce que Trump appelle "pratiques commerciales de bon sens."

L'avenir de l'innovation responsable peut dépendre de la manière dont les soi-disant « pratiques commerciales de bon sens » peuvent être influencées par des problèmes dits « éveillés » comme les préoccupations éthiques, sociales et environnementales. Si l'éthique peut être balayée en la rejetant comme « éveillée », l'avenir de l'innovation responsable est à peu près aussi prometteur que celui du CD-ROM.

Fourni par La Conversation

Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.La conversation

Citation: La course aux armements de l'IA met en évidence le besoin urgent d'innovation responsable (2023, 20 mars) récupéré le 21 mars 2023 sur

Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top