Explorer l’éthique dans l’IA et les garde-fous nécessaires
Explorer l’éthique dans l’IA et les garde-fous nécessaires

Le point de bascule entre l'acceptabilité et l'antipathie en ce qui concerne les implications éthiques de l'intelligence artificielle a longtemps été débattu. Récemment, les lignes semblent de plus en plus floues ; L'art généré par l'IA, ou la photographie, sans parler des possibilités de ChatGPT d'OpenAI, révèle une plus grande sophistication de la technologie. Mais à quel prix ?

Une récente table ronde au Salon de l'IA et du Big Data` à Londres a exploré ces zones grises éthiques, de la lutte contre les préjugés inhérents aux mécanismes d'entreprise et l'atténuation du risque de pertes d'emplois.

James Fletcher dirige l'application responsable de l'IA à la BBC. Son travail consiste, comme il le dit, à 's'assurer que [the BBC] ce que nous faisons avec l'IA s'aligne sur nos valeurs.' Il dit que le but de l'IA, dans le contexte de la BBC, est d'automatiser la prise de décision. Pourtant, l'éthique est un défi sérieux et il est plus facile d'en parler que d'agir – en partie à cause du rythme du changement. Fletcher a pris trois mois de congé parental, et les changements à son retour, tels que Stable Diffusion, "l'ont époustouflé [as to] à quelle vitesse cette technologie progresse.

"Je crains un peu que le train s'éloigne un peu en termes d'avancement technologique, de l'effort requis pour résoudre ces problèmes difficiles", a déclaré Fletcher. "C'est un défi socio-technique, et c'est la partie sociale qui est vraiment difficile. Nous devons nous engager non seulement en tant que technologues, mais en tant que citoyens.

Daniel Gagar de PA Consulting, qui a animé la session, a noté l'importance de « où s'arrête la responsabilité » en termes de responsabilité, et pour des conséquences plus graves telles que l'application de la loi. Priscila Chaves Martinez, directrice du Bureau de gestion de la transformation, a tenu à pointer du doigt des inégalités intrinsèques qui seraient difficiles à résoudre.

"Je pense que c'est une grande amélioration, le fait que nous ayons pu progresser d'un point de vue de principe", a-t-elle déclaré. "Ce qui m'inquiète le plus, c'est que cette vague de principes sera diluée sans un sens fondamental qu'elle s'applique différemment à chaque communauté et à chaque pays." En d'autres termes, ce qui fonctionne en Europe ou aux États-Unis peut ne pas s'appliquer aux pays du Sud. "Partout où nous incorporons des humains dans l'équation, nous aurons des préjugés", a-t-elle ajouté, faisant référence à l'argument socio-technique. "Donc social d'abord, technique ensuite."

"Il y a un besoin d'inquiétude et un besoin d'avoir un dialogue ouvert", a commenté Elliot Frazier, responsable de l'infrastructure d'IA à la AI for Good Foundation, ajoutant qu'il était nécessaire d'introduire des cadres et des principes dans la communauté élargie de l'IA. "Pour le moment, nous accusons un retard considérable en matière de pratiques standard, de méthodes standard d'évaluation des risques", a ajouté Frazier.

« Je préconiserais [that] comme point de départ - en fait, s'asseoir au début de tout projet d'IA, évaluer les risques potentiels. Frazier a noté que la fondation regarde dans ce sens avec une IA programme d'audit éthique où les organisations peuvent obtenir de l'aide sur la façon dont elles construisent les bonnes questions principales de leur IA et pour s'assurer que la bonne gestion des risques est en place.

Pour Ghanasham Apte, responsable de l'analyse et de la personnalisation du comportement des développeurs d'IA chez BT Group, tout est une question de garde-corps. "Nous devons réaliser que l'IA est un outil - c'est un outil dangereux si vous l'appliquez de la mauvaise manière", a déclaré Apte. Pourtant, avec des étapes telles que IA explicableou en veillant à ce que les biais dans les données soient pris en compte, plusieurs garde-corps sont "le seul moyen de surmonter ce problème", a ajouté Apte.

Chaves Martinez, dans une certaine mesure, n'était pas d'accord. "Je ne pense pas que l'ajout de plus de garde-corps soit suffisant", a-t-elle commenté. « C'est certainement le bon premier pas, mais ce n'est pas suffisant. Ce n'est pas une conversation entre les scientifiques des données et les utilisateurs, ou les décideurs politiques et les grandes entreprises ; c'est une conversation de l'ensemble de l'écosystème, et tout l'écosystème n'est pas bien représenté.

Les garde-corps peuvent être une étape utile, mais Fletcher, à son point de départ, a noté que les poteaux de but continuent de changer. « Nous devons être vraiment conscients des processus qui doivent être mis en place pour garantir que l'IA est responsable et contestable ; qu'il ne s'agit pas seulement d'un cadre dans lequel nous pouvons cocher les choses, mais d'un engagement continu et continu », a déclaré Fletcher.

"Si vous pensez à des choses comme les préjugés, ce que nous pensons maintenant n'est pas ce que nous en pensions il y a cinq ou dix ans. Il y a un risque si nous adoptons l'approche solutionniste, nous créons un type de biais dans l'IA, alors nous avons des problèmes [and] nous aurions besoin de réévaluer nos hypothèses.

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

Mots clés: salon ai & big data, éthique




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top