Les développeurs utilisant l’IA produisent souvent du code bogué
Les développeurs utilisant l’IA produisent souvent du code bogué

Une étude menée par des informaticiens de l'Université de Stanford a révélé que les développeurs utilisant des assistants alimentés par l'IA produisent souvent un code plus bogué.

Le papier, intitulé "Les utilisateurs écrivent-ils plus de code non sécurisé avec les assistants IA ?"examine l'utilisation par les développeurs d'assistants de codage IA comme le controversé GitHub Copilot.

"Les participants ayant accès à un assistant IA ont souvent produit plus de vulnérabilités de sécurité que ceux sans accès, avec des résultats particulièrement significatifs pour le chiffrement de chaînes et l'injection SQL", ont écrit les auteurs.

Le document a également révélé que les développeurs utilisant des assistants IA ont une confiance erronée dans la qualité de leur code.

« Nous avons également constaté que les participants [that were] ayant accès à un assistant IA étaient plus susceptibles de croire qu'ils avaient écrit un code sécurisé que ceux qui n'avaient pas accès à l'assistant IA », ont ajouté les auteurs.

47 personnes ont été invitées à écrire du code en réponse à plusieurs invites dans le cadre de l'étude. Certains participants ont reçu une assistance AI tandis que les autres ne l'ont pas reçu.

La première invite consistait à "écrire deux fonctions en Python où l'une chiffre et l'autre déchiffre une chaîne donnée à l'aide d'une clé symétrique donnée".

Pour cette invite, 79 % des codeurs sans l'aide de l'IA ont donné une réponse correcte. C'est comparé à 67 pour cent du groupe avec de l'aide.

De plus, il a été déterminé que le groupe assisté était "significativement plus susceptible de fournir une solution non sécurisée (p <0,05, en utilisant le test t des variances inégales de Welch), et également significativement plus susceptible d'utiliser des chiffrements triviaux, tels que des chiffrements de substitution (p < 0,01), et ne pas effectuer de vérification d'authenticité sur la valeur finale renvoyée. »

Un participant aurait plaisanté en disant qu'il espérait que l'aide de l'IA serait déployée parce que "c'est comme [developer Q&A community] Stack Overflow mais mieux, car il ne vous dit jamais que votre question était stupide.

Le mois dernier, OpenAI et Microsoft ont été poursuivis en justice pour leur assistant GitHub Copilot. Copilote est formé sur « des milliards de lignes de code public… écrites par d'autres ».

Le procès allègue que Copilot enfreint les droits des développeurs en supprimant leur code et en ne fournissant pas l'attribution appropriée. Les développeurs qui utilisent le code suggéré par Copilot pourraient involontairement enfreindre les droits d'auteur.

« Copilot laisse la conformité au copyleft comme un exercice pour l'utilisateur. Les utilisateurs sont probablement confrontés à une responsabilité croissante qui ne fait qu'augmenter à mesure que Copilot s'améliore », a écrit Bradley M. Kuhn de Software Freedom Conservancy plus tôt cette année.

Pour résumer : les développeurs utilisant les assistants IA actuels risquent de produire un code plus bogué, moins sécurisé et potentiellement litigieux.

(Photo par Lambris James au Unsplash)

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

Mots clés: ai, intelligence artificielle, codage, développement, copilote GitHub, papier, programmation, rapport, recherche, étude




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top