Évaluer les risques de l’IA générative sur le lieu de travail
Évaluer les risques de l’IA générative sur le lieu de travail

Au milieu de la croissance exponentielle de l'IA générative, il est urgent d'évaluer les implications juridiques, éthiques et de sécurité de ces solutions sur le lieu de travail.

L'une des préoccupations soulignées par les experts de l'industrie est souvent le manque de transparence concernant les données sur lesquelles de nombreux modèles d'IA générative sont formés.

Il n'y a pas suffisamment d'informations sur les spécificités des données de formation utilisées pour des modèles tels que GPT-4, qui alimentent des applications telles que ChatGPT. Ce manque de clarté s'étend au stockage des informations obtenues lors des interactions avec les utilisateurs individuels, ce qui soulève des risques juridiques et de conformité.

Le potentiel de fuite de données ou de code sensibles de l'entreprise par le biais d'interactions avec des solutions d'IA génératives est une préoccupation majeure.

"Les employés individuels peuvent divulguer des données ou du code sensibles de l'entreprise lorsqu'ils interagissent avec des solutions d'IA génératives populaires", déclare Vaidotas Šedys, responsable de la gestion des risques chez Oxylabs.

"Bien qu'il n'y ait aucune preuve concrète que les données soumises à ChatGPT ou à tout autre système d'IA générative puissent être stockées et partagées avec d'autres personnes, le risque existe toujours car les logiciels nouveaux et moins testés présentent souvent des failles de sécurité."

OpenAI, l'organisation derrière ChatGPT, a fait preuve de prudence en fournissant des informations détaillées sur la manière dont les données des utilisateurs sont traitées. Cela pose des défis aux organisations qui cherchent à atténuer le risque de fuite de fragments de code confidentiels. Une surveillance constante des activités des employés et la mise en place d'alertes pour l'utilisation de plateformes d'IA génératives deviennent nécessaires, ce qui peut être fastidieux pour de nombreuses organisations.

"D'autres risques incluent l'utilisation d'informations erronées ou obsolètes, en particulier dans le cas de spécialistes débutants qui sont souvent incapables d'évaluer la qualité des résultats de l'IA. La plupart des modèles génératifs fonctionnent sur des ensembles de données volumineux mais limités qui nécessitent une mise à jour constante », ajoute Šedys.

Ces modèles ont une fenêtre de contexte limitée et peuvent rencontrer des difficultés lorsqu'ils traitent de nouvelles informations. OpenAI a reconnu que son dernier cadre, GPT-4, souffre toujours d'inexactitudes factuelles, ce qui peut conduire à la diffusion d'informations erronées.

Les implications s'étendent au-delà des entreprises individuelles. Par exemple, Stack Overflow - une communauté de développeurs populaire - a temporairement interdit l'utilisation du contenu généré avec ChatGPT en raison de taux de précision faibles, ce qui peut induire en erreur les utilisateurs à la recherche de réponses de codage.

Les risques juridiques entrent également en jeu lors de l'utilisation de solutions d'IA génératives gratuites. Le copilote de GitHub a déjà fait l'objet d'accusations et de poursuites pour avoir incorporé des fragments de code protégés par des droits d'auteur provenant de référentiels publics et open source.

"Étant donné que le code généré par l'IA peut contenir des informations exclusives ou des secrets commerciaux appartenant à une autre société ou personne, la société dont les développeurs utilisent ce code peut être tenue responsable de la violation des droits de tiers", explique Šedys.

"De plus, le non-respect des lois sur le droit d'auteur pourrait affecter l'évaluation de l'entreprise par les investisseurs s'il est découvert."

Bien que les organisations ne puissent pas réaliser une surveillance totale du lieu de travail, la sensibilisation et la responsabilité individuelles sont cruciales. Sensibiliser le grand public aux risques potentiels associés aux solutions d'IA génératives est essentiel.

Les leaders de l'industrie, les organisations et les individus doivent collaborer pour traiter la confidentialité des données, l'exactitude et les risques juridiques de l'IA générative sur le lieu de travail.

(Photo par Sean Pollock sur Unsplash)

Voir également: Les universités veulent s'assurer que le personnel et les étudiants maîtrisent l'IA

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres. L'événement est co-localisé avec Semaine de la transformation numérique et Salon de la cybersécurité et du cloud.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

  • Ryan Daws

    Ryan est rédacteur en chef chez TechForge Media avec plus d'une décennie d'expérience couvrant les dernières technologies et interviewant des personnalités de premier plan de l'industrie. Il peut souvent être aperçu lors de conférences techniques avec un café fort dans une main et un ordinateur portable dans l'autre. Si c'est geek, il est probablement dedans. Retrouvez-le sur Twitter (@Gadget_Ry) ou Mastodon (@gadgetry@techhub.social)

Mots clés: ai, intelligence artificielle, cybersécurité, cybersécurité, entreprise, éthique, IA générative, infosec, droit, juridique, Société




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top