


Comme indiqué le 6 août, Zoom a récemment tenté de réécrire ses conditions d'utilisation avec un langage ambigu qui permettrait l'extraction de données utilisateur à des fins de formation à l'IA.
Cependant, après refus public, Zoom a commencé à rectifier cette clause dès le lendemains'engageant pleinement à un ensemble de politiques "pas de formation à l'IA" d'ici le 11 août.
Même si Zoom a reculé cette fois, leur volonté de collecter des données met en évidence la possibilité d'une future extraction de données cachées par eux et d'autres grandes entreprises technologiques.
Plus précisément, en tant que chercheur travaillant avec et examinant les communautés autochtones et leurs données, je suis préoccupé par la confidentialité de ces précieux ensembles de données provenant des communautés autochtones de l'île de la Tortue.
Savoir autochtone vulnérable
Au cours des trois dernières années, les appels Zoom sont devenus un outil d'organisation et d'activisme pour de nombreuses communautés autochtones.
Pour mon propre travail, j'utilise le chat vidéo et vocal qui nous permet d'équilibrer les différences géographiques pour collaborer et partager, ainsi que d'accéder à des communautés difficiles à atteindre. Discuter de problèmes avec des membres de la communauté queer de différentes nations autochtones est souvent privé et peut-être même sacré.
Ces conversations comportent des éléments auxquels le public est confronté, mais elles contiennent également la sagesse d'Aînés ou de gardiens du savoir spécialement formés pour savoir ce qu'ils peuvent et ne peuvent pas partager dans des espaces spécifiques. Certaines de ces connaissances sont sacrées et font partie de la promotion et de la préservation des modes d'être autochtones (et parfois queer).
Une denrée précieuse
Ces informations privées risquent constamment d'être extraites par des entreprises cherchant à monétiser ou à tirer profit de nos données.
Les connaissances autochtones représentent une grande lacune dans les mégadonnées actuelles. L'IA ne fonctionne qu'avec de grands ensembles de données, ce qui permet à la technologie prédictive de fonctionner.
Avec des connaissances qui sont principalement orales, il est difficile de rassembler des ensembles de données appropriés qui proviennent souvent de l'écrit. La possibilité pour les grandes entreprises de collecter des données audio et visuelles, pourrait rendre ces informations orales visibles par les machines.
Protéger les communautés
"Refuser la recherche" a été un concept important pour protéger les communautés marginalisées des pratiques extractives des chercheurs visant à obtenir des données.
Cependant, si des plateformes extraient des données à notre insu, ou demandent notre consentement pour utiliser un service, un conflit surgit.
Le conflit devient l'un des libre choix contre liberté de partir: Si nous ne consentons pas à utiliser l'infrastructure, nous n'avons tout simplement pas accès à ce service. L'accès à l'infrastructure de partage de voix et de vidéos a été un élément fondamental de l'activisme et de la recherche communautaire, en particulier après la COVID-19.
Pouvons-nous nous désinscrire ?
Peut-on accepter ou refuser d'être transformé en données de recherche ?
Même s'il existe un élément d'autorisations, les organisations collectent souvent nos données en échange de l'utilisation de leurs services. Par exemple, Fitbit rassemble des quantités massives de données sur la santé des utilisateurs (avec autorisation) qui peuvent être utilisées pour former l'IA.
Chaque individu qui opte pour presque n'importe quel grand service est suivi dans une certaine mesure. Et donc, il doit y avoir un élément critique de ce qui est considéré comme privé.
De même, Zoom a la capacité de collecter ces données, qu'ils les utilisent ou non pour l'IA avec leur consentement. Il y a une inquiétude que la prochaine fois, l'ambiguïté passe inaperçue ou force peut-être le consentement pour accéder à un service apparemment nécessaire.
En tant que personne qui s'intéresse à la collecte et à la mobilisation éthiques des données, je pense que nous devons tous critiquer ces demandes d'accès à nos données privées lors de l'utilisation de ces services.
Un accès crucial aux données
La relation entre les données et les communautés autochtones et le gouvernement canadien a toujours été tendue. Cependant, après les travaux du Commission vérité et réconciliation au Canada (qui s'est terminée en 2015), il est devenu encore plus clair que l'accès aux données et à l'information est crucial pour parvenir à la justice et à la vérité en ce qui concerne nos histoires.
Pour les peuples autochtones dont l'histoire a été systématiquement effacée, exiger que les organisations retournent les dossiers et les données est devenu un élément important pour découvrir la vérité sur les expériences des survivants des pensionnats indiens. Les communautés ont à la fois le désir et le besoin de voir leurs données retournées afin qu'elles puissent maintenir propriété, contrôle, accès et gestion des autorisations pour accéder aux informations.
Facilité de zoom pour la communication
La collaboration en personne entre les communautés autochtones peut être difficile en raison de facteurs tels que les différences géographiques, le manque de transports en commun et les interruptions de la souveraineté autochtone. Ces problèmes perpétuent la fragmentation sociale et politique causée par le colonialisme des colons pour isoler ces communautés les unes des autres.
Bon nombre de ces défis ont été atténués par des technologies de l'information comme Zoom. Et une plate-forme comme Zoom a potentiellement unifié en reliant l'espace. Cependant, cela pourrait aussi devenir un outil pour recréer le problème de l'extraction de données d'une nouvelle manière.
Nous devons être attentifs à ces types de possibilités de collecte de données qui offrent d'extraire des données des utilisateurs.
Ces infrastructures technologiques peuvent nuire de manière disproportionnée aux communautés autochtones en rendant leurs connaissances privées et sacrées lisibles par l'IA. La collecte de données pour l'IA pourrait conduire à la marchandisation de ce savoir sacré à des fins lucratives.
La protection de ce type de données n'est pas seulement la responsabilité des communautés autochtones, mais un engagement partagé qui a une urgence présente et future.
Cet article est republié de La conversation sous licence Creative Commons. Lis le article original.
Citation: La proposition abandonnée de Zoom d'exploiter les données des utilisateurs suscite des inquiétudes concernant les connaissances autochtones virtuelles et privées (16 août 2023) récupéré le 20 août 2023 sur
Ce document est soumis au droit d'auteur. En dehors de toute utilisation loyale à des fins d'étude ou de recherche privée, aucune partie ne peut être reproduite sans l'autorisation écrite. Le contenu est fourni seulement pour information.
Source