Gérer l’éducation

18 Problèmes liés aux données : identité personnelle

Des données nous concernant sont collectées sans cesse par le biais de nos smartphones et de nos ordinateurs. L’interprétation de ces données dépend de la personne qui les enregistre et de la personne qui les consulte. Prenons un exemple. Google crée sa version numérique de nous, lidentité numérique, à partir de ce que nous faisons sur ses plateformes. Il nous étiquette en fonction de ces données pour réorganiser, ensuite, en conséquence ce que nous voyons sur ses moteurs de recherche et ses applications. Il nous « revend » à des entreprises, qui cherchent probablement à nous revendre leurs produits ou leurs prestations.

Activité

Accédez à votre profil “Ad Settings” [Paramètres des publicités] sur Google, Facebook ou Instagram. Ou bien, si vous utilisez régulièrement une autre plateforme, recherchez leurs paramètres des annonces et vérifiez si vous pouvez y accéder. Ils font partie de notre identité numérique.

Questions à traiter :

  • A quoi ressemble votre “identité numérique“ ? Reflète-t-elle vos données démographiques et vos intérêts ? Êtes-vous d’accord avec cette identité ?
  • A votre avis, comment Google a-t-il pris une décision concernant chacun de ces intérêts ? Quelles données auraient-elles pu être prises en considération ? Ces catégories d’intérêts changent fréquemment et sont récurrentes et un intérêt auquel vous êtes associé peut déterminer le type d’intérêt auquel vous allez être associé la fois suivante, du point de vue de la publicité. Qu’est-ce que cela nous dit sur le profilage ?
  • Partagez-vous l’opinion de certains scientifiques, comme Cheney-Lippold et Bassett, selon lesquels ceci comporte une réduction excessive de l’identité ? En quoi cela représente une préoccupation éthique ?
  • D’un point de vue éthique, est-il plus important que ces profils interprètent “correctement” ou “de manière erronée” vos intérêts ?
  • Votre genre et votre origine ethnique jouent-il un rôle dans la manière dont vous êtes étiqueté(e) ? Qu’est-ce que vous ressentez à ce sujet ?

Cette activité a été adaptée à partir de Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User.”, faisant l’objet de la licence CC BY NC 4.01.

Les étiquettes que Google nous attribue – homme, femme, jeune ou âgé- n’ont rien à voir avec notre identité, nos besoins ou nos valeurs. Une personne peut être de sexe masculin si elle regarde certains types de sites (par ex. des sites de vente de matériel de bricolage) et achète certains produits2. Demain, un homme pourra devenir une femme si son activité ou si l’activité d’un million d’autres êtres humains qui ont contribué à la définition du comportement masculin change. L’identité que nous attribuent certaines entreprises peut varier en fonction de ses propres intérêts.

Il en va de même de nos étudiants lorsqu’ils interagissent avec un logiciel d’apprentissage personnalisé et qu’ils font l’objet d’analyses d’apprentissage. Leur identité numérique, leurs performances, leur engagement et leur satisfaction, tels qu’ils sont perçus par ces systèmes, sont ensuite utilisés pour évaluer non seulement leur propre performance, mais aussi celle de leurs collègues, de leurs enseignants, de leurs écoles et du système éducatif lui-même3.

Pourquoi est-ce un problème ?

  1. Ces profils se fondent souvent sur des données « bruyantes » et inexactes provenant de différentes sources et peuvent être extrêmement trompeurs4.
  2. Ces identités numériques peuvent varier en fonction de la perception que l’élève a de lui/elle-même et des autres, de la manière dont les enseignants voient chaque élève, de la manière dont le système perçoit chaque enseignant, dont la société considère la pédagogie et l’éducation et dont chacun réagit aux décisions et aux retours d’expérience3.
  3. Et pourtant, ces jugements sur la personnalité d’un individu sont émis à l’insu de celui-ci et sans son consentement, par des boîtes noires auxquelles personne n’a accès. Souvent, il n’y a aucun contrôle sur les données enregistrées, sur le lieu et le moment de l’enregistrement et sur la manière dont les décisions sont prises à partir de ces données4,1.
    Les étudiants et les enseignants perdent leur pouvoir de s’exprimer et leur agentivité.
  4. Ces données et ces jugements ont tendance à persister, en tant que données stockées, bien après que l’événement qui a été enregistré s’est produit4.
  5. L’accent mis sur la mesure des performances, qui fait que les étudiants, les enseignants et le personnel sont constamment évalués, comparés et classés, peut susciter des réactions telles que l’anxiété et l’esprit de compétition au lieu de stimuler la motivation et le développement3.
  6. Les aspects de l’éducation qui peuvent être immédiatement saisis et analysés prennent plus d’importance et nous poussent à rechercher d’autres résultats et à adopter des méthodes différentes de ceux/celles qui nous paraîtraient important(e)s par ailleurs.
  7. Les entités qui ont recours à la “dataification” ont le pouvoir de définir “ce qui ‘compte’ en termes d’éducation de qualité ou de définition d’un bon élève ou d’un enseignant efficace3.”

Voici quelques contremesures que les experts encouragent les enseignants à adopter :

  1. Prendre en considération les individus, leur identité, intégrité et dignité : “Approcher les gens en respectant leur valeur intrinsèque et non pas en tant qu’objets de données ou un moyen pour parvenir à une fin”5. Les personnes ne sont pas que des données ; l’étiquette qu’un logiciel peut attribuer à des élèves pour personnaliser leurs parcours pédagogiques ou les répartir en groupes ne correspond pas à leur identité réelle5.
  2. Savoir gérer et interpréter les données : apprendre à manier les données correctement. Apprendre à quoi servent les différents systèmes basés sur les données, comment ils fonctionnent, quel est leur usage recommandé et comment interpréter les informations qu’ils génèrent et les décisions qu’ils prennent.
  3. Garder une distance critique vis-à-vis des entreprises et des logiciels de l’AIED : remettre en question leurs revendications, demander des preuves de leur validité et de leur fiabilité, vérifier si le système est conforme aux directives de votre institution et de votre pays en matière d’éthique3.
  4. Vérifier les effets que ces systèmes produisent sur vous, sur vos élèves, sur leur apprentissage et l’ambiance dans la classe.
  5. Exiger des systèmes ouverts, que vous pouvez maîtriser et qui vous permettent de passer outre les décisions automatisées. Intervenir, expliquer ou passer outre chaque fois que vous l’estimez nécessaire.

Kant, T., Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User. MIT Case Studies in Social and Ethical Responsibilities of Computing, 2021

Cheney-Lippold, J., We Are Data: Algorithms and the Making of Our Digital Selves, NYU Press, 2017

Williamson, B., Bayne, S., Shay, S., The datafication of teaching in Higher Education: critical issues and perspectives, Teaching in Higher Education, 25:4, 351-365, 2020

4 Kelleher, J.D, Tierney, B, Data Science, MIT Press, London, 2018.

5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

IA pour les enseignants : un manuel ouvert Copyright © 2024 by Colin de la Higuera et Jotsna Iyer is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre