Gestire l’apprendimento

18 Problemi con i dati: l’identità personale

Dati che ci riguardano sono costantemente registrati attraverso i nostri telefoni e i nostri computer. Questi dati sono interpretati diversamente a seconda di chi li registri e di chi li consulti. Giusto per fare un esempio, Google elabora la sua versione digitale di noi, l’identità digitale, sulla base di ciò che noi facciamo sulle sue piattaforme. Procede a etichettarci sulla base di questi dati e poi riorganizza di conseguenza ciò che vediamo sui suoi motori di ricerca e sulle sue app. Ci vende a società che potrebbero volerci vendere i propri prodotti e i propri servizi.

Attività

Effettuate l’accesso alla sezione “Impostazioni annunci” del vostro profilo su Google, Facebook o Instagram. Oppure, se utilizzate regolarmente un’altra piattaforma, cercate di scoprire se abbia delle impostazioni per gli annunci e se possiate accedervi. Questi dati costituiscono parte della nostra identità digitale.

 

Domande su cui discutere:

  • Che aspetto ha la vostra “identità digitale”? Riflette i vostri dati demografici e i vostri interessi? Vi riconoscete in questa identità?
  • Come ritenete che Google abbia deciso di attribuirvi ciascuno di questi interessi? Quali dati potrebbero essere stati presi in considerazione? Queste categorie di interessi cambiano frequentemente e sono ricorrenti: l’interesse per un annuncio a cui siete associati può determinare la categoria di interessi per annunci in cui sarete inseriti successivamente. Cosa può dirci ciò in merito alla profilazione?
  • Concordate con accademici quali Cheney-Lippold e Bassett che in questo caso ci sia una sovrariduzione di identità? Perché questa è una preoccupazione di carattere etico?
  • Eticamente, importa di più se questi profili captano i vostri interessi “giusti” o “sbagliati”?
  • Genere e razza svolgono un ruolo nel modo in cui siete etichettati? Come vi fa sentire?

Questa attività è stata tratta e adattata da Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User” e pubblicata con licenza CC BY NC 4.0. 1

Le etichette che Google ci attribuisce, maschio, femmina, giovane o vecchio, non hanno nulla a che vedere con le nostre identità, i nostri bisogni o i nostri valori. Una persona può apparire di sesso maschile se consulta determinati siti web (per esempio di negozi di ferramenta) e acquista determinati articoli2. Il giorno successivo questo individuo presunto come di sesso maschile può essere considerato di sesso femminile se la sua attività o le attività di un milione di altri esseri umani che hanno contribuito alla determinazione di cosa fosse un comportamento considerato maschile dovessero cambiare.

Svariate società ci hanno attribuito delle identità completamente diverse sulla base di ciò che interessa a loro.

Lo stesso accade ai nostri studenti quando interagiscono con software di apprendimento personalizzato e sono sottoposti all’analisi dell’apprendimento. La loro identità digitale, le loro prestazioni, il loro impegno e la loro soddisfazione, così come interpretati da questi sistemi, sono poi utilizzati per valutare non solo le loro prestazioni, ma anche quelle dei loro compagni di studi, insegnanti, scuole e del sistema didattico stesso3.

Perché questo costituisce un problema?

  1. Questi profili spesso sono creati sulla base di dati distorti e scorretti provenienti da svariate fonti e possono rivelarsi molto fuorvianti4.
  2. Queste identità digitali possono cambiare il modo in cui uno studente vede sé stesso e gli altri, in cui gli insegnanti vedono ciascuno studente, in cui il sistema vede ciascun insegnante, in cui la società vede l’istruzione e la pedagogia e in cui ognuno reagisce a decisioni e feedback3.
  3. Eppure questi giudizi su chi sia qualcuno sono fatti senza che ne sia a conoscenza e lo autorizzi da black box a cui nessuno ha accesso. Spesso non vi è controllo su quali dati siano registrati, dove e quando siano registrati e su come le decisioni siano assunte basandosi su di essi4,1.

Studenti e insegnanti perdono il proprio potere di espressione e il proprio libero arbitrio.

  1. Questi dati e questi giudizi tendono a permanere come dati archiviati per lungo tempo dopo che l’evento registrato è trascorso4.
  2. Lo stress indotto dai parametri con i quali studenti, insegnanti e personale sono costantemente valutati, raffrontati e classificati, può indurre reazioni come ansia e competitività invece che motivazione e crescita3.
  3. Viene attribuita un’importanza maggiore ad aspetti dell’istruzione che possono essere automaticamente catturati e analizzati ed essi inducono ad esiti e pratiche diversi da quelli che per noi invece potrebbero aver importanza.
  4. Le organizzazioni che effettuano la “datificazione” hanno il potere di stabilire «cosa ‘conta’ in termini di istruzione di qualità, merito degli studenti o validità degli insegnanti»3.

Gli esperti suggeriscono agli insegnanti di assumere delle contromisure, elencate di seguito:

  1. Considerare le persone, la loro identità, la loro integrità e la loro dignità: «Avvicinarsi alle persone in modo rispettoso del loro valore intrinseco e non come a un oggetto di dati o a un mezzo per raggiungere uno scopo»5. Le persone non sono solo dati; l’etichetta che un software potrebbe attribuire agli studenti per personalizzare i percorsi di apprendimento o per dividerli in gruppi non è la loro vera identità5.
  2. Conoscere i dati: imparare come maneggiarli correttamente. Imparare cosa fanno i diversi sistemi di dati, come lo fanno, qual è il loro uso consigliato e come interpretare le informazioni che essi generano e le decisioni che assumono.
  3. Mantenere una distanza critica da società e software di AIED: porre in discussione le loro affermazioni, chiedere prove della loro validità e della loro affidabilità, verificare che il sistema si attenga alle linee guida etiche del proprio istituto e del proprio Paese3.
  4. Monitorare gli effetti che questi sistemi hanno su di sé, sui propri studenti, sul loro apprendimento e sull’atmosfera in aula.
  5. Esigere sistemi aperti che permettano di controllare e non prendere in considerazione decisioni assunte in automatico. Farsi sentire, chiedere spiegazioni o ignorare output ogniqualvolta e laddove se ne avverta la necessità.

Kant, T., Identity, Advertising, and Algorithmic Targeting: Or How (Not) to Target Your “Ideal User. MIT Case Studies in Social and Ethical Responsibilities of Computing, 2021

Cheney-Lippold, J., We Are Data: Algorithms and the Making of Our Digital Selves, NYU Press, 2017

Williamson, B., Bayne, S., Shay, S., The datafication of teaching in Higher Education: critical issues and perspectives, Teaching in Higher Education, 25:4, 351-365, 2020

4 Kelleher, J.D, Tierney, B, Data Science, MIT Press, London, 2018.

5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022

Licenza

Icon for the Creative Commons Attribution 4.0 International License

IA per gli insegnanti: un libro aperto Copyright © by Colin de la Higuera and Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Condividi questo libro