Ascoltare, parlare e scrivere
32 Omologazione, invisibilità e oltre, verso un’IA etica
Omologazione
Molto denaro, risorse informatiche, tempo e impegno sono profusi nella creazione di serie di dati, benchmark e algoritmi per l’apprendimento automatico. Ciò vale in particolar modo per l’apprendimento profondo e i modelli di grandi dimensioni. È pertanto logico che le risorse create siano condivise in questo ecosistema. È il caso di molti sistemi di apprendimento automatico che spesso usiamo. Anche laddove i prodotti finali sono diversi e sono creati da società diverse, la metodologia, gli insiemi di dati, le librerie per l’apprendimento automatico e le valutazioni sono spesso condivisi1. Pertanto si continua a ragionare sul fatto che, in condizioni analoghe, i loro output debbano essere simili.
Se l’output è una decisione in materia didattica, ciò è motivo di preoccupazione, per esempio, per studenti che potrebbero essere esclusi in modo iniquo da tutte le opportunità di apprendimento1. Ma se l’omologazione prodotta dagli algoritmi costituisca un’ingiustizia può essere deciso soltanto caso per caso1.
D’altra parte, se il compito del sistema è aiutare lo studente a scrivere, l’accento viene a porsi sulla standardizzazione degli stili di scrittura, della terminologia e pertanto dei modelli di pensiero. I modelli linguistici utilizzati in questi casi vengono decisi in modo da prevedere i testi più probabili sulla base delle serie di dati di addestramento usati. Queste serie di dati, se non sono condivise tra sistemi, sono congegnate in un modo simile, spesso con dati pubblici tratti da Internet. Anche quando questi dati sono controllati per scongiurare la presenza di preconcetti, pregiudizi e contenuti estremi, ciò rappresenta solo un piccolo ecosistema e non il mondo in tutta la sua diversità di idee, cultura e pratiche. I sistemi di testi predittivi fondati sull’apprendimento profondo utilizzati per messaggi di testo ed e-mail si sono dimostrati in grado di cambiare il modo in cui le persone scrivono: il modo di scrivere tende ad essere «più stringato, più prevedibile e meno vivace»2.
Le sequenze di parole che vengono ripetute nei dati di addestramento scendono a cascata nell’output dei grandi modelli linguistici. Pertanto i valori dei creatori dei database acquisiscono il potere di ridurre la diversità di opinioni e la pluralità di espressione delle idee. Senza dei corretti interventi pedagogici, ciò a propria volta potrebbe limitare la creatività e l’originalità degli studenti, non soltanto portando a uno stile di scrittura stereotipato, ma in ultimo generando cittadini con una ridotta capacità di pensiero critico e quindi nel complesso un mondo meno variegato3.
Invisibilità
Strettamente correlato con molte delle ricadute negative dell’apprendimento automatico, ivi compresa l’omologazione sopra menzionata, è il fatto che le tecnologie sono divenute così progredite che l’interfaccia uomo-macchina non ha interruzioni ed è praticamente invisibile. Che si tratti dei motori di ricerca incorporati nella barra degli indirizzi della finestra di un browser o di una funzione di predizione del testo che funziona in modo intuitivo senza sfasamento temporale tra la scrittura, la predizione e la scelta di suggerimenti, spesso agiamo sotto l’influenza della tecnologia senza esserne coscientemente consapevoli o avere la scelta di fermarci a riflettere sulle situazioni e prendere le nostre decisioni. Inoltre, quando ne facciamo abitualmente uso per assumere delle decisioni, tendiamo a dimenticarci completamente della sua esistenza4. «Una volta che ci siamo abituati all’uso delle tecnologie smettiamo di considerarle e invece, attraverso di esse, cerchiamo le informazioni e le attività per facilitare le quali ne facciamo uso». Ciò fa sorgere serie preoccupazioni relativamente al libero arbitrio, alla trasparenza e alla fiducia, soprattutto quando sono coinvolte giovani menti, pertanto gli esperti hanno raccomandato che le interfacce siano rese più visibili e persino meno facili da utilizzare4.
Cosa c’è dietro: un’IA etica
In ogni parte di questo manuale open source, abbiamo discusso dell’impatto di natura pedagogica, etica e sulla società dell’IA, soprattutto dell’IA basata sui dati. Il rapporto tra dati e privacy, l’affidabilità dei contenuti e l’autonomia dell’utente, l’impatto sull’identità personale, il rapporto tra pregiudizi e imparzialità e il libero arbitrio sono tutti temi che sono stati discussi nelle pagine ad essi dedicate. Problematiche specificamente connesse con i motori di ricerca sono state discusse in Dietro la lente d’ingrandimento di Ricerca: effetti delle ricerche sull’individuo e sulla società, i problemi relativi ai sistemi adattivi sono stati affrontati ne Il rovescio della medaglia dei sistemi di apprendimento adattivi e quelli specifici dell’IA generativa all’interno del capitolo intitolato L’IA degenerativa. In svariati punti del libro abbiamo considerato gli interventi correttivi che possono essere assunti in aula per affrontare problemi specifici. La nostra speranza è che queste misure divengano meno onerose quando avremo sistemi di IA applicata all’istruzione etici e affidabili. Questa IA etica sarà sviluppata, implementata e utilizzata conformemente a norme e principi etici5 e sarà affidabile e resiliente.
Dal momento che cediamo così tanto potere ai modelli di IA e ai loro programmatori, venditori e valutatori, è più che ragionevole chiedere loro di essere trasparenti, assumersi le proprie responsabilità e porre rimedio ai propri errori quando le cose vanno male6. Abbiamo bisogno di accordi sul livello di servizio che evidenzino chiaramente “i servizi di assistenza e manutenzione e le azioni da intraprendere per risolvere i problemi segnalati”5.
Un’IA resiliente accetterebbe le proprie imperfezioni, le prevederebbe e continuerebbe a funzionare nonostante esse. Dei sistemi di IA resilienti si guasterebbero in modo prevedibile e comprenderebbero dei protocolli per sanare questi guasti6.
Nel campo dell’istruzione, un’IA etica sarebbe guidata da dei principi di progettazione incentrati sull’utente e prenderebbe in considerazione tutti gli aspetti dell’istruzione7. Gli insegnanti sarebbero in grado di analizzarne il funzionamento, comprenderne le spiegazioni, ignorarne le decisioni o mettere in pausa il suo utilizzo senza difficoltà8. Questi sistemi ridurrebbero il carico di lavoro degli insegnanti, fornirebbero loro delle informazioni dettagliate sui loro studenti e li sosterrebbero nel valorizzare la portata e la qualità dell’istruzione8. Non provocherebbero danni agli utenti e all’ambiente e migliorerebbero il benessere sociale ed emozionale di discenti e docenti5.
Fino all’avvento di tale giorno, un insegnante dovrà cercare di sviluppare attorno a sé una comunità di colleghi e pedagogisti e di farvi attivamente parte in modo da sollevare la consapevolezza riguardo ai problemi, condividere esperienze e pratiche migliori e individuare dei fornitori di IA affidabili. Gli insegnanti potrebbero inoltre coinvolgere studenti e genitori in discussioni e decisioni per affrontare meglio diverse preoccupazioni e sviluppare un’atmosfera di confidenza e cameratismo. Otterrebbero servizi migliori facendo del proprio meglio per rimanere aggiornati sulle ultime tendenze dell’AIED e acquisendo competenze quando e dove possibile5.
1 Bommasani, R., et al, Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?, Advances in Neural Information Processing Systems, 2022
2 Varshney, L., Respect for Human Autonomy in Recommender System, 3rd FAccTRec Workshop on Responsible Recommendation, 2020.
3 Holmes, W., Miao, F., Guidance for generative AI in education and research, UNESCO, Paris, 2023.
4 Susser, D., Invisible Influence: Artificial Intelligence and the Ethics of Adaptive Choice Architectures, Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, Association for Computing Machinery, New York, 403–408, 2019.
5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022
6 Schneier, B., Data and Goliath: The Hidden Battles to Capture Your Data and Control Your World, W. W. Norton & Company, 2015.
7 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.
8 U.S. Department of Education, Office of Educational Technology, Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations, Washington, DC, 2023.