Additional Content

Conoscere i dibattiti sui possibili pericoli dell’IA

Nel marzo del 20231 e poi nel maggio del 20232, sono state pubblicate due petizioni/lettere aperte, firmate in entrambi i casi da centinaia di famosi scienziati ed esperti nel campo dell’IA attivi nel settore, che mettevano in guardia relativamente ad alcuni pericoli insiti nell’IA. Cosa ne sappiamo in proposito?

La questione ha rilevanza per gli insegnanti?

Con studenti più maturi si pone la questione dei rischi posti per la civiltà dall’IA e, anche se nessun insegnante ha l’obbligo di fornire delle risposte risolutive a tutte le domande, è giusto capire come si delinea la controversia.

In quanto insegnanti, ci si dovrebbe limitare a parlare unicamente degli aspetti tecnici di un argomento, lasciando le questioni umane, economiche, filosofiche agli esperti?

Questa domanda è interessante e su di essa le opinioni si dividono. Un insegnante di fisica dovrebbe essere a conoscenza di quanto accaduto a Hiroshima o a Chernobyl? Si dovrebbe discutere in classe di questi argomenti? Oppure, nel caso dell’IA, un insegnante dovrebbe limitarsi a utilizzare i software in modo sicuro e comprendere in linea generale come funzionano? O essere anche in grado di capire i dibattiti in corso sulle questioni poste per la società dall’uso dell’IA?

La posizione dell’Unesco (e di numerosi esperti) è che l’intelligenza artificiale non sia solo tecnologia e che un insegnante debba comprendere le questioni etiche che includono anche quelle inerenti all’impatto che l’IA ha sulla società, la civiltà o l’umanità.

Queste questioni sono nuove?

Alcune delle questioni legate ai pericoli dell’IA si sono poste all’attenzione da tempo. Si è discusso a lungo cosa accada quando l’intelligenza artificiale sia “superiore” all’intelligenza umana. Irving Good4, ex collega di Alan Turing, ha introdotto il concetto di Singolarità tecnologica già nel 1965 per ipotizzare che, quando fosse diventata più intelligente degli umani o super-intelligente, l’IA sarebbe stata inarrestabile. Good ha anche svolto attività di consulenza per Stanley  Kubrick durante la realizzazione di “2001: odissea nello spazio”, un film che tratta (tra l’altro) di come un’IA possa divenire incontrollabile.

Le posizioni

Il testo del primo documento1 metteva in guardia sul fatto che l’IA potesse avere effetti positivi e negativi, che l’impatto sulla società e sui posti di lavoro avrebbe potuto essere considerevole e ha introdotto il concetto che l’IA non solo avrebbe sostituito gli esseri umani nello svolgimento di lavori noiosi e indesiderabili, ma di cosa sarebbe accaduto ai lavori scelti dalle persone. E inoltre, che gli sviluppi dell’IA avrebbero portato a un’evoluzione della società e che non sarebbero stati applicati i consueti meccanismi democratici di cambiamento.

Nel secondo testo2, si sottolineava che il rischio aggiuntivo era quello che l’IA potesse divenire incontrollabile (o delle varianti di questa ipotesi) cosa che avrebbe potuto determinare la fine della civiltà umana.

Dal dibattito emergeva una terza posizione3: quella che l’IA costituiva effettivamente un motivo di preoccupazione, ma non per ragioni esistenziali, dietro le quali si camuffavano i problemi più impellenti.

Il dibattito è terminato?

No, il dibattito non è terminato. Alcuni esperti continuano a sostenere che i rischi siano molteplici, che queste tecnologie si stiano sviluppando troppo velocemente e che bisogni disciplinarle. Altri ritengono che al momento l’IA comporti unicamente benefici, che certamente dovremo prestare attenzione, ma non dobbiamo avere paura.

È difficile affermare quale posizione sia vincente o perdente, chi abbia ragione e chi torto; sotto molti punti di vista il dibattito ricorda quello inerente alla fisica dopo il 1945.

Una posizione comune è chiedere delle normative, anche se non c’è (ancora) una definizione di norme condivise da tutti.

Esiste una posizione valida?

Di fatto, entrambe le posizioni sono probabilmente molto valide. Lo stato attuale delle cose pare propendere per la posizione degli entusiasti (l’IA sta permettendo di compiere progressi fantastici nel campo della medicina, in agricoltura, nell’analisi degli scenari climatici, in ambito linguistico e della comunicazione), ma anche l’argomentazione che noi, come esseri umani, abbiamo sempre trovato delle risposte, presenta considerevoli limiti.

Dove approfondire il dibattito?

Per persone (o insegnanti) dalla mentalità aperta le fonti sono numerose: blog, siti affidabili, documenti programmatici e filmati di esperti eminenti (in ogni campo, anche gli storici e i filosofi hanno molto da dire).

 


1 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

2 https://www.safe.ai/statement-on-ai-risk#open-letter

3 https://theconversation.com/lets-focus-on-ais-tangible-risks-rather-than-speculating-about-its-potential-to-pose-an-existential-threat-207842

4 https://www.historyofinformation.com/detail.php?id=2142

5 https://en.wikipedia.org/wiki/I._J._Good

Licenza

Icon for the Creative Commons Attribution 4.0 International License

IA per gli insegnanti: un libro aperto Copyright © by Colin de la Higuera and Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Condividi questo libro