Contenus additionnels

Comprendre le débat autour des possibles dangers de l’IA

En mars 20231, puis en mai 20232, deux lettres ouvertes/pétitions ont été publiées, signées dans les deux cas par des centaines de scientifiques de renom et de spécialistes de l’IA travaillant dans ce secteur, afin de tirer la sonnette d’alarme concernant certains dangers présentés par l’IA. Qu’est-ce que nous pouvons apprendre de cet évènement ?

S’agit-il d’une question pertinente pour les enseignants ?

Pour les étudiants les plus matures, la question des risques que représente l’IA pour notre civilisation va se poser et, même si aucun enseignant n’est tenu de répondre de manière catégorique à toutes ces questions, il est normal de chercher à comprendre les grandes lignes de ce débat.

En tant qu’enseignant, ne devrait-on pas uniquement aborder les aspects techniques du sujet et laisser les questions humaines, économiques ou philosophiques aux spécialistes ?

C’est une question intéressante qui divise l’opinion. Une personne qui enseigne la physique doit-elle connaître en détail les catastrophes que sont Hiroshima ou Tchernobyl ? Un débat lié à ces évènements doit-il avoir lieu dans le cadre de ces cours ? Ou, en ce qui concerne l’IA, un enseignant doit-il uniquement être capable d’utiliser un logiciel de manière sécurisée et comprendre comment il fonctionne, de manière générale ? Doit-il également être en mesure de comprendre les débats actuels qui concernent les questions de sociétés liées à l’IA ?

Selon l’Unesco (et un certain nombre d’experts) l’Intelligence Artificielle n’est pas seulement un sujet technologique et un enseignant doit comprendre les questions éthiques associées, notamment en ce qui concerne l’impact de l’IA sur la société, la civilisation ou l’humanité.

Ces questions sont-elles nouvelles ?

Certaines des questions liées aux dangers de l’IA ne datent pas d’aujourd’hui. La théorie concernant le fait que l’Intelligence Artificielle devienne un jour « supérieure » à l’intelligence humaine est abordée depuis longtemps. Irving Good4, un ancien collègue d’Alan Turing, présentait déjà, en 1965, le concept de Singularité Technologique selon lequel, une fois que l’IA serait plus intelligente que les humains ou lorsqu’elle deviendrait super-intelligente, il serait impossible de l’arrêter. Good a même fourni ses conseils à Stanley Kubrick  dans le cadre du tournage de « 2001 : Odyssée de l’Espace », qui traite entre autres d’une IA rebelle.

Les positions

Le texte du premier document1 nous avertissait que l’IA pouvait avoir des effets positifs, mais aussi négatifs, que son impact sur la société et sur le travail pouvait être considérable, en présentant l’idée selon laquelle l’IA n’allait pas seulement remplacer les humains aux postes les plus fastidieux et les moins valorisés,mais que cela concernerait également les postes activement recherchés. Qui plus est, les évolutions de l’IA conduiraient à des évolutions de la société, en court-circuitant les mécanismes démocratiques habituels du changement.

Dans le deuxième texte2, le risque supplémentaire était celui d’une IA rebelle (ou une variante de ce scénario) qui pourrait mener à la fin de la civilisation humaine.

Une troisième position s’est fait entendre dans ce débat3 : l’IA est effectivement une source d’inquiétude, mais pas pour des raisons existentielles, qui ne font que cacher les problèmes les plus urgents.

Le débat est-il clos ?

Non, loin de là. Certains scientifiques continuent à nous avertir que l’IA présente de nombreux risques, que ces technologies se développent trop rapidement et qu’elles doivent être mieux règlementées. D’autres estiment que, pour l’instant, l’IA présente principalement des avantages et que nous devrions rester attentifs, mais sans crainte.

Difficile de dire qui gagne ou qui perd, qui a raison et qui a tort : à de nombreux égards, ce débat rappelle celui qui animait le monde de la physique après 1945.

Une position commune est celle qui consiste à demander plus de règlementations, même si tout le monde ne s’accorde pas (encore) sur une définition de ces règlementations.

Doit-il y avoir une position arrêtée ?

En réalité, ces deux positions sont probablement très sensées. Actuellement, les faits semblent plutôt favorables aux défenseurs de l’IA (elle a permis des progrès remarquables dans les domaines de la Médecine, de l’Agriculture, du Climat, des Langues et de la Communication) mais l’argument selon lequel l’humanité a toujours trouvé des réponses présente aussi de sérieuses limites.

Comment puis-je me renseigner sur ce débat ?

Pour toute personne qui garde l’esprit ouvert (ou pour les enseignants), de nombreuses sources existent : des blogs, des sites fiables et des articles ou vidéos illustrant les prises de position, produits par des scientifiques de renom (y compris des historiens et des philosophes, qui ont également beaucoup à dire sur le sujet).


1 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

2 https://www.safe.ai/statement-on-ai-risk#open-letter

3 https://theconversation.com/lets-focus-on-ais-tangible-risks-rather-than-speculating-about-its-potential-to-pose-an-existential-threat-207842

4 https://www.historyofinformation.com/detail.php?id=2142

5 https://en.wikipedia.org/wiki/I._J._Good

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

IA pour les enseignants : un manuel ouvert Copyright © 2024 by Colin de la Higuera et Jotsna Iyer is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre