À propos des IA génératives

40 IA dégénérative – Partie 2

Les dangers spécifiques à l’IA générative sont les suivants :

Inexactitudes et hallucinations : les modèles génératifs sont impressionnants dans leur capacité à produire un langage cohérent, fluide et humain. Derrière cette aisance se cachent en réalité des erreurs factuelles, des demi-vérités, des références inventées et de la pure fiction : ce que l’on appelle des « hallucinations »1,2. Dans l’interface de ChatGPT, en bas de toutes les conversations, on retrouve l’avis suivant : « ChatGPT peut générer des informations inexactes concernant des personnes, des lieux ou des faits »1. Le taux d’exactitude de ChatGPT se situe, au maximum, autour de 60%, selon le sujet abordé2,3.

Pire encore, ChatGPT a tendance à présenter des faits comme étant des vérités, sans preuve ou qualification. Lorsqu’on lui demande spécifiquement des références, il peut présenter des références qui n’existent pas ou qui ne soutiennent pas les faits présentés comme véritables dans le texte4,2. Pourtant, de nombreux utilisateurs ont tendance à l’utiliser comme un « moteur de recherche en ligne, comme une bibliothèque de références ou même comme Wikipedia »5. Lorsque des enseignants ou des étudiants utilisent ChatGPT pour obtenir des informations concernant un sujet qu’ils ne connaissent pas du tout, ils risquent d’apprendre des choses fausses ou de les présenter à d’autres personnes1,5.

Le succès actuel des LLM repose sur le nombre impressionnant de paramètres et sur la quantité des données d’entraînement utilisées pour imiter l’assemblage des mots dans les communications humaines. Les enseignants et les étudiants ne doivent jamais oublier qu’un texte généré par des modèles conversationnels n’est pas forcément associé à une compréhension de ce texte par les modèles, ni même à la moindre notion de réalité1. Si ces modèles peuvent manipuler des formes linguistiques avec un certain degré de réussite, ils n’ont pas accès au sens de ces formes6. « La pensée humaine repose sur des explications possibles et sur la correction des erreurs, un processus qui limite progressivement les possibilités qui peuvent être raisonnablement envisagées… Là où les humains sont limités dans les types d’explications qu’ils peuvent rationnellement supposer, les systèmes d’apprentissage automatique peuvent à la fois apprendre que la Terre est plate et qu’elle est ronde. »7

Transfert ou Aggravation du Pouvoir et du Contrôle : l’IA générative s’appuie sur des quantités colossales de données, une puissance informatique considérable, ainsi que sur des méthodes de calcul avancées. Seul un petit groupe d’entreprises, de pays et de langues ont accès à tous ces éléments. Pourtant, alors que de plus en plus de personnes adoptent ces technologies, la majorité de la population humaine est tenue de « suivre la ligne », est aliénée et perd son pouvoir d’expression1.

Si les créateurs gardent le pouvoir, ils sous-traitent les responsabilités. Par exemple, la lourde tâche de contrôler et d’assainir les contenus générés par ChatGPT a été confiée à des travailleurs kenyans qui ont dû « trier des contenus violents et troublants, liés notamment à des abus sexuels, à des discours haineux et à de la violence »4.

Violation du Copyright et de la Propriété Intellectuelle : une grande partie du savoir-faire technologique lié aux systèmes génératifs est protégée par des systèmes d’entreprises. Pourtant, les données proviennent du grand public1. Peut-on utiliser des images rendues publiques sur une plateforme et les utiliser sans que leur sujet en soit conscient ? Et si, par exemple, le visage de quelqu’un était utilisé dans le cadre d’éléments de propagande racistes8 ? La seule manière de contrer l’IA générative consiste-t-elle à rendre les contenus privés ?

Au-delà des contenus publics, les modèles de langages peuvent prendre des contenus protégés par des paywalls et en fournir un résumé à l’utilisateur. On sait que les modèles d’images peuvent assembler des images dont certaines parties proviennent clairement d’images protégées par un watermark. Cela pose également la question des licences Creative Common, lorsqu’un auteur met librement son œuvre à disposition du public mais qu’il doit être cité à chaque fois que l’œuvre est utilisée, ce que les modèles peuvent choisir de faire ou de ne pas faire.

Pour les enseignants, cela soulève des questions morales, éthiques et juridiques. S’ils utilisent du contenu généré par des modèles, peuvent-ils l’utiliser librement et le publier comme bon leur semble ? Qui est responsable lorsque le contenu est protégé par un copyright ou par une licence Creative Commons9 ? Comment l’utilisateur peut-il même savoir qu’il utilise la propriété de quelqu’un d’autre1 ? Malheureusement, il n’existe aucune directive claire à ce sujet. Nous devrons rester attentifs aux évolutions futures, en attendant qu’une directive soit formulée.

Les effets de l’utilisation de l’IA générative, sur le long terme, dans l’Enseignement : en ce qui concerne toutes les utilisations possibles de l’IA générative dans l’enseignement, on ne connait pas clairement tous les effets qu’elle pourrait avoir sur le long terme :

  • L’acte d’écrire structurant également la pensée, comment le fait d’écrire sur la base des éléments fournis par une IA générative va-t-il impacter les étudiants ?1
  • Cela va-t-il affecter la portée de leur réflexion, leur pensée critique, leur créativité et leurs capacités à résoudre des problèmes ?1
  • Les étudiants vont-ils devenir trop dépendants de ces technologies compte tenu de la simplicité avec laquelle ils peuvent accéder à des informations et à des solutions10,9 ?
  • Les étudiants auront-ils encore envie de découvrir le monde et de parvenir à leurs propres conclusions10 ?
  • L’utilisation de ces technologies va-t-elle nous conduire à une vision du monde déconnectée de la réalité qui nous entoure ?
  • Combien de compétences allons-nous perdre à chaque étape de maitrise des techniques de prompt ?

Si le fait de se concentrer sur des compétences supérieures, en laissant le travail fastidieux aux IA, semble être une bonne idée, la pratique répétée des compétences inférieures indispensables, la persévérance et même la frustration qui peut l’accompagner sont souvent nécessaires pour acquérir un niveau de compétence supérieur1,8. Cela s’avère également nécessaire pour diminuer la dépendance des apprenants aux technologies pour réaliser des calculs de base, qui nuit à l’agentivité et à leur capacité d’affronter le monde de manière autonome.

Certaines mesures pourraient être appliquées afin de nous protéger contre ces effets potentiellement nuisibles à long terme :

  • utiliser des modèles de langage uniquement comme point de départ, afin de générer des possibilités et d’explorer différents points de vue, plutôt que comme une solution complète répondant à tous les besoins10 ;
  • vérifier la production des modèles grâce à des expériences directes ou des sources alternatives ;
  • toujours impliquer l’enseignant, à tout moment10 ;
  • promouvoir l’apprentissage social et améliorer l’exposition à la production créative humaine1 ;
  • chercher de manière active d’autres ressources pédagogiques, ainsi que des activités n’impliquant pas l’utilisation d’écrans10 ;
  • essayer de trouver d’autres explications et d’autres approches et modes de réflexion.

Il est toujours utile de veiller à ne pas assigner de fausses équivalences entre humains et machines, voire à accorder une forme de supériorité à l’IA générative. Par exemple, on dit souvent que les humains ne peuvent pas analyser autant de données que les IA. L’analyse d’énormes quantités de données est-elle pour autant nécessaire aux humains, compte tenu de nos capacités d’identification des tendances, d’extrapolation et de nos compétences créatives ? Parce qu’une IA peut analyser le contenu de 100 livres en un instant, est-ce que cela veut forcément dire qu’un étudiant ne va pas apprécier la lecture d’un de ces livres ou en bénéficier ? Est-ce que faire quelque chose rapidement est obligatoirement une bonne chose et une attitude que nous souhaitons vraiment adopter8 ?

Il faut garder en tête que l’enseignement des enfants ne les prépare pas pour le monde et les technologies d’aujourd’hui, mais qu’il les équipe plutôt pour le monde qui sera le leur dans 10 à 15 ans8. La façon dont ChatGPT a tout révolutionné en un an indiquerait plutôt le besoin d’un enseignement qui dépasse ChatGPT qu’un enseignement destiné à ChatGPT. Les étudiants doivent être capables de penser par eux-mêmes, d’être résilients pour s’adapter au changement et de grandir en surmontant les défis qu’ils rencontrent sur leur parcours.

Le but final de l’enseignement ne doit pas être de produire des opérateurs efficaces de machines intelligentes ou des ouvriers pour les lignes de production, mais de développer l’esprit critique, la créativité, la résilience de citoyens épanouis.Il s’agit de questions capitales qui doivent être mûrement réfléchies et dont les effets sur le long terme doivent être analysés afin de déterminer la meilleure manière d’adopter une technologie pour atteindre ces objectifs. Cela, plus que tout ce qui est également mentionné dans ce texte, ne peut pas être délégué à une IA, générative ou non.


1 Holmes, W., Miao, F., Guidance for generative AI in education and research, UNESCO, Paris, 2023.

2 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: Chat-GPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023.

3 Lewkowycz, A., Andreassen, A.,  Dohan, D. et al, Solving Quantitative Reasoning Problems with Language Models, Google Research, 2022.

4 Cooper, G., Examining Science Education in ChatGPT: An Exploratory Study of Generative Artificial Intelligence, Journal of Science Education and Technology, 32, 444–452, 2023.

5 Trust, T., Whalen, J., & Mouza, C., Editorial: ChatGPT: Challenges, opportunities, and implications for teacher education, Contemporary Issues in Technology and Teacher Education, 23(1), 2023.

6 Bender, E.M., et al, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). Association for Computing Machinery, New York, 610–623, 2021.

7 Chomsky, N., Roberts, I., Watumull, J., Noam Chomsky: The False Promise of Chat-GPT, The New York Times, 2023.

8 Vartiainen, H., Tedre, M., Using artificial intelligence in craft education: crafting with text-to-image generative models, Digital Creativity, 34:1, 1-21, 2023.

Becker, B., et al, Programming Is Hard – Or at Least It Used to Be: Educational Opportunities and Challenges of AI Code Generation, Proceedings of the 54th ACM Technical Symposium on Computer Science Education V. 1 (SIGCSE 2023), Association for Computing Machinery, New York, 500–506, 2023.

10 Enkelejda, K., et al, Chatgpt for Good? on Opportunities and Challenges of Large Language Models for Education, EdArXiv, 2023.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

IA pour les enseignants : un manuel ouvert Copyright © 2024 by Colin de la Higuera et Jotsna Iyer is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre