Les prochaines étapes ?

44 IA individuelle ou collective

La question clé de l’IA de demain pourrait bien être : « Pour qui travaille l’IA ? »

Lorsque vous utilisez un outil qui est censé vous apporter un avantage en matière d’apprentissage, vous vous attendez à ce que ce soit le cas. Mais peut-il y avoir une raison pour laquelle l’outil vise en fait à optimiser une fonction plus complexe que de simplement répondre à vos besoins ? Et cela a-t-il une importance si vous obtenez le même résultat attendu ? Voyons voir.

Bien sûr, lorsque l’IA est construite par une entreprise privée, il est logique de comprendre quel est son modèle économique, car cela vous permettra de comprendre pour qui elle travaille en fin de compte : s’il s’agit d’un logiciel destiné à être acheté une seule fois par les parents, ceux-ci devront être convaincus pour que d’autres parents soient également intéressés. Si ce sont les écoles, les enseignants ou les gouvernements, les arguments changeront, et le logiciel aussi.

Nous devons nous rappeler que lorsqu’il y a un logiciel d’IA basé sur l’apprentissage automatique, l’apprentissage se fera par rapport à une fonction objective : le réseau neuronal peut être entraîné pour minimiser le temps d’apprentissage de l’élève, pour maximiser les résultats du test de quiz,ou une combinaison des deux facteurs.

Mais dans de nombreux cas, l’apprentissage aura lieu dans un environnement social, et la recommandation de l’IA peut avoir un effet non seulement sur l’individu, mais aussi sur les autres individus ou sur le groupe dans son ensemble.

Pour explorer cette idée, regardons comment fonctionne le célèbre système Waze. Même s’il n’a pas un grand impact pour l’enseignement _bien que de nombreux enseignants l’utilisent pour être à l’heure à l’école !_ il peut être pertinent ici.

Waze

Waze est une application actuellement utilisée pour aider les conducteurs de voiture à trouver leur itinéraire : il s’agit donc d’un système de navigation. Mais Waze présente également de nombreuses caractéristiques d’un réseau social, car une grande partie des données qu’il utilise pour analyser les conditions de circulation ne proviennent pas de dépôts de données ouverts officiels ou de caméras, mais des utilisateurs eux-mêmes. Selon l’entreprise elle-même, pas plus, pas moins de 150 millions de personnes utilisent Waze chaque mois, sur toutes les plates-formes1 .

Pour ceux qui n’utilisent pas Waze , voici un résumé très simple de son fonctionnement :
Vous êtes sur le chemin du travail. Comme tous les jours. Vous connaissez votre chemin mais vous allez quand même utiliser Waze. Et il en sera de même pour une grande partie des voitures qui vous entourent. Sur votre carte, vous trouverez l’itinéraire calculé pour vous amener là où vous voulez aller, mais aussi des éléments comme l’heure d’arrivée estimée, qui est mise à jour toutes les quelques minutes au fur et à mesure que les conditions de circulation changent là où vous êtes et dans les zones que vous visiterez sur votre chemin. Vous pouvez également être informé qu’il y a un objet sur la route à 260 m, un accident de voiture à 1 km, un embouteillage dans 3 km. En fonction de ces informations, le système peut vous proposer un itinéraire alternatif qui vous fera « gagner » 7 minutes…

Pour que cela fonctionne, vous, en tant que Wazer, allez entrer des informations et avertir les autres wazers, via le système, qu’un animal erre là où vous êtes ou -et c’est important- que l’objet censé être sur la route n’est plus là.

Où est l’IA ?

Il y a de l’IA dans le calcul des temps prévus, des itinéraires, etc. Il s’agit de prendre en compte des informations statiques (les distances) mais aussi des informations dynamiques (les vitesses des voitures). Waze utilisera également votre propre historique pour prendre en compte vos habitudes de conduite2. Waze saura même que les feux de circulation sont synchronisés à votre avantage ou non.

Mais il y a plus que cela :
Quand un wazer entre des informations sur une nouveauté, comment le système en tient-il compte ? Supposons que je prévienne que la route est bloquée, que doit-il se passer ? Un expert humain pourrait faire une double vérification (est-ce que d’autres utilisateurs disent la même chose ?), utiliser un modèle lui indiquant quel crédit doit être accordé à cet utilisateur particulier, vérifier si l’utilisateur est vraiment bloqué… L’IA fera de même.

Et plus encore. Lorsque le système détecte un embouteillage sur la route normale, il envoie les utilisateurs sur un autre chemin. Mais comment le système peut-il savoir si l’embouteillage est réduit ou problématique s’il n’envoie pas les utilisateurs dans l’embouteillage pour vérifier. Les utilisateurs déjà coincés ne peuvent pas donner cette information. Le système doit donc envoyer du monde dans le trafic pour savoir si le problème est résolu.

Quelques considérations éthiques ?

Il y a un certain nombre de considérations éthiques :

    1. Waze en sait beaucoup sur vous. Où vous vivez et travaillez, vos arrêts habituels, vos habitudes. Il vous propose également des publicités auxquelles vous pouvez répondre ou non.
    2. Afin de satisfaire le plus de clients possible, Waze doit résoudre de nombreux dilemmes d’exploration/exploitation comme celui ci-dessus. Comment prend-il cette décision ? Existe-t-il une « bonne » ; façon de prendre cette décision ?
    3. L’utilisation régulière de ces outils a des conséquences sur notre capacité à résoudre le problème par nous-mêmes. On sait maintenant que nos capacités cognitives (humaines) sont affectées. À titre d’exemple – qui n’est sûrement pas isolé – un des auteurs du manuel utilisait Waze par un lundi matin compliqué. Le système lui a dit de quitter l’autoroute pour éviter les embouteillages. Après 2 km d’une belle route départementale, Waze a changé d’avis et a suggéré que le meilleur itinéraire était de revenir à l’autoroute. Ce qui compte dans cet exemple, ce n’est pas que le système ait changé son itinéraire optimisé – ce qui est logique – mais le fait que notre dépendance à l’égard de tels systèmes pilotés par l’IA nous rende incapables de porter nos propres jugements3.

Conséquences pour l’éducation

À notre connaissance, cette question de la manipulation des groupes ne se pose pas dans l’éducation. Encore. Lorsque les ressources sont illimitées (accès à une plateforme web par exemple), cette situation est sans grande conséquence. Mais supposons que les ressources soient limitées : seuls 3 élèves peuvent utiliser le robot en même temps. Dans ce cas, un système d’IA proposera quels élèves devraient avoir accès au robot. Et la décision peut dépendre de nombreux facteurs. Si le système veut être équitable, la décision peut être aléatoire. Mais beaucoup ne seront pas satisfaits de cela. Si le système veut obtenir les meilleurs résultats pour toute la classe, il peut allouer plus de ressources aux enfants défavorisés. Mais si le système a pour mission de garantir qu’au moins 90% des élèves obtiennent la note XYZ à la fin du trimestre, il choisira inévitablement certains élèves qui feront partie des 10% restants.

Le rôle de l’enseignant

Un enseignant de l’ère de l’IA doit comprendre comment de tels systèmes fonctionnent, et quelles sont les failles des algorithmes. Et s’assurer qu’il/elle prend les décisions. C’est plus facile à dire qu’à faire. Un enseignant peut utiliser un système d’IA parce que _ comme c’est le cas de l’outil de navigation décrit ci-dessus _ cet outil peut apporter des avantages à tous. Mais un enseignant peut, et doit, opposer la décision proposée par l’IA à sa propre expérience. Perdre 15 minutes sur une route n’est pas très grave. Mais prendre la mauvaise décision pour vos élèves l’est.


1 https://www.cozyberries.com/waze-statistics-users-facts/ and https://www.autoevolution.com/news/waze-reveals-how-many-users-run-the-app-on-android-and-iphone-197107.html for some facts and figures concerning Waze.

2 Petranu, Y. Under the Hood: Real-time ETA and How Waze Knows You’re on the Fastest Route
https://medium.com/waze/under-the-hood-real-time-eta-and-how-waze-knows-youre-on-the-fastest-route-78d63c158b90

3 Clemenson, G.D., Maselli, A., Fiannaca, A.J. et al. Rethinking GPS navigation: creating cognitive maps through auditory clues. Sci Rep 11, 7764 (2021). https://doi.org/10.1038/s41598-021-87148-4
https://www.nature.com/articles/s41598-021-87148-4

 

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

IA pour les enseignants : un manuel ouvert Droit d'auteur © 2024 par Colin de la Higuera et Jotsna Iyer est sous licence Licence Creative Commons Attribution 4.0 International, sauf indication contraire.

Partagez ce livre