Die nächsten Schritte
44 Individuelle oder kollektive KI?
Die Schlüsselfrage der KI von morgen könnte lauten: Für wen arbeitet die KI?
Wenn Sie ein Tool verwenden, das Ihnen einen Lernvorteil verschaffen soll, erwarten Sie, dass dies auch der Fall ist. Aber kann es sein, dass das Tool in Wirklichkeit eine komplexere Funktion optimieren soll, als nur Ihre Bedürfnisse zu erfüllen? Und spielt das eine Rolle, solange Sie das erwartete Ergebnis erhalten? Schauen wir mal.
Wenn die KI von einem privaten Unternehmen entwickelt wird, ist es natürlich sinnvoll, das Geschäftsmodell des Unternehmens zu verstehen, denn so können Sie nachvollziehen, für wen es letztendlich arbeitet: Wenn es sich um eine Software handelt, die einmalig von Eltern gekauft werden soll, müssen diese überzeugt werden, damit auch andere Eltern Interesse zeigen. Wenn es sich um Schulen, Lehrkräfte oder Regierungen handelt, werden sich die Argumente ändern, und damit auch die Software.
Wir sollten bedenken, dass bei KI-Software, die auf maschinellem Lernen basiert, das Lernen im Hinblick auf eine Zielfunktion erfolgt: Das neuronale Netzwerk kann so trainiert werden, dass es die Lernzeit der Schülerinnen und Schüler minimiert, die Ergebnisse der Quiz-Tests maximiert oder eine Kombination aus beiden Faktoren.
Aber in vielen Fällen findet das Lernen in einem sozialen Umfeld statt, und die Empfehlung der KI kann sich nicht nur auf eine Einzelperson auswirken, sondern auch auf die anderen Individuen oder auf die Gruppe als Ganzes.
Um diese Idee zu erkunden, schauen wir uns an, wie das beliebte Waze-System funktioniert. Auch wenn es für den Unterricht nicht von großer Bedeutung ist – obwohl viele Lehrkräfte es nutzen, um pünktlich zur Schule zu kommen -, kann es hier relevant sein.
Waze
Waze ist eine App, die Autofahrenden hilft, ihre Route zu finden: Es ist also ein Navigationssystem. Aber Waze hat auch viele Merkmale eines sozialen Netzwerks, denn ein Großteil der Daten, die es zur Analyse der Verkehrslage verwendet, stammt nicht aus offiziellen offenen Datenbeständen oder von Kameras, sondern von den Nutzenden selbst. Nach eigenen Angaben des Unternehmens nutzen nicht mehr und nicht weniger als 150 Millionen Menschen Waze jeden Monat, und zwar auf allen Plattformen1 .
Für diejenigen, die Waze nicht nutzen, hier eine sehr einfache Zusammenfassung der Funktionsweise:
Sie sind auf dem Weg zur Arbeit. Wie jeden Tag. Sie kennen Ihren Weg, aber Sie werden trotzdem Waze benutzen. Und ein Großteil der Autos um Sie herum auch. Auf Ihrer Karte sehen Sie die Route, die Sie zu Ihrem Ziel führt, aber auch Dinge wie die geschätzte Ankunftszeit, die alle paar Minuten aktualisiert wird, wenn sich die Verkehrsbedingungen vor Ort und in den Gebieten, die Sie auf Ihrem Weg passieren, ändern. Sie können auch über ein Objekt auf der Straße in 260 m Entfernung, einen Autounfall in 1 km Entfernung und einen Stau in 3 km Entfernung informiert werden. Auf der Grundlage dieser Aktualisierungen kann das System eine alternative Route vorschlagen, mit der Sie 7 Minuten sparen können…
Damit das funktioniert, geben Sie als Wazer Informationen ein und warnen andere Wazer über das System, dass ein Tier dort herumläuft, wo Sie sich befinden, oder – und das ist wichtig – dass das Objekt, das eigentlich auf der Straße liegen sollte, nicht mehr da ist.
Wo ist die KI?
Es gibt KI bei der Berechnung der erwarteten Zeiten, der Routen usw. Das bedeutet, dass statische Informationen (Entfernungen), aber auch dynamische Informationen (die Geschwindigkeiten der Autos) berücksichtigt werden. Waze nutzt auch Ihre eigene Historie, um Ihr Fahrverhalten zu berücksichtigen2. Waze weiß sogar, ob die Ampeln zu Ihrem Vorteil synchronisiert sind oder nicht.
Aber das ist noch nicht alles: Wenn ein Wazer Informationen über etwas Neues eingibt, wie berücksichtigt das System diese? Angenommen, ich warne, dass die Straße gesperrt ist, was soll dann passieren? Eine menschlicher Fachkraft könnte dies überprüfen (sagen andere Nutzende dasselbe?), ein Modell verwenden, das ihr sagt, wie viel Kredit diese bestimmte nutzende Person erhalten sollte, überprüfen, ob sie wirklich aufgehalten wird… Die KI wird dasselbe tun.
Und noch mehr. Wenn das System einen Stau auf der normalen Straße feststellt, schickt es die Nutzenden auf einen anderen Weg. Aber wie kann das System wissen, ob der Stau weniger oder ein Problem ist, wenn es die Nutzenden nicht in den Stau schickt, um das zu überprüfen? Die Nutzenden, die bereits im Stau stehen, können diese Information nicht geben. Also muss das System einen Teil des Verkehrs in den Stau schicken, um herauszufinden, ob das Problem gelöst ist.
Einige ethische Überlegungen?
- Es gibt eine Reihe von ethischen Überlegungen:
Waze weiß eine Menge über Sie. Wo Sie leben und arbeiten, Ihre üblichen Haltestellen, Ihre Gewohnheiten. Es wird Ihnen auch einige Anzeigen vorschlagen, auf die Sie antworten können oder nicht. - Um so viel Kundschaft wie möglich zufriedenzustellen, muss Waze viele Erkundungs-/Ausbeutungsdilemmas wie das oben beschriebene lösen. Wie trifft es diese Entscheidung? Gibt es einen ,richtigen’ Weg, diese Entscheidung zu treffen?
- Wenn wir diese Werkzeuge regelmäßig benutzen, hat das Auswirkungen auf unsere Fähigkeit, das Problem selbst zu lösen. Es ist inzwischen bekannt, dass unsere (menschlichen) kognitiven Fähigkeiten beeinträchtigt werden. Beispielsweise – und das ist sicherlich kein Einzelfall – benutzte ein Autor dieses Lehrbuchs Waze an einem komplizierten Montagmorgen. Das System riet ihm, die Autobahn zu verlassen, um einen Stau zu vermeiden. Nach 2 km auf einer schönen Nebenstraße änderte Waze seine Meinung und schlug vor, dass die beste Route zurück auf die Autobahn führen sollte. In diesem Beispiel geht es nicht darum, dass das System seine optimierte Route geändert hat – was durchaus sinnvoll ist – sondern darum, dass unsere Abhängigkeit von solchen KI-gesteuerten Systemen uns unfähig macht, unsere eigenen Entscheidungen zu treffen3 .
Folgen für die Bildung
Unseres Wissens nach kommt dieses Problem des Umgangs mit Gruppen in der Bildung nicht vor. Noch nicht. Wenn die Ressourcen unbegrenzt sind (z. B. der Zugang zu einer Webplattform), ist diese Situation von geringer Bedeutung. Aber nehmen wir an, die Ressourcen sind begrenzt: Nur 3 Schülerinnen und Schüler können den Roboter gleichzeitig benutzen. In diesem Fall wird ein KI-System vorschlagen, welche von ihnen Zugang zum Roboter haben sollten. Und diese Entscheidung kann von vielen Faktoren abhängen. Wenn das System fair sein will, kann die Entscheidung zufällig sein. Aber viele werden darüber nicht glücklich sein. Wenn das System die besten Ergebnisse für die gesamte Klasse erzielen will, kann es benachteiligten Kindern mehr Ressourcen zuweisen. Aber wenn das System die Aufgabe hat, dafür zu sorgen, dass mindestens 90 % der Schülerinnen und Schüler am Ende des Schuljahres die Note XYZ erhalten, wird es zwangsläufig einige auswählen, die zu den anderen 10 % gehören.
Die Rolle der Lehrkraft
Eine Lehrkraft im Zeitalter der KI muss verstehen, wie solche Systeme funktionieren und was die Vorbehalte der Algorithmen sind. Und dafür sorgen, dass sie es ist, die die Entscheidungen trifft. Das ist leichter gesagt als getan. Eine Lehrkraft kann ein KI-System verwenden, weil es – wie im Fall des oben beschriebenen Navigationstools – für alle von Nutzen sein kann. Aber sie kann und sollte die von der KI vorgeschlagene Entscheidung mit ihren eigenen Erfahrungen abgleichen. 15 Minuten auf der Straße zu verlieren, ist nicht schlimm. Aber die falsche Entscheidung für die Schülerinnen und Schüler zu treffen, schon.
1 https://www.cozyberries.com/waze-statistics-users-facts/ and https://www.autoevolution.com/news/waze-reveals-how-many-users-run-the-app-on-android-and-iphone-197107.html for some facts and figures concerning Waze.
2 Petranu, Y. Under the Hood: Real-time ETA and How Waze Knows You’re on the Fastest Route
https://medium.com/waze/under-the-hood-real-time-eta-and-how-waze-knows-youre-on-the-fastest-route-78d63c158b90
3 Clemenson, G.D., Maselli, A., Fiannaca, A.J. et al. Rethinking GPS navigation: creating cognitive maps through auditory clues. Sci Rep 11, 7764 (2021). https://doi.org/10.1038/s41598-021-87148-4
https://www.nature.com/articles/s41598-021-87148-4