Zuhören, Sprechen und Schreiben
32 Homogenisierung, Unsichtbarkeit und mehr – auf dem Weg zu einer ethischen KI
Homogenisierung
In die Erstellung von Datensätzen, Benchmarks und Algorithmen für maschinelles Lernen fließen viel Geld, Rechenressourcen, Zeit und Mühe. Dies gilt insbesondere für Deep Learning und Large Scale Models. Daher ist es sinnvoll, dass die erstellten Ressourcen innerhalb dieses Ökosystems gemeinsam genutzt werden. Dies ist bei vielen der ML-Systeme, die wir häufig verwenden, der Fall. Selbst wenn die Endprodukte unterschiedlich sind und von einem anderen Unternehmen erstellt wurden, werden Methodik, Datensätze, Bibliotheken für maschinelles Lernen und Bewertungen häufig gemeinsam genutzt1. Es spricht also einiges dafür, dass ihre Outputs unter ähnlichen Bedingungen ähnlich sind.
Wenn es sich beim Output um eine schulische Entscheidung handelt, gibt dies beispielsweise Anlass zur Besorgnis für die Schülerin oder den Schüler, der zu Unrecht von jeder Bildungsmöglichkeit ausgeschlossen werden könnte1. Ob eine algorithmische Homogenisierung jedoch eine Ungerechtigkeit darstellt, kann nur von Fall zu Fall entschieden werden1.
Besteht auf der anderen Hand die Aufgabe des Systems darin, dem Schüler oder der Schülerin beim Schreiben zu helfen, rückt es die Standardisierung von Schreibstilen, Vokabular und damit von Denkmustern in den Mittelpunkt. Die Sprachmodelle, die in diesen Fällen verwendet werden, sind darauf ausgelegt, den wahrscheinlichsten Text auf der Grundlage ihres Trainingsdatensatzes vorherzusagen. Diese Datensätze werden, wenn sie nicht von verschiedenen Systemen gemeinsam genutzt werden, auf ähnliche Weise erstellt, oft mit öffentlichen Internetdaten. Selbst wenn diese Daten auf Voreingenommenheit, Vorurteile und extreme Inhalte geprüft werden, repräsentieren sie nur ein kleines Ökosystem und sind nicht repräsentativ für die Welt in ihrer ganzen Vielfalt an Ideen, Kultur und Praktiken. Auf Deep Learning basierende prädiktive Textsysteme, die für Textnachrichten und E-Mails verwendet werden, können nachweislich die Art und Weise verändern, wie Menschen schreiben: Das Schreiben wird tendenziell „prägnanter, vorhersehbarer und weniger bunt“2.
Wortfolgen, die sich in den Trainingsdaten wiederholen, fließen in den Output von Large Language Models ein. Auf diese Weise erhalten die Werte der Datenbankersteller die Macht, alternative Meinungen und plurale Ausdrucksformen von Ideen zu unterdrücken. Ohne geeignete pädagogische Maßnahmen könnte dies wiederum die Kreativität und Originalität der Schülerinnen und Schüler einschränken, was nicht nur zu formelhaften Texten, sondern letztlich auch zu Bürgerinnen und Bürgern mit geringeren Fähigkeiten zum kritischen Denken und damit zu einer insgesamt weniger bunten Welt führt3.
Unsichtbarkeit
Eng verbunden mit vielen der negativen Auswirkungen des maschinellen Lernens, einschließlich der oben erwähnten Homogenisierung, ist die Tatsache, dass die Technologien so weit fortgeschritten sind, dass die Schnittstelle zwischen Mensch und Maschine nahtlos und praktisch unsichtbar ist. Ob es sich nun um Suchmaschinen handelt, die in die Adressleiste des Browserfensters integriert sind, oder um Textvorhersagen, die intuitiv und ohne Zeitverzögerung zwischen dem Schreiben, der Vorhersage und der Vorschlagauswahl funktionieren – wir handeln oft unter dem Einfluss von Technologie, ohne uns dessen bewusst zu sein oder ohne die Möglichkeit zu haben, die Bremse zu ziehen, Situationen zu überdenken und unsere eigenen Entscheidungen zu treffen. Wenn wir sie gewohnheitsmäßig nutzen, um Entscheidungen zu treffen, neigen wir dazu, ihre Existenz ganz und gar zu vergessen4. „Wenn wir uns erst einmal an Technologien gewöhnt haben, sehen wir sie nicht mehr, sondern schauen durch sie hindurch auf die Informationen und Aktivitäten, die wir durch sie einfacher machen”. Dies wirft so ernste Bedenken in Bezug auf die menschlichen Handlungsfähigkeit, Transparenz und Vertrauen auf, insbesondere wenn es um junge Menschen geht, dass Expertinnen und Experten empfohlen haben, die Schnittstellen sichtbarer und sogar sperriger zu machen4.
Was steckt dahinter: Eine ethische KI
In jedem Teil dieses offenen Lehrbuchs haben wir pädagogische, ethische und gesellschaftliche Auswirkungen der KI, insbesondere der datenbasierten KI, erörtert. Daten und Privatsphäre, inhaltliche Verlässlichkeit und Nutzer-Autonomität, Auswirkungen auf die persönliche Identität, Vorurteile und Fairness und Menschliche Handlungsfähigkeit wurden alle auf den entsprechenden Seiten behandelt. Spezifische Fragen zu Suchmaschinen wurden erörtert in: Auswirkungen der Suche auf das Individuum und die Gesellschaft, Probleme im Zusammenhang mit anpassenden Systemen wurden behandelt in Die Kehrzseite von ALS und diejenigen, die speziell für Generative KI gelten in Die negative Seite. An mehreren Stellen im Buch haben wir uns mit Maßnahmen zur Verbesserung befasst, die im Klassenzimmer ergriffen werden können, um bestimmte Probleme zu lösen. Wir hoffen, dass diese Maßnahmen weniger erschwerend sein werden, sobald wir über ethische und zuverlässige KI-Systeme für die Bildung verfügen. Eine solche Ethische KI würde in Übereinstimmung mit ethischen Normen und Grundsätzen5 entwickelt, eingesetzt und genutzt werden und wäre rechenschaftspflichtig und belastbar.
Da wir KI-Modellen und ihren Programmierern, Verkäufern und Bewertern so viel Macht überlassen, ist es nur vernünftig, von ihnen zu verlangen, dass sie transparent sind, Verantwortung übernehmen und Fehler beheben, wenn etwas schief geht6. Wir brauchen Dienstleistungsvereinbarungen, in denen „die Support- und Wartungsdienste und die Schritte zur Behebung gemeldeter Probleme” klar umrissen werden5.
Eine belastbare KI würde ihre Unzulänglichkeiten akzeptieren, sie vorhersehen und trotzdem funktionieren. Belastbare KI-Systeme würden auf vorhersehbare Weise versagen und über Protokolle verfügen, um mit diesen Fehlern umzugehen6.
Im Bildungsbereich sollte sich eine ethische KI an nutzerzentrierten Gestaltungsprinzipien orientieren und alle Aspekte von Bildung berücksichtigen7. Die Lehrkräfte wären in der Lage, die Funktionsweise des Systems überprüfen, seine Erklärungen verstehen, seine Entscheidungen außer Kraft setzen oder seine Verwendung ohne Schwierigkeiten unterbrechen8. Derartige Systeme würden die Arbeitsbelastung der Lehrkräfte in der Tat verringern, ihnen detaillierte Erkenntnisse über ihre Schüler geben und sie dabei unterstützen, die Bandbreite und Qualität des Unterrichts zu verbessern8. Sie würden ihren Nutzern und der Umwelt keinen Schaden zufügen und das soziale und emotionale Wohlbefinden von Lernenden und Lehrer:innen fördern5.
Bis es soweit ist, müssen Lehrer:innen versuchen, eine Gemeinschaft von Kolleg:innen und Kolleginnen und Kollegen aufzubauen und sich an ihr zu beteiligen, um das Bewusstsein für Probleme zu schärfen, Erfahrungen und bewährte Verfahren auszutauschen und zuverlässige Anbieter von KI zu finden. Sie könnten auch Lernende und Eltern in Diskussionen und Entscheidungen einbeziehen, um besser auf unterschiedliche Anliegen eingehen zu können und ein Klima des Vertrauens und der Kameradschaft zu schaffen. Am besten wäre es, wenn sie ihr Bestes täten, um über die neuesten Trends im Bereich der künstlichen Intelligenz in der Bildung auf dem Laufenden zu bleiben und Kompetenzen zu erwerben, wann und wo immer dies möglich ist5.
1 Bommasani, R., et al, Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization?, Advances in Neural Information Processing Systems, 2022
2 Varshney, L., Respect for Human Autonomy in Recommender System, 3rd FAccTRec Workshop on Responsible Recommendation, 2020
3 Holmes, W., Miao, F., Guidance for generative AI in education and research, Unesco, Paris, 2023
4 Susser, D., Invisible Influence: Artificial Intelligence and the Ethics of Adaptive Choice Architectures, Proceedings of the 2019 AAAI/ACM Conference on AI, Ethics, and Society, Association for Computing Machinery, New York, 403–408, 2019
5 Ethical guidelines on the use of artificial intelligence and data in teaching and learning for educators, European Commission, October 2022
6 Schneier, B., Data and Goliath: The Hidden Battles to Capture Your Data and Control Your World, W. W. Norton & Company, 2015.
7 Tlili, A., Shehata, B., Adarkwah, M.A. et al, What if the devil is my guardian angel: ChatGPT as a case study of using chatbots in education, Smart Learning Environments, 10, 15 2023
8 U.S. Department of Education, Office of Educational Technology, Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations, Washington, DC, 2023.