Informationen finden

13 Fokus II: Auswirkungen der Suche auf die Gesellschaft

Soziale Auswirkungen

Mehr und mehr hat man das Gefühl, dass alles, was wichtig ist, im Internet zu finden ist und über die Suche zugänglich sein sollte1. Wie L. M. Hinman es ausdrückt, „Esse est indicato in Google” („zu sein bedeutet, bei Google indexiert zu sein”). Wie er außerdem feststellt, „können die Bürgerinnen und Bürger in einer Demokratie ohne Zugang zu genauen Informationen keine fundierten Entscheidungen treffen”2,3. Wenn Demokratie auf dem freien Zugang zu unverfälschten Informationen beruht, haben Suchmaschinen einen direkten Einfluss darauf, wie demokratisch unsere Länder sind. Ihre Rolle als Wächter des Wissens steht in direktem Widerspruch zu ihrer Natur als private Unternehmen, die von Werbeeinnahmen abhängig sind. Deshalb müssen wir im Interesse einer freien Gesellschaft die Rechenschaftspflicht von Suchmaschinen und die Transparenz ihrer Algorithmen fordern2.

Entstehung von Filterblasen

Systeme, die Inhalte auf der Grundlage von Benutzerprofilen empfehlen, einschließlich Suchmaschinen, können Nutzende davon abhalten, sich mit anderen Ansichten auseinanderzusetzen. Indem sie Inhalte empfehlen, die der nutzenden Person gefallen, schaffen sie sich selbst verstärkende Vorurteile und „Filterblasen”2,4. Diese Blasen, die entstehen, wenn neu erworbenes Wissen auf früheren Interessen und Aktivitäten beruht2, zementieren Vorurteile als solide Grundlagen des Wissens. Das kann besonders gefährlich werden, wenn man mit jungen und beeinflussbaren Menschen arbeitet. Daher sollten offene Diskussionen mit Gleichaltrigen und Lehrkräften sowie kollaborative Lernaktivitäten im Klassenzimmer gefördert werden.

Feedback-Schleifen

Suchmaschinen, wie auch andere Empfehlungssysteme, sagen voraus, was für die nutzende Person von Interesse ist. Wenn der Nutzende dann auf die Empfehlung klickt, wird dies als positives Feedback gewertet. Dieses Feedback beeinflusst, welche Links in Zukunft angezeigt werden. Wenn eine nutzende Person auf den ersten angezeigten Link klickt, liegt das daran, dass er oder sie den Link für relevant hält, oder einfach daran, dass es der erste Treffer war und daher leichter auszuwählen ist?

Implizites Feedback ist schwierig zu interpretieren. Wenn Vorhersagen auf falschen Interpretationen beruhen, sind die Auswirkungen sogar noch schwieriger vorherzusagen. Wenn Ergebnisse einer bestimmten Art wiederholt angezeigt werden — und das Einzige sind, was der Nutzende zu sehen bekommt —, kann dies sogar dazu führen, dass sich die Vorlieben und Abneigungen dieser Person ändern: ein Fall von sich selbst erfüllender Vorhersage.

In einer Stadt in den Vereinigten Staaten wurde ein Predictive Policing System eingeführt, das auf die kriminalitätsgefährdeten Gebiete einer Stadt hinweist. Das bedeutet, dass mehr Polizeibedienstete in diesen Gebieten eingesetzt werden. Da diese Polizeibediensteten wussten, dass das Gebiet ein hohes Risiko darstellt, waren sie sehr vorsichtig und haben mehr Menschen angehalten, durchsucht oder verhaftet, als sie es normalerweise getan hätten. Die Verhaftungen bestätigten also die Vorhersage, selbst wenn diese von vornherein falsch war. Und nicht nur das: Die Verhaftungen waren Daten für künftige Vorhersagen in denselben und ähnlichen Gebieten, wodurch sich die Verzerrungen im Laufe der Zeit noch verstärkten5.

Wir nutzen Vorhersagesysteme, damit wir nach den Vorhersagen handeln können. Aber wenn wir auf der Grundlage von verzerrten Vorhersagen handeln, hat das Auswirkungen auf die zukünftigen Ergebnisse, die betroffenen Menschen und damit auf die Gesellschaft selbst. „Als Nebeneffekt der Erfüllung ihres Zwecks, relevante Informationen zu finden, verändert eine Suchmaschine zwangsläufig genau das, was sie messen, sortieren und einordnen soll. In ähnlicher Weise werden die meisten maschinellen Lernsysteme die Phänomene beeinflussen, die sie vorhersagen.”5

Fake News, extreme Inhalte und Zensur

In Online-Foren, sozialen Medien und Blogs, die für Lernende über die Suche zugänglich sind, werden immer häufiger Fake News (falsche Geschichten, die als Nachrichten erscheinen) verbreitet. Kleine, zielgerichtete Gruppen von Menschen können die Bewertungen für bestimmte Videos und Websites mit extremen Inhalten in die Höhe treiben. Das erhöht die Popularität und den Anschein von Authentizität und spielt den Ranking-Algorithmen in die Hände4. Bis heute gibt es jedoch keine klare und explizite Richtlinie, die von den Suchmaschinenunternehmen verabschiedet wurde, um Fake News zu kontrollieren2.

Auf der anderen Seite schließen Suchmaschinen systematisch bestimmte Websites und bestimmte Arten von Websites zugunsten anderer aus6. Sie zensieren die Inhalte einiger Autorinnen und Autoren, obwohl sie von der Öffentlichkeit nicht mit dieser Augabe betraut wurden. Daher sollten Sie sie mit Bedacht und Unterscheidungsvermögen nutzen.


Hillis, K., Petit, M., Jarrett, K., Google and the Culture of Search, Routledge Taylor and Francis, 2013.

2 Tavani, H., Zimmer, M., Search Engines and Ethics, The Stanford Encyclopedia of Philosophy, Fall 2020 Edition), Edward N. Zalta (ed.).

3 Hinman, L. M., Esse Est Indicato in Google: Ethical and Political Issues in Search Engines, International Review of Information Ethics, 3: 19–25, 2005.

4 Milano, S., Taddeo, M., Floridi, L. Recommender systems and their ethical challenges, AI & Soc 35, 957–967, 2020.

5 Barocas, S.,  Hardt, M., Narayanan, A., Fairness and machine learning Limitations and Opportunities, yet to be published.

6 Introna, L. and Nissenbaum, H., Shaping the Web: Why The Politics of Search Engines Matters, The Information Society, 16(3): 169–185, 2000.

License

Icon for the Creative Commons Attribution 4.0 International License

KI für Lehrkräfte : ein offenes Lehrbuch Copyright © 2024 by Colin de la Higuera und Jotsna Iyer is licensed under a Creative Commons Attribution 4.0 International License, except where otherwise noted.

Share This Book