Artificial Intelligence & Machine Learning,

Gesellschaft & Ethik,

Studium

KI-Philosophie-Serie: Das Denken nicht den Suchmaschinen überlassen

KI-Philosophie-Serie: Das Denken nicht den Suchmaschinen überlassen
Wenn Menschen nicht mehr eigenständig denken und von Algorithmen fremdgesteuert werden: Gewisse Tech-Giganten nutzen das psychologische Konzept der kognitiven Dissonanz. (Bildquelle: Reimund Bertrams auf Pixabay)

Von Choekyel Nyungmartsang Student des Studiengangs Artificial Intelligence & Machine Learning

KI, Kunst und Kritik: Studierende schreiben Essays über philosophisch-ethische Fragen rund um die Künstliche Intelligenz (KI). Etwa darüber, wie die KI gewisser Tech-Giganten unsere Gesellschaft polarisiert, indem sie uns in einen Teufelskreis führt. Mehr dazu in dieser letzten Folge unserer 8-teiligen KI-Philosophie-Serie.

Künstliche Intelligenz (KI) hat längst Einzug in unzählige unserer Lebensbereiche gehalten. So wird unter anderem der Grossteil unserer Suchanfragen durch ein neuronales Netzwerk geleitet, um die Resultate penibel auf unsere Wünsche, Bedürfnisse und Interessen abzustimmen. Dabei spielt der immense Daten-Fussabdruck, den wir im Internet hinterlassen, eine grosse Rolle.

Je mehr die Tech-Giganten über uns wissen, desto akkurater erscheinen die Inhalte, die sie uns anzeigen. Auch soziale Medien haben das enorme Potenzial der KI-gestützten Such- und Empfehlungsalgorithmen erkannt.

Empfehlungsalgorithmen schaffen einen Teufelskreis.

Auf den ersten Blick scheint es unproblematisch, dass sie uns nur das anzeigen, was unseren eigenen Interessen entspricht – besonders in einer Zeit, in der man die Flut an Informationen kaum mehr bewältigen kann.

Doch diese Bequemlichkeit hat auch eine negative Seite: Sie führt zu einer schleichenden Polarisierung und Extremisierung der Gesellschaft.

Fake News auf dem Silbertablett

Für die Tech-Giganten ist es wichtig, ihre Benutzerinnen und Benutzer so lange wie möglich an sich zu binden. Dazu nutzen sie das Konzept der kognitiven Dissonanz: Dieses besagt, dass Menschen dazu neigen, Informationen, die ihren Ansichten entsprechen, bevorzugt wahrzunehmen und sich an diese auch besser zu erinnern.

Dieser Effekt hält jedoch nicht lange an. Damit die BenutzerInnen nicht abspringen, muss ihnen ein extremerer Inhalt gezeigt werden. Die Algorithmen unterscheiden dabei nicht, ob es sich um legitime Inhalte oder um sogenannte «Fake News» handelt. Damit schaffen sie einen Teufelskreis.

Kognitive Dissonanz beschreibt eine Störung der Stimmigkeit, die wir Menschen uns im Leben wünschen.

Die selektive Auswahl und die Zensur von Inhalten führen zu einer Polarisierung der Gesellschaft. Davon sind einige soziale Gruppen eher betroffen als andere. Menschen, welche ein geringes Bildungsniveau aufweisen, werden eher Opfer des Dunning-Kruger-Effekts.

Durch Algorithmen gelenkt, geraten sie vermehrt an suspekte Informationen, welche sie jedoch nicht hinterfragen. Dabei bestätigen sich ihre Annahmen zwangsläufig in einer Art selbsterfüllenden Prophezeiung. Durch die Vernetzung des Internets können die Betroffenen weltweit mit Gleichgesinnten kommunizieren.

Wir Menschen sind alle empfänglich für die psychologischen Dispositionen, welche die KI benutzt.

Auf diese Weise spitzt sich der Effekt stetig zu. Da alternative Inhalte zu Vergleichszwecken fehlen, kommt es zu einer Polarisierung. Ein Beispiel für dieses moderne Phänomen sind Gruppen wie die «Flat Earther», die in ihrer Verschwörungstheorie behaupten, dass die Erde flach sei.

«Flat Earther» demonstrieren für ihre Überzeugung. Verschwörungstheorien wie die Theorie der flachen Erde finden auf Social-Media-Plattformen einen idealen Nährboden. Die Plattformen nutzen sie für ihre Zwecke (Bildquelle: Kajetan Sumila/Unsplash).

Sanktionen könnten die Irrfahrt stoppen

Die unangenehmen Nebeneffekte dieser Technologie sind heutzutage allgegenwärtig. Zu denken, man sei selbst nicht betroffen, wäre ein Trugschluss. Wir Menschen sind alle empfänglich für die psychologischen Dispositionen, welche die KI benutzt.

Es wäre der falsche Ansatz, Fehler in der menschlichen Psyche zu suchen. Vielmehr müssen wir unseren Blick auf die fraglichen Geschäftsmodelle der Tech-Giganten richten. Damit es nicht zu irreversiblen Schäden kommt, werden in Zukunft Sanktionen erforderlich sein. Sonst ist das Ende unserer Irrfahrt noch in weiter Ferne.

Bildung und eigenständiges Denken fördern

Selbst wenn das erwähnte Geschäftsmodell zunehmend kritisch betrachtet oder sogar verboten würde: Wir sind auch in Zukunft auf KI-gestützte Such- und Empfehlungsalgorithmen angewiesen. Wie eine Studie gezeigt hat, ist der beste Schutz gegen eine fortwährende Polarisierung ein hohes formales Bildungsniveau der Gesellschaft. Wir dürfen daher das Denken und Recherchieren nicht den Maschinen überlassen. Das eigene Denken wird wichtiger denn je!

Weiterführende Literatur: Festinger, Leon (1957). Die Theorie der kognitiven Dissonanz

Frage in die Runde: Welche weiteren Lösungsansätze sehen Sie? Was muss getan werden, um der Polarisierung der Gesellschaft entgegenzuwirken? Bitte schreiben Sie Ihren Kommentar hier zuunterst in die Kommentarspalte.

Veröffentlicht am 30. Dezember 2022

Lesen Sie weitere Folgen unserer KI-Philosophie-Serie:

Choekyel Nyungmartsang studiert Vollzeit im Studiengang Artificial Intelligence & Machine Learning und ist nebenbei als Nachhilfelehrer tätig. Das philosophische Denken, angewendet auf konkrete Fragen etwa der KI, zeitigt seiner Meinung nach grossen Nutzen, da die KI auf sehr zentrale Aspekte des Lebens Einfluss hat.

KI-Philosophie-Serie: Das obenstehende Essay wurde ihm Rahmen des Bachelor-Studiengangs Artificial Intelligence & Machine Learning geschrieben. Es wurde geprüft, redaktionell aufbereitet und ist Teil unserer 8-teiligen Serie mit bestbenoteten Essays von Studierenden. Es war allen Verantwortlichen von Beginn an wichtig, dass der betreffende Studiengang die Implikation der Technik ernst nimmt. Daher lernen die Studierenden nicht nur, KI einzusetzen, sondern diese auch nachhaltig, sicher und ethisch verantwortbar umzusetzen. Als Basis dafür dient unter anderem ein Philosophie-Modul unter der Leitung von Peter A. Schmid und Orlando Budelacci. Die Hochschule Luzern setzt dabei auf Interdisziplinarität: Dieses Modul zeigt beispielhaft, wie sich drei Departemente – Informatik, Soziale Arbeit und Design & Kunst – fachübergreifend einem Zukunftsthema zuwenden.

Lesetipp: Im September 2022 ist Orlando Budelaccis Fachbuch «Mensch, Maschine, Identität. Ethik der Künstlichen Intelligenz» im Schwabe Verlag erschienen. Es basiert auf seinen Lehrveranstaltungen und verdankt viele Anregungen den Studierenden des Bachelor-Studiengangs Artificial Intelligence & Machine Learning. Budelacci beschreibt KI als Hoffnung und Gefahr. Er setzt sich philosophisch und mit ethischen Überlegungen damit auseinander.

Holen Sie sich einen Bachelor: Der zukunftsweisende Studiengang Artificial Intelligence & Machine Learning legt seinen Fokus auf die Schlüsseltechnologien der Künstlichen Intelligenz. Hier holen Sie sich das Rüstzeug für die steigende Nachfrage der Wirtschaft nach Fachkräften in den Bereichen Künstliche Intelligenz und Robotik.

Bilden Sie sich weiter:

  • Im CAS Digital Ethics Management lernen Sie, wie Sie mit Wertesystemen und nachhaltigen Handlungen die Digitalisierung vorantreiben. Digitale, KI-basierte und datengesteuerte Lösungen sind die Grundlage für viele Geschäftsmodelle. Das CAS bietet Werkzeuge und Methoden, um diese Lösungen nachhaltiger, sicherer und werteorientierter zu realisieren. Hier sehen Sie das Info-Video über das CAS.

Blick in die KI-Zukunft: Folgen Sie unserer Twitter-Seite: Dort verfolgen Expertinnen und Experten der Hochschule Luzern die neuesten Entwicklungen im Bereich der KI.

🚀 Besuchen Sie unsere (Online-)Info-Veranstaltungen

Über den Informatik-Blog: Hier erhalten Sie Tipps und Neuigkeiten aus der Welt der IT. Wir porträtieren Menschen und schreiben über Technologien, welche die Hochschule Luzern – Informatik mitprägen. Abonnieren Sie jetzt unseren Blog und bleiben Sie informiert.

👀 Neu: Alle Blogbeiträge und News aus unserem Department auf LinkedIn. Jetzt folgen!

Kommentare

1 Kommentare

Bodo Fischer

Guten Tag Wir werden Tagtäglich von vielen Seiten in der Gesellschaft manipuliert. Allein die sogg Konsumgesellschaft muß ja um bestehen zu können die Menschen durch psychologische Werbung manipulieren. Der Bereich Fake News sit ein weiteres interessantes Gebiet. Wie soll der Normal-mensch, insofern es ihn noch gibt unterscheiden was ist in meinem Sinne richtig und was falsch. Wir brauchen menschen mit einem Herzensbewusstsein. Menschen die fähig sind aus dem ganzen "Müll" der täglich auf uns geworfen wird, das meiste aus zu sortieren. Solche herzmenschen müssen in allen Teilen der Gesellschaft eingesetzt werden. Sie sind kritisch, unbestechlich (nicht wie Politiker) und unabhängig. Und zwar unabhängig im geistigen Sinne wie im materiellen Sinne. So sind wir beim Thema Freiheit angelangt. Dies bedarf jedoch eines extra Kapitels. Dies ist nur ein Denkanstoss von meiner Seite. Liebe Grüße Bodo Fischer

Antworten

Kommentar verfassen

Danke für Ihren Kommentar, wir prüfen dies gerne.

Pin It on Pinterest