Artificial Intelligence & Machine Learning,
Von Rahel Preisig, Studentin des Studiengangs Artificial Intelligence & Machine Learning
KI, Kunst und Kritik: Studierende schreiben Essays über philosophisch-ethische Fragen rund um die Künstliche Intelligenz (KI). Etwa über Algorithmen, die althergebrachte Vorurteile in der neuen Welt verankern. Mehr dazu in dieser vierten Folge unserer 8-teiligen KI-Philosophie-Serie.
Künstliche Intelligenz ist der aktuelle Zukunfts-Hype schlechthin. Doch viele, den künstlichen Intelligenzen zugrunde liegende, Algorithmen sind bis zum Rand gefüllt mit Konservatismus. Big-Data-Technologien basieren, wie der Name sagt, auf Daten. Diese Daten stammen in der Regel aus der Vergangenheit, denn wir haben keine aus der Zukunft. Aus den Erfahrungen der Vergangenheit werden Voraussagen für die Zukunft modelliert.
Daran ist grundsätzlich nichts falsch. Modelle sind wichtige Arbeitsinstrumente der Wissenschaft. Probleme tauchen da auf, wo Modelle automatisierte Entscheide treffen, basierend auf menschlichem Verhalten aus der Vergangenheit. So werden diese veralteten Einschätzungen wiederholt, skaliert und als neutral verkauft.
Das Fatale ist nun, dass unsere Vergangenheit und unsere Gegenwart nur so strotzen vor fragwürdigen Entscheidungen. Verpackt in Datensätze werden diese als Grundlage für künstliche Intelligenzen genutzt. Unsere Gesellschaft ist geprägt von Sexismus, Rassismus, Klassismus und vielen weiteren diskriminierende Strukturen.
Unsere Gesellschaft ist geprägt von diskriminierenden Strukturen. Algorithmen reproduzieren sie für uns weiter in die Zukunft.
Algorithmen lernen diese Strukturen fleissig und reproduzieren sie für uns weiter in die Zukunft. «Bullshit in, bullshit out», wird das Prinzip auch genannt. Wollen wir als Gesellschaft vorankommen, so ist es verheerend auf vergangene menschliche Entscheidungen zu bauen.
Künstliche Intelligenz kann noch nicht in die Zukunft denken
Mathematische Modelle, was Algorithmen im Prinzip sind, sind von Natur aus vergangenheitsbezogen: Ihre Funktion basiert auf der Annahme, dass sich Muster aus der Vergangenheit in der Zukunft wiederholen. Die Zukunft als ein Raum neuer Möglichkeiten kann aber nicht durch eine Künstliche Intelligenz gedacht werden, zumindest nicht bisher.
Wir müssen uns deshalb gut überlegen, wo wir automatisierte Entscheidungs-Tools einsetzen. Gerade in Gebieten, die stark geprägt sind von diskriminierenden Mechanismen, wie zum Beispiel das Polizeiwesen, sollte gänzlich auf ihren Einsatz verzichtet werden. Wenn wir die rassistische Vergangenheit des Polizeiapparats durchbrechen wollen, können wir uns nicht auf Polizeiarbeit aus dieser Zeit verlassen.
Frage in die Runde: Wie können Algorithmen von Vorurteilen und Diskriminierungen befreit werden? Wo müsste man ansetzen? Bitte schreiben Sie Ihren Kommentar hier zuunterst in die Kommentarspalte.
Veröffentlicht am 27. September 2022
Lesen Sie weitere Folgen unserer KI-Philosophie-Serie:
Trainiert den Umgang mit Datenkraken: Rahel Preisig ist Studentin des Studiengangs Artificial Intelligence & Machine Learning. Sie interessiert sich für das Sichtbarwerden und das Unsichtbar machen in der Digitalen-Welt: Was erzählen uns Daten und wie werden diese Erkenntnisse für Menschen zugänglich? Wie können wir uns verstecken vor den Datenkraken und unsere Privatsphäre waren? Kann ein rassistischer Algorithmus gesellschaftliche Probleme aufdecken? Solche Fragen treiben sie um und sind ihre Motivation für die Auseinandersetzung mit der zukunftsrelevanten Technologie von AI & ML.
KI-Philosophie-Serie: Der obenstehende Beitrag wurde ihm Rahmen des Bachelor-Studiengangs Artificial Intelligence & Machine Learning geschrieben. Er wurde geprüft, redaktionell aufbereitet und ist Teil einer 8-teiligen Blog-Serie mit bestbenoteten Essays von Studierenden.
Der betreffende Studiengang nimmt die Implikation der Technik ernst. Daher lernen die Studierenden nicht nur, KI einzusetzen, sondern diese auch nachhaltig, sicher und ethisch verantwortbar umzusetzen. Als Basis dafür dient unter anderem ein Philosophie-Modul unter der Leitung von Peter A. Schmid und Orlando Budelacci. Die Hochschule Luzern setzt dabei auf Interdisziplinarität: Dieses Modul zeigt beispielhaft, wie sich drei Departemente – Informatik, Soziale Arbeit und Design & Kunst – fachübergreifend einem Zukunftsthema zuwenden.
Lesetipp: Im September 2022 erscheint Orlando Budelaccis Fachbuch «Mensch, Maschine, Identität. Ethik der Künstlichen Intelligenz» im Schwabe Verlag. Dieses Buch beleuchtet die Komplexität und Fülle der gewichtigen Umgestaltungen der Gegenwart durch die Technologie der Künstlichen Intelligenz. Es basiert auf seinen Lehrveranstaltungen und verdankt viele Anregungen den Studierenden des Bachelor-Studiengangs Artificial Intelligence & Machine Learning. Budelacci beschreibt KI als Hoffnung und Gefahr. Er setzt sich philosophisch und mit ethischen Überlegungen damit auseinander.
Holen Sie sich einen Bachelor: Der zukunftsweisende Studiengang Artificial Intelligence & Machine Learning legt seinen Fokus auf die Schlüsseltechnologien der Künstlichen Intelligenz. Hier holen Sie sich das Rüstzeug für die steigende Nachfrage der Wirtschaft nach Fachkräften in den Bereichen Künstliche Intelligenz und Robotik. Geleitet wird der Studiengang vom langjährigen KI-Experten Donnacha Daly.
Bilden Sie sich weiter:
Blick in die Zukunft der Künstlichen Intelligenz: Folgen Sie unserer Twitter-Seite: Dort verfolgen und kommentieren Expertinnen und Experten der Hochschule Luzern die neuesten Entwicklungen im Bereich der KI.
🚀 Besuchen Sie unsere (Online-)Info-Veranstaltungen
Über den Informatik-Blog: Hier erhalten Sie Tipps und Neuigkeiten aus der Welt der IT. Wir porträtieren Menschen und schreiben über Technologien, welche die Hochschule Luzern – Informatik mitprägen. Abonnieren Sie jetzt unseren Blog und bleiben Sie informiert.
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.