«Künstliche Intelligenz gibt es eigentlich nicht»

«Künstliche Intelligenz gibt es eigentlich nicht»
Szene aus der schwedischen Science-Fiction-Serie «Echte Menschen» (2012). Eine Familie öffnet die Verpackung, in der ein menschenähnlicher Roboter erwacht – die neue Hausangestellte der Familie (Bild: Johan Paulin/STV).

By Gabriela Bonin

Die Bezeichnung «Künstliche Intelligenz» kann im Alltag zu falschen Erwartungen verleiten und unnötige Ängste schüren. Das sagt Ladan Pooyan-Weihs, Co-Studienleiterin unseres CAS Artificial Intelligence. Ein Interview über «erweiterte Intelligenz», digitale Ethik und nötige Weichenstellungen.

Frau Pooyan, Sie halten den Begriff «Künstliche Intelligenz» (KI) für irreführend. Was stört Sie daran?

Ladan Pooyan-Weihs: Über «Künstliche Intelligenz» wird alles Mögliche behauptet, obschon es noch keine allgemeingültige Definition der Intelligenz gibt. Der Begriff führt in die Irre. Das geschieht zum Beispiel auch, wenn wir im Zusammenhang mit Informationstechnologie von «Viren» sprechen. Mit einer derartigen Wortwahl schaffen wir eine negative Vorstellung von einer Software, die eigentlich einfach zu meistern ist.

Inwiefern führen solche Begriffe in die Irre?

Sie können Angst auslösen, weil sie nicht wertneutral sind. Der Mensch träumt schon lange von übermenschartigen Wesen, die oft gewaltige Grösse und Kraft besitzen und ausserordentliche, körperlich schwere Aufträge blitzschnell ausführen können. Zugleich fürchtet er aber auch, dass diese nach einiger Zeit unkontrollierbar werden. Schauen wir uns nur die Entwicklung des legendären Golem in der jüdischen mittelalterlichen Literatur an oder von Frankenstein in neuer Zeit. Falsche Begriffe verleiten uns zu falschen Vorstellungen und Schlussfolgerungen.

Erst hilfreich, dann böse: Die Sagenfigur «Golem», ein menschenähnliches zerstörerisches Wesen in einer Szene des deutschen Stummfilms «Der Golem» aus dem Jahr 1915 (Bild: Wikimedia).
Erst hilfreich, dann böse: Die Sagenfigur «Golem», ein menschenähnliches zerstörerisches Wesen in einer Szene des deutschen Stummfilms «Der Golem» aus dem Jahr 1915 (Bild: Wikimedia).

Immerhin verhelfen diese einfach verständlichen Begriffe auch Laien zu einer Vorstellung von der Sache …

Das ist gerade das Problem: Mit solchen Begriffen werden unsere Gefühle angesprochen. Sie beeinflussen unsere persönliche Beziehung zu einem Thema. In diesem Fall führen sie zu Fantasterei, überhöhten Erwartungen oder umgekehrt zu beklemmenden Gefühlen. Das hindert uns daran, eine sachliche Diskussion zu führen.

Wie können wir uns denn nüchtern über «Künstliche Intelligenz» unterhalten?

Zunächst sollten wir den Begriff anders fassen und von «Erweiterter Intelligenz» sprechen. Denn jedes Stück Software ist ein Stück erweiterte menschliche Intelligenz. Es sind nicht Roboter, die ein Computerprogramm bestimmen – es sind wir Menschen! Unsere Intelligenz steckt dahinter, nicht eine künstliche Intelligenz. Wir bestimmen, wie KI-Programme arbeiten sollen. Ziehen wir also keine Science-Fiction-Visionen herbei, sondern gehen wir bewusst mit der Thematik um!

Es sind nicht Roboter, die ein Computerprogramm bestimmen – es sind wir Menschen.

Da Menschen hinter den Programmen stecken, kann man also nicht von «Künstlicher Intelligenz» sprechen?

Allein schon der Begriff «Intelligenz» ist bis heute auch in Fachkreisen nicht eindeutig bestimmt. Ich verstehe unter Intelligenz die Fähigkeit, innovativ zu sein, Regeln zu brechen, sich für das noch Unbekannte zu interessieren. Intelligent zu sein bedeutet, Neugierde zu haben. Intelligenz ist dynamisch, global wirksam, abstraktions- und entwicklungsfähig.

Heisst das, dass wir Menschen dank dieser Art von Intelligenz auch in Zukunft sogenannt «intelligenten» Maschinen und Robotern überlegen sein werden?

Ja, weil wir über das Erlaubte und Bekannte hinausgehen können. Wir vermögen es, die Regeln und Überzeugungen des Augenblicks zu brechen. Innovative Menschen bringen sich freiwillig in unbequeme Situationen, indem sie sich mit Menschen aus völlig anderen Fachbereichen oder mit komplett anderen Ansichten austauschen. Sie wenden die bekannten Regeln eines Bereichs auf einen anderen an. Sie stellen eigenes Wissen infrage. Innovation wird aus dem Zweifel und dem Hinterfragen heraus geboren. Ebenso entwickelt sie sich aus Emotionen und Ehrgeiz heraus und vor allem aus dem ethischen Bedürfnis, etwas Gutes für die Menschheit zu tun.

Derartige Bedürfnisse und Gefühle haben Maschinen nicht …

Eine Maschine zweifelt nicht. Sie hinterfragt nicht. Ein Roboter hat kein Verlangen nach einer Wertschöpfung für die Menschheit, nach Frieden oder dem Gemeinwohl. Maschinen tun, was sie tun sollen – und zwar so, wie sie von uns Menschen programmiert wurden. Wenn Intelligenz also mit Innovationsfähigkeit und inneren Antrieben einhergeht, kann eine Maschine dann intelligent sein? Selbst eine starke KI kann ihre Schlüsse noch nicht auf andere Gebiete übertragen. Solange Computer kein Einfühlungsvermögen für Lebewesen haben, solange sie weder Sinn für Humor noch die Fähigkeit besitzen, von einer Situation in eine andere zu springen, wird es keine Künstliche Intelligenz geben.

Was genau kann denn KI beziehungsweise die Erweiterte Intelligenz?

Sie kann menschliches Lernen und Denken auf den Computer übertragen. KI-Programme arbeiten fehlerfrei, schneller und effizienter als Menschen. Sie tun das auf ressourceneffiziente Weise im 24/7-Modus. Sie werden nie müde. Ihre Leistung wird weder durch Trauer, Verluste noch durch Liebeskummer gesenkt. Schauen wir die berühmten Computerprogramme aus dem Bereich der künstlichen Intelligenz an, wie etwa AlphaGo, Watson oder Deep Blue: Sie benutzen Strategien, Argumentationen und Wege, die sich sehr von jenen unterscheiden, die ein menschliches Gehirn genommen hätte. Denn KI kann zum Beispiel Muster in Daten effizienter erkennen als Menschen.

In Bezug auf Effizienz, Konstanz und Schnelligkeit sind KI also besser als wir Menschen. Wird man ihnen künftig nicht auch Empathie oder Innovationsgeist einprogrammieren können?  

Denken wir an Eigenschaften wie Einfühlungsvermögen und Humor: Es gibt auch Menschen, die diese Wesenszüge nicht aufweisen. Wir wissen selbst noch nicht, wie sie überhaupt zustande kommen. Erst wenn wir dies verstehen, können wir versuchen, diese Kenntnisse auf eine Maschine zu übertragen. Egal, wie komplex ein Programm ist, es widerspiegelt immer nur das, was wir selbst verstanden und ihm beigebracht haben. Das ist auch so beim «Maschinellen Lernen», der künstlichen Generierung von Wissen und Erfahrung: «Machine Learning» verkörpert, einfach gesagt, nur eine riesige Datenbank, der wir alles «gelehrt» haben. Maschinen haben keine eigenen Ideen, sie beziehen sich auf Spielregeln, die wir ihnen diktieren.

Demnach braucht man sich nicht vor gefährlichen künstlichen Superintelligenzen zu fürchten, sondern vielmehr vor den Fehlern der Menschen?

Ja, die eigentliche Gefahr in Bezug auf KI und Roboter geht von uns Menschen aus. Zum Beispiel dann, wenn wir bewusst Killerroboter programmieren oder rassistische oder frauenfeindliche Chatbots erstellen. Es gibt keine Künstliche Intelligenz ausserhalb unserer menschlichen Kontrolle, die unsere Ausrottung herbeiführen könnte.

Die eigentliche Gefahr in Bezug auf KI und Roboter geht von uns Menschen aus

Wie verhindern wir, dass Menschen unbedachte oder gefährliche Programme entwickeln? 

Mittels Regulierungen. Es ist unsere Pflicht als Informatikerinnen und Informatiker, unsere demokratischen Institutionen zu informieren und zu alarmieren, damit sie alle notwendigen Mechanismen zur Verhinderung von Missbräuchen einführen.

Es bräuchte so quasi einen Hippokratischen Eid für Informatikerinnen und Informatiker – ein Gelöbnis für digitale Ethik.

Den gibt es bereits, nur ist er nicht bindend: Der «Holberton-Turing-Eid» für Entwicklerinnen und Entwickler von Algorithmen stellt die Menschlichkeit über die Technik. Wir sind noch weit davon entfernt, dass ein derartiger Eid zum Beispiel bei einem Staatsexamen abgelegt würde. Es gibt nur Einzelinitiativen, aber keine umfassenden, weltweit verbindlichen Richtlinien. In Frankreich kenne ich zum Beispiel die Initiative «Data for Good».

Betty Holberton (rechts) programmierte in Philadelphia vor über fünfzig Jahren den ersten elektronischen Allzweck-Digitalcomputer ENIAC. Ihr und dem britischen Informatiker Alan Turin waren ethische Prinzipien wichtig. Daher wurde der Holberton-Turing-Eid nach ihnen benannt (Bild:Wikipedia)
Betty Holberton (rechts) programmierte in Philadelphia vor über fünfzig Jahren den ersten elektronischen Allzweck-Digitalcomputer ENIAC. Ihr und dem britischen Informatiker Alan Turing waren ethische Prinzipien wichtig. Daher wurde der Holberton-Turing-Eid nach ihnen benannt (Bild:Wikipedia).

Sie sind daran beteiligt, am Informatik-Departement der Hochschule Luzern ein neues CAS-Ausbildungsprogramm für «Digitale Ethik» aufzubauen. Warum ist Ihnen das wichtig?

Das liegt mir sehr am Herzen.  Die Digitalisierung erreicht alle Lebensbereiche der Gesellschaft und Wirtschaft – weitgehend ohne grundlegende ethische Überlegungen und ohne ganzheitliche politische Regulierungen. Wir Informatikerinnen und Informatiker spielen eine wesentliche Rolle dabei und müssen daher die Weichen heute achtsam stellen und Verantwortung übernehmen.

KI stellt eine Schlüsseltechnologie dar, die in allen Lebensbereichen eine immer wichtigere Bedeutung gewinnt (Video aus unserem Bachelorstudienganges Artificial Intelligence & Machine Learning).

Welche Fachleute waren für Sie in diesen Fragen inspirierend?

Der französisch-amerikanische Mathematiker und Informatiker Luc Julia hat mir sehr geholfen, diese Thematik einzuordnen. Ich habe sein Fachbuch «There is no such thing as artificial intelligence» sehr interessant gefunden («Es gibt keine künstliche Intelligenz», das Buch erschien nur auf Englisch und Französisch). Ich selbst fand den Begriff «Künstliche Intelligenz» schon lange irreführend. Julias Buch hat mich in meinen Ansichten bestätigt. In ethischen Fragen bin ich inspiriert von der Wirtschaftsinformatikerin Sarah Spiekermann sowie von Corinna Bath, Professorin für Gender, Technik und Mobilität.

Ausschnitt aus einem Interview mit Luc Julia

Wer hat den Begriff «Künstliche Intelligenz» denn eingeführt?

Der US-amerikanische Informatiker John McCarthy hat ihn 1956 auf der Dartmouth Conference geprägt. Dieses Forschungsprojekt gilt als die Geburtsstunde der Künstlichen Intelligenz als akademisches Fachgebiet. Das Ziel war es, innerhalb von drei Monaten in Maschinen die Mechanismen des menschlichen Gehirns nachzubilden. 

Welche Art von KI wünschen Sie sich?

Ich möchte, dass wir KI zum Schutz und für eine positive Entwicklung der Menschheit einsetzen. Sie soll keine Entscheidungen für uns treffen. Sie sollte uns aber helfen, blitzschnell ethisch fundierte Entscheidungen zu fällen.

Ladan Pooyan-Weihs

Informatikerin mit ethischen Ansprüchen: Ladan Pooyan-Weihs ist Dozentin an der Hochschule Luzern – Informatik. Sie ist Studienleiterin des CAS Digital Transformation und des CAS Digital Architect sowie Co-Kursleiterin des CAS Artificial Intelligence/Künstliche Intelligenz. Pooyan-Weihs beteiligt sich zudem an der Einführung eines neuen CAS für Digitale Ethik und engagiert sich am Department Informatik auch als Diversity-Beauftragte.

Bilden Sie sich weiter: Im (AI/KI) lernen Sie, Künstliche Intelligenz zu verstehen, innovativ anzuwenden und hinter den Hype zu blicken. Der Kurs bietet einen fundierten Einstieg in die Algorithmen der Künstlichen Intelligenz. Die beiden Fachkurse «Artificial Intelligence – Intelligent Decision Support and Automation» sowie «Artificial Intelligence – Machine Learning». Diese bieten grundlegendes Wissen zu allen wichtigen Teilgebieten der KI.

Holen Sie sich einen Bachelor: Der zukunftsweisende Studiengang Artificial Intelligence & Machine Learning legt seinen Fokus auf die Schlüsseltechnologien der Künstlichen Intelligenz. Hier holen Sie sich das Rüstzeug für die steigende Nachfrage der Wirtschaft nach Fachkräften in den Bereichen Künstliche Intelligenz und Robotik. 

Über den Informatik-Blog: Hier erhalten Sie Tipps und Neuigkeiten aus der Welt der IT. Wir porträtieren Menschen und schreiben über Technologien, welche die Hochschule Luzern – Informatik mitprägen. Abonnieren Sie jetzt unseren Blog und bleiben Sie informiert.

AI

Beitrag teilen

  • Mail
  • Kommentare

    4 Kommentare

    Ladan Pooyan-Weihs

    06. June 2020

    @Soraya Aminpirooz, Danke für Ihre Frage. Um den digitalen Eid bindend zu machen, müsste er institutionalisiert werden. Ich stelle mir dazu verschiedene Möglichkeiten vor: Diese Institutionalisierung könnte als eine tiefgreifende, politisch-gesellschaftliche Entscheidung betrachtet werden und somit dem Staat zugeschrieben werden. In diesem Fall würden Informatik-Berufe als staatliche Berufe oder staatlich überwachte Berufe klassifiziert. Demnach müsste die Abschlussprüfung für Informatikerinnen und Informatiker als eine „von staatlichen Prüfungsausschüssen abgenommene Prüfung» für den Eintritt in diesen Beruf definiert werden – so wie es schon heute bei den Juristinnen und Juristen oder Medizinerinnen und Mediziner der Fall ist. Die Institutionalisierung könnte aber auch durch den Gesetzgeber realisiert werden. Somit könnte der Eid unter den Compliance Bestimmungen und Auflagen verankert werden, die jedes Unternehmen in dieser Domaine respektieren und aktiv einhalten müsste. Mit besten Grüssen, Ladan Pooyan-Weihs

    A. Frei

    06. June 2020

    Sehr wichtige Thematik, die hoffentlich bald insbesondere in der Ausbildung, aber auch bei Arbeitgebern und in der Politik an Relevanz gewinnt!

    Soraya Aminpirooz

    05. June 2020

    Vielen Dank für diesen interessanten Beitrag. Wie kann man eigentlich den digitalen Eid bindend machen? Das wäre ein Schritt in Richtung Einhaltung der digitalen Ethik, was in jetziger Zeit absolut notwendig ist.

    Booseh Jafari

    05. June 2020

    Hochinteressantes Artikel. Dieser soll mehr verteilt und von mehr Menschen gelesen werden. Oft haben wir Angst von dem was wir nicht kennen. Die Massen müssen informiert und gebildet werden.

    Kommentar verfassen

    Danke für Ihren Kommentar, wir prüfen dies gerne.

    Pin It on Pinterest