10. August 2017

Weiterbildung

Artificial Superintelligence: Unsere letzte Erfindung?

Artificial Superintelligence: Unsere letzte Erfindung?

Das Welthungerproblem lösen? Den Klimawandel aufhalten? Oder gar Unsterblichkeit erlangen? Das sind die Verheissungen einer Artifical Superintelligence, auf die die einschlägige Forschung zusteuert. Doch diese Entwicklung kann auch in der Katastrophe münden, postuliert James Barrat in seinem Buch „Our Final Invention“.

*Quelle: http://ikm-hslu.ch/omm-blog, 5. Mai 2017.

Ob Siri, Chatbots oder der E-Mail-Spamfilter, bereits heute prägt Artficial Narrow Intelligence (ANI) unseren Alltag. Diese Form der künstlichen Intelligenz besticht durch die Fähigkeit, eine ganz bestimmte, klar begrenzte Aufgabe auf höchstem Niveau auszuführen: Schach, Jeopardy und Go spielen Computer inzwischen besser als der Mensch. Doch das ist erst der Anfang. Auf dem Gebiet der Artificial Intelligence (AI) bahnt sich eine Revolution an. Es ist nur eine Frage der Zeit, bis AI mit der Leistung des menschlichen Gehirns gleichzieht. Zwei Voraussetzungen müssen erfüllt sein, um dieses Niveau – die Artificial General Intelligence (AGI) – zu erreichen: Zum einen braucht es „Hardware“ mit einer Rechenleistung, die uns noch nicht zur Verfügung steht. Doch dürfte das mittelfristig eine überwindbare Hürde sein, wenn wir Moore’s Law glauben wollen. Ein weit grösseres Problem ist die nötige „Software“: Wie programmieren wir Intelligenz? Daran arbeiten die Forscher mit Hochdruck. Die Mehrheit unter ihnen glaubt, dass AGI noch vor 2050 erreicht wird.

Grafik_Befragung_agi 87% der Forscher an einer AI-Konferenz erwarten, dass AGI noch vor 2050 erreicht wird. Das zeigt eine Umfrage von James Barrat (2013: 150). Bildquelle: Eigene Darstellung.

Kaum jemand zweifelt daran, dass die Entwicklung nach dem Erreichen von AGI weitergeht und einen monumentalen Sprung macht: von der AGI zur Artifical Superintelligence. Und jetzt wird’s unheimlich! Die klügsten Köpfe unserer Zeit sagen Szenarien voraus, die einem SciFi-Roman entstammen könnten, der in ferner Zukunft spielt: Die Maschine macht sich selbstständig, sie lernt ohne Zutun ihres Erfinders – und das in rasendem Tempo.

Ausser Kontrolle: Die Intelligenz-Explosion

Der Forscher Nick Bostrom (2014) prophezeit, dass die Maschine für die Intelligenz-Entwicklung vom Vierjährigen auf das Niveau Einsteins bloss Stunden, Tage oder höchstens Wochen braucht. Eine solche Maschine wird weit über das Menschenmögliche hinausgehen und ihr Intelligenzniveau exponentiell zur Superintelligenz steigern – in kürzestter Zeit sie ist tausend-, vielleicht millionenfach klüger als wir. Ihr eröffnen sich Möglichkeiten, die wir nicht einmal ansatzweise begreifen und wohl auch nicht mehr kontrollieren können.

Grafik_Zeit_Intelligence Intelligenz-Explosion: Den Sprung von den kognitiven Fähigkeiten eines Kleinkindes zur Brillanz Einsteins schafft AGI in Stunden, Tagen oder höchstens Wochen. Bildquelle: Eigene Darstellung.

Wenn wir in der Menschheitsgeschichte eines gelernt haben, dann dies: Intelligenz ist Macht. Mit der von uns geschaffenen Superintelligenz beträte ein omnipotenter Gott die Erde. Die alles entscheidende Frage ist: Wird es ein guter Gott sein?

ASI: Die Lösung all unserer Probleme

Ja, sagt Ray Kurzweil (2005), Chefingenieur bei Google und Autor des Buches „The Singularity is near“. Er ist der prominenteste Vertreter unter jenen AI-Forschern, die uns eine rosige Zukunft voraussagen. Mit ASI bekommen wir den Klimawandel und den Welthunger in den Griff und sie bewahrt uns vor Krankheiten. Und Kurzweil geht noch einen bedeutenden Schritt weiter: Er rechnet damit, dass wir dank der Verschmelzung von Mensch und Maschine, der sogenannten Singularity, sogar dem Tod ein Schnippchen schlagen und Unsterblichkeit erlangen. Kein Wunder finden seine Theorien grossen Anklang – sein Buch ist beinahe schon die Bibel der Anhänger einer neuen religiösen Strömung: den „Singularitarians“. Gefahren, die mit der Entwicklung von ASI einhergehen, sieht Kurzweil kaum. Nur gerade zwanzig Seiten widmet er ihnen in seinem knapp 700-seitigen Buch.

“Strong AI is emerging from many diverse efforts and will be deeply integrated into our civilization’s infrastructure. Indeed, it will be intimately embedded in our bodies and brains. As such, it will reflect our values because it will be us.”
– Ray Kurzweil (2005: 394)

Wovor sollen wir uns also fürchten? Warum malen Elon Musk, Stephen Hawking oder Bill Gates – mithin die klügsten Köpfe unserer Zeit – so schwarz, wenn sie das Ende der Menschheit kommen sehen, sollten wir tatsächlich eine künstliche Superintelligenz erschaffen? Warum bezeichnen sie ASI als grösste Gefahr für die menschliche Spezies?

Die typischen Szenarien

Wenn wir von den Gefahren sprechen, die von einer Superintelligenz ausgehen, sehen wir zuallererst zwei Szenarien vor uns. Erstens: Eine ursprünglich gutartige Künstliche Intelligenz wendet sich plötzlich gegen uns mit dem Ziel, uns auszulöschen. Das erinnert uns an den Computer HAL 9000 aus dem Film „2001: Space Odyssey“. Zweitens: Ein diktatorisches Regime oder eine Terrororganisation entwickelt eine Superintelligenz, um ihre Ziele zu verfolgen. Doch ist es weder das eine noch das andere Szenario, das die Forscher beunruhigt. Die grösste Gefahr geht vielmehr von der Funktionsweise von ASI aus.

ASI kennt keine Skrupel

Jede Künstliche Intelligenz muss von ihren Erschaffern mit einem Ziel ausgestattet werden, das sie erreichen soll. Die Superintelligenz wird alles daransetzen, möglichst effizient zum Ziel zu kommen. Dabei geht sie buchstäblich über Leichen, denn sie kennt weder „Gut“ noch „Böse“. Moral ist der Maschine grundsätzlich fremd.

“The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else.”
– Elezier Yudkowsky (2008)

Wenn wir einer Künstlichen Intelligenz nicht die richtigen Ziele vorgeben, rasseln wir unweigerlich in die Katastrophe, wie uns AI-Forscher Nick Bostrom (2003) anhand eines abstrusen Gedankenspiels zeigt: Eine Maschine, ausgestattet mit Artificial General Intelligence, soll möglichst viele Büro-Klammern herstellen. Um immer effizientere Lösungen dafür zu finden, wird sie ihre kognitiven Fähigkeiten immer weiter optimieren wollen und so zur Superintelligenz werden. Werte wie „Gut“ und „Böse“ kennt sie nicht, Menschenleben sind für sie irrelevant. Sähe sie den Menschen als Hindernis auf dem Weg zur Zielerreichung – schliesslich könnte er ihr den Strom kappen – würde sie ihn ohne zu zögern aus dem Weg räumen. Denn mit ihrer Intelligenz würde sie selbst einen eingebauten Abschaltmechanismus mühelos überlisten können. Und was sollte sie daran hindern, sogar den menschlichen Körper als Rohstoff für die Büroklammer-Herstellung zu nutzen? Damit wäre mit einer Maschine, die eigentlich nur Büroklammern herstellen sollte, unser Untergang eingeläutet. Ist er überhaupt noch abzuwenden?

Es bleibt noch Zeit

Noch ist nicht alles verloren, wenn wir all unsere Kraft auf die richtige Programmierung der künstlichen Intelligenz verwenden. Isaac Asimov hat mit seinem berühmten Robotergesetz „Tue nichts, was einem Menschen schadet“ eine Richtung vorgeschlagen. Doch wie würden wir zum Beispiel schaden definieren? Gehört soziale Ungleichheit dazu? Hätte diese Definition auch in 2000 Jahren noch Gültigkeit? Die Forschung arbeitet mit Hochdruck daran, Antworten auf diese Fragen zu finden, um auf die erste Intelligenz-Explosion vorbereitet zu sein – ein Wettlauf gegen die Zeit. Eines ist jeden Fall sicher: künstliche Superintelligenz wird die letzte Erfindung sein, die der Mensch gemacht haben wird.

Artificial Super Intelligence: Irrsinn oder schon bald Realität?

Wie stehst du zum umstrittenen Thema Artificial Superintelligence? Müssen wir uns ernsthaft mit diesen Szenarien auseinandersetzen? Oder handelt es sich bloss um wahnwitzige Hirngespinste einiger Utopisten und Verschwörungstheoretiker? Ich freue ich auf die Diskussion in den Kommentaren!

Quellen

  • Barrat, J. (2013). Our Final Invention. Artificial Intelligence and the End of the human Era. St Martin’s Press.
  • Bostrom, N. (2003). Ethical Issues in Advanced Artificial Intelligence. URL: http://www.nickbostrom.com/ethics/ai.html [Zugegriffen am 04. Mai 2017]
  • Bostrom, N. (2014). Superintelligence. Paths, Dangers, Strategies. Oxford University Press.
  • Kurzweil, R. (2005). The Singularity Is Near. When humans transcend biology. Duckworth Overlook.
  • Yudkowsky, E. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks. Oxford University Press.

Weitere Informationen

Kommentare

0 Kommentare

Kommentar verfassen

Danke für Ihren Kommentar, wir prüfen dies gerne.