Montag, 19. Januar 2015

the myth of ai

Berlin, Januar 2015

Die Süddeutsche hat Anfang Januar einen bereits im November auf der Seite edge erschienen Artikel von Jarron Lanier (hier der Originalartikel und die Diskussion auf edge.org) kommentiert. Lanier hatte erst im Okober 2014 den Friedenspreis des deuschen Buchhandes erhalten hatte.
Die ganze Debatte hatte das nun auch auf Deutsch erschienene Buch von Nick Bostrom zur Superintelligenz ausgelöst. Der Beitrag von Lanier (und das Buch von Bostrom) hatte zu einer breiten Diskussion in den USA geführt (z.B. hier und hier), wurde aber in Deutschland wohl bislang nicht rezipiert.

Die Grundthese der Debatte, um die sich alle Beiträge ranken, ist die folgende: Künstliche Intelligenzen nimmt in einem Maße zu, dass sie tatsächlich größer wird als die menschliche Intelligenz und in der Lage, die Menschheit zu beherrschen. Das ist ins Negative gewendet die These von der Singularität, die Ray Kurzweil geäußert hatte und eine typische Science Fiction Dystopie. Lanier selbst setzt sich mit dieser These nur recht kurz auseinander. Er hält das eher für unwahrscheinlich und beklagt die Aufmerksamkeiswellen, die immer wieder zu unrealistischen Erwartungen an die künstliche Intelligenz führen und das Leben von Wissenschaftlern schwer machen.

Sein Hauptinteresse gilt der Frage ob nicht eine sehr schwachbrüstige künstliche Intelligenz, die von Unternehmen wie Google oder Amazon benutzt wird zu ihren eigenen Zwecken, und der das Mäntelchen der künstlichen Intelligenz nur als Mythos übergelegt wird, viel gefährlicher ist und schädlicher als eine echt, starke künstliche Intelligenz.

Die dann folgenden Antworten und Kommentare andere Autoren nehmen sich alle möglichen Details und Aspekte von Lanier, aber auch der ganzen Diskussion an. Es geht darum, ob eine künstliche Intelligenz ohne Körper überhaupt möglich ist, da dann der Zugang zu Emotionen nicht denkbar ist; es geht darum, inwieweit hier über Jahrzehnte hinweg immer wieder  übertriebene Erwartungen an künstliche Intelligenz geweckt wurden; es geht auch darum, ob das exponentielles Wachstum, das laut Moorschem Gesetz auf Halbleiterebene anzunehmen ist, auch für den Output der Computer, also die eigentliche künstliche Intelligenz gilt. Einige Autoren kommen zu dem Schluss: Ja, künstliche intelligenz wird uns auf absehbare Zeit nicht bedrohen und es gibt eine ganze Reihe von Gefahren, die viel dringender sind und die wir zuerst diskutieren sollten.

Andere Kommentatoren sind der Meinung: Es ist zwar sehr unwahrscheinlich, dass künstliche Intelligenz die Menschheit bedroht. Aber wenn das der Fall ist, dann ist es wirklich bedrohlich und von daher sollten wir lieber jetzt schon unsere Gedanken machen. Das ist die Abwägung zwischen Risiko und Wahrscheinlichkeit, die hier mit einer sehr starken Bevorzugung des Risikos entschieden wird. Wen dieses Thema interessiert, der sollte auf der Seite des Future of Humanities Institut der Universität Oxford schauen. Der Leiter ist übrigens der oben genannte Bostrom.

P.S. Wer noch nicht genug von dieser Diskussion hat, dem seien die aktuellen Seiten von edge empfohlen. Die Frage 2015 lautet: "What do you think about machines that think?". Und viele, viele Seiten Antwort lauern hier...

Nachtrag Februar2015: Die Deatte scheint in Fahrt zu kommen. Die Edge-Frage wird jetzt auch in Deutschland rezipiert (z.B. hier und hier),  Wired schildet die Entwicklung vn Künstlicher Intelligenz in den letzten Jahrzehnten und auch der Blog des World Economic Forum greift das Thema auf.

Keine Kommentare:

Kommentar veröffentlichen