Technologien

Me, Myself and AI #4: Die letzte Erfindung der Menschen

von am

Smarte Technologien sind aus unserem Alltag nicht mehr wegzudenken und es sieht so aus, als würde Künstliche Intelligenz noch in den Kinderschuhen stecken. Das glauben zumindest einige Pioniere der KI-Forschung. Sie gehen davon aus, dass die smarten Programme immer intelligenter werden, bis irgendwann die sogenannte AGI, starke- oder gar Super-KI den Menschen intellektuell überholen wird. Sie fragen sich: Was passiert nach diesem Ereignis, das als letzte Erfindung der Menschheit in die Geschichte eingehen wird? Wir fragen uns: Ist das überhaupt plausibel?

fikitve Großstadt aus der Vogelperspektive mit riesigen Robotern im Hintergrund
Beim Gedanken an Künstliche Intelligenz verschwimmen bei manch einem die Grenzen zwischen Fiktion und Wirklichkeit

Das utopische Potential der smarten Programme

Wie wir in vorangegangenen Artikeln der Reihe “Me, Myself and AI” dargestellt haben, spielt smarte Technologie heute schon eine bedeutende Rolle. Nicht nur in der Wirtschaft, sondern bereits in vielen Bereichen unseres digitalen Alltags ist Künstliche Intelligenz im Einsatz. Spracherkennung, intelligente Playlists oder personalisierte Werbung dürften heute den meisten mehr oder weniger vertraut sein. Noch befinden sich all diese Technologien auf dem Level der sogenannten “schwachen KI”. Im Gegensatz dazu gilt starke KI oder AGI als eine Technologie, die den bekannten synthetischen Intelligenzen weit überlegen ist.

An die Vorstellung eines solchen Programms, das es intellektuell mit dem Menschen aufnehmen kann, knüpfen sich wenig überraschend unzählige und unterschiedliche emotionale Reaktionen. Die einen wähnen das Paradies auf Erden am Horizont, während die anderen bereits die Ankunft des jüngsten Gerichts befürchten. Genährt werden die dystopischen oder utopischen Imaginationen von schillernden Vertretern, die mit gewaltigem Pathos und Vokabular ihre jeweilige Vision verkünden. Elon Musk, Nick Bostrom, Ben Goertzel und andere treten als glühende Befürworter bzw. Kritiker der Technologie auf, die verspricht, starke KI hervorzubringen. Weil große Teile des aktuellen KI-Diskurses sich ausschließlich mit der Frage beschäftigen, ob die Super-KI gut oder böse sein wird, fallen die Stimmen, die das Modell “Intelligenzexplosion” als solches infrage stellen, deutlich leiser und vielfältiger aus. Wir widmen uns heute mal ein oder zwei gedanklichen Ansätzen aus dieser Richtung.

Her mit den Superlativen!

Im Dickicht der verschiedenen Meinungen und Vorstellungen bekommt man schnell den Eindruck, dass es sich bei der Artificial General Intelligence, also AGI oder starker KI, um eine Zukunftstechnologie unter anderen handelt. Dass es also nur eine Frage der Zeit ist, bis der technologische Fortschritt diese hervorbringt. Tatsächlich klingen die Äußerungen von KI-Evangelisten wie Goertzel auch so. Dabei lässt sich KI ohnehin, und Super-KI sowieso, nicht so einfach definieren, was wir in den letzten Folgen bereits thematisiert haben.

Was KI im allgemeinen angeht, liegt die Schwierigkeit der Definition an der Vielfältigkeit der Ansätze und Anwendungen. Doch das Thema starke KI ist noch weitaus verzwickter, denn zum einen handelt es sich um eine Technologie, deren Verwirklichung noch in den Sternen steht. (Obwohl manch einer von der Pro-starke-KI-Fraktion das vielleicht anders sieht.) Zum anderen entstammt die Vorstellung, dass es irgendwann einmal sogar eine Super-KI geben könnte, einem völlig anderen Bereich als der Softwareentwicklung.

Wissenschaftstheoretiker, Philosophen und Zukunftsforscher haben diese Vorstellung in den diskursiven Raum getragen. Und wie es bei Philosophen üblich ist, ging es ihnen zunächst nicht um die technischen Möglichkeiten zur Entwicklung eines Programmes, das es intellektuell mit dem Menschen aufnehmen kann, sondern um etwas Nachgelagertes.

Was fliegt in die Luft, wenn Intelligenz explodiert?

Der erste, der sich theoretisch zum Thema Super-KI geäußert hat, war der Mathematiker und zeitweilige Mitarbeiter von Alan Turing in Bletchley Park, I.J. Good, der 1965 einen Artikel mit dem Titel “Speculations Concerning the First Ultra Intelligent Machine” veröffentlichte. Wie der Titel schon vermuten lässt, gibt Good sich hier großzügig der Spekulation hin, anstatt sich auf rein wissenschaftliches Argumentieren zu beschränken. Die Ausführungen Goods wirken dadurch vor allem wie ein Gedankenexperiment, mit dem er Hypothesen über das Verhältnis von Mensch und Maschine aufstellt. Insofern gehört dieser Aufsatz wohl eher dem Genre des philosophischen Essays an.

Viele der heute geläufigen Ausdrücke, die im Kontext von starker KI kursieren, führt Good in diesem Essay ein. “Intelligenzexplosion” sowie “die letzte Erfindung der Menschen” sind zwei der bekanntesten. Diese beruhen auf seinem Argument, dass eine ultraintelligente Maschine dazu in der Lage wäre, sich selbst zu reproduzieren und im Zuge dessen immer weitere Verbesserungen vorzunehmen. Die Annahme einer solchen Fähigkeit ist für sich bereits äußerst voraussetzungsreich und diskussionswürdig, dabei aber zugleich zentral für das gesamte Gedankenexperiment “Intelligenzexplosion”.

Evolve, adapt, overcome

Ausgehend von seiner hypothetischen Annahme, dass eine Synthese buchstäblicher menschlicher Intelligenz technisch möglich sei, schließt Good darauf, dass diese daraufhin auch automatisch einen evolutionären Prozess durchlaufen würde. Dieser würde sich logischerweise verselbstständigen und konsequenterweise menschliches Zutun überflüssig machen. So würde sich die heute verfügbare KI zunächst zu einer AGI, also einer starken KI, weiterentwickeln und schließlich den nächsten evolutionären Sprung zur Super-KI vollziehen.

Wenn man alle Konjunktive streichen würde, bleiben Fakten

Kauft man die These vom exponentiellen Wachstum, scheint das die logische Folge zu sein. Heutige Diskussionen zu diesem Thema scheinen allerdings den spekulativen Aspekt von Goods Überlegungen auszublenden und infolgedessen die Realisierbarkeit von starker KI als gesetzt anzusehen. Eine mögliche Interpretation von Goods Aufsatz könnte darin bestehen, dass er sagen wollte: Wenn wir über KI reden, dann können wir uns diese nur als Kopie menschlicher Intelligenz vorstellen und das könnte dramatische Folgen für den Menschen haben. Streicht man den Konjunktiv aus diesen Gedanken heraus, kommt man zu dem Schluss, dass der technologische Fortschritt unweigerlich dramatische Folgen für die Menschheit hat. Punkt. Aber lässt sich der Konjunktiv überhaupt so mir nichts, dir nichts ausstreichen?

Folgt man der Annahme, dass künstliche Intelligenz exponentiell zunimmt, ist es nur eine Frage der Zeit, bis sie den Menschen überholt.
Die Anhänger der Singularitätsthese gehen von einem exponentiellen Wachstum maschineller Intelligenz aus. Grafik: TL

Das Moorsche “Gesetz”

Auf den ersten Blick scheint es gar nicht so unplausibel zu sein, dass Künstliche Intelligenz sich in den nächsten paar Jahrzehnten rasch weiter entwickelt. Sodass im Laufe dieser Entwicklung tatsächlich Programme Wirklichkeit werden, deren kognitive Leistung in etwa mit der des Menschen vergleichbar wäre. Grund zu der Annahme gibt die allgemeine Feststellung, dass technologischer Fortschritt ein realer Fakt ist: Prozessoren werden immer leistungsfähiger.

Sinnbildlich für den Fortschrittsglauben bis in ungeahnte Sphären ist das sogenannte Moorsche Gesetz. Diesem zufolge verdoppelt sich die Rechenleistung der jeweils aktuellsten Prozessoren Jahr für Jahr, was schnell zu der Vermutung verleitet, dass diese ab einem bestimmten Punkt schier unendlich groß ist. Exponentielles Wachstum halt. Doch im strengen Sinn handelt es sich bei diesem Gesetz gar nicht um ein Gesetz, denn Moore äußerte damals in den Achtziger Jahren bloß eine Beobachtung ohne prognostischen Wert. Die Hersteller haben von da an aber diese Beobachtung als Richtschnur für die eigene Arbeit aufgefasst und im Laufe der kommenden Jahrzehnte tatsächlich jedes Jahr die Rechenleistung ihrer Innovationen verdoppelt.

In diesem Sinne handelt es sich bei dem Moorschen Gesetz eher um eine Self-Fulfilling-Prophecy. Zudem ist man sich heute größtenteil einig, dass deren Kontinuität inzwischen bereits [gebrochen] (https://www.intel.de/content/www/de/de/it-managers/moores-law-evolution.html) ist. Klar, technologischer Fortschritt lässt sich nicht leugnen, gleichzeitig zeigt aber beispielsweise die überaus harte Nuss Quantencomputer, dass Leistungssteigerung auch ihre physikalischen Grenzen hat.

Stark ist nicht gleich super

Die Frage nach der Möglichkeit einer Super-KI ist damit aber immer noch nicht geklärt, denn auf der einen Seite scheint es sich ursprünglich eher um ein Gedankenexperiment gehandelt zu haben, auf der anderen Seite ist ja technologischer Fortschritt nicht von der Hand zu weisen. Und an dieser Stelle wird's knifflig. Ein gangbarer Weg zur Beantwortung der Frage könnte die Unterscheidung zwischen starker KI und Super-KI sein. Denn es scheint so, dass hier zwei Themen ineinander geworfen werden, die eher zufälligerweise miteinander zu tun haben. Eigentlich müsste man sie sauber voneinander unterscheiden. Das erste Thema betrifft die philosophische Spekulation über das Wesen der menschlichen Intelligenz. Das zweite Thema kreist um die technologische Möglichkeit, menschliche Intelligenz zu simulieren.

Technologischer Fortschritt

Dieses zweite Thema ist einfach und zugleich schwer zu beantworten, denn theoretisch spricht nichts dagegen, dass sich KI-Technologie immer weiter entwickelt und ab einem bestimmten Punkt über so viel Autonomie verfügt, dass sie – mit entsprechender Hardware versehen – wie ein Mensch mit Menschen interagiert. Die Geschichte der Zivilisation ist voll von Beispielen, in denen Erfindungen verdammt wurden, als sie noch bloße Theorie waren und sich später in den Alltag der Menschen eingefügt haben. Natürlich mit teilweise radikalen Veränderungen. Man denke an die Erfindung der Dampfmaschine und die daraus resultierenden gesellschaftlichen Umwälzungen. Es wäre vorstellbar, dass sich zwischen Mensch und KI ganz neue Formen der Interaktion entwickeln, die sich aus den konkreten Gegebenheiten der jeweiligen Anwendung von KI ergeben.

In Hinsicht auf starke KI wäre vieles vorstellbar, denn klarerweise zieht eine so vielseitige Technologie wie KI weitreichende Folgen nach sich und schon heute zeichnet sich ab, dass immer mehr Branchen ein Interesse an KI entwickeln und Wege finden, diese einzusetzen. Vorsichtige Spekulationen über zukünftige Einsätze von KI-Technologie, die immer leistungsfähiger wird, muss ebenso vielfältig ausfallen. Die Vorstellung, dass eine Super-KI in naher Zukunft sämtliche globale Technik unter sich vereint, steht einer solchen realistischen Prognose entgegen. Angesichts der Spezialisierungstendenzen smarter Technologien ist es relativ unplausibel im Falle von starker KI von einem entgegengesetzten Trend auszugehen. Wenn starke KI kommt, warum als Singularität?

Göttliche Verheißung?

Die philosophische Diskussion zum Thema KI hingegen ist kaum überraschend relativ wenig von technologischer Expertise geprägt und behandelt in der Hauptsache eben philosophische Detailfragen. Dass die KI-Diskussion heute zu wesentlichen Teilen auf dieser Ebene geführt wird, hat damit zu tun, dass die Möglichkeit der sogenannten letzten Erfindung nicht bloß hypothetisch angenommen wird.

Und hier sitzt der Hase im Pfeffer. Zwar herrscht heutzutage in vielen Bereichen der Philosophie und vor allem in der Technikphilosophie ein misstrauisches Verhältnis zu allem, was nach Metaphysik aussieht. Gleichzeitig richtet sich aber die wesentliche Kritik an der Annahme einer Super-KI genau dagegen. Nämlich zu sagen, dass gerade an dem Punkt, wo es um eine so große Frage wie die Zukunft der Menschheit geht, jene philosophischen Vertreter*innen in reine metaphysische Spekulation verfallen, ohne es zu merken. Denn hinter relativ holzschnittartigen Rekonstruktionen über Dynamiken des Fortschritts verbirgt sich der Kritik zufolge eine theologische Vorstellung.

Schlechte Metaphysik

Der Glaube an eine Super-KI sei deswegen mit göttlichem Glauben zu vergleichen, weil ihm zum einen dieselben emotionalen Zuschreibungen, wie Erlösung und Allmacht, zugeschrieben werden und zum anderen, weil ähnlich wenig wissenschaftliche Evidenz für dessen Plausibilität zur Verfügung steht. Die Kritik am Glauben an die Super-KI besagt: Aus einer verkürzten Auffassung über technologischen Fortschritt wird die unwiderlegbare Sicherheit abgeleitet, dass die Super-KI kommt, und diese wird dann auch noch mit göttlichen Vorstellungen von Erlösung verknüpft. Kritiker nennen das “schlechte Metaphysik”.

homo hominis

Auch wenn die Technologie sich in ihrer Mechanik oft an Vorbildern aus dem Tierreich orientiert, bleibt als letzter Maßstab für die Intelligenz selber doch nur der Entwickler, der Mensch selbst. Konkret trifft das zum Beispiel bei der Entwicklung Künstlicher Neuronaler Netze zu, die bereits Good nach menschlichem Vorbild angedacht hat. Das betrifft auch zum Beispiel die Überlegung, welche Fähigkeiten eine starke KI besitzen müsste, um als starke KI zu gelten. Hier gehen die Kriterien über die bloße Fähigkeit, Fragestellungen und -strategien selbst zu entwickeln, hinaus, denn immer wieder werden auch so vage Begriffe wie Kreativität oder Emotionalität ins Feld geführt, um die zu überbrückende Intelligenz-Lücke zwischen Mensch und Maschine zu beschreiben.

Im Künstlichen Neuronalen Netz liegen mehrere Ebenen digitaler Verschaltungen übereinander und simulieren so das Prinzip eines komplexen neuronalen Netzes.
Das Künstliche Neuronale Netz ist ein Beispiel dafür, wie KI dem menschlichen Vorbild nachempfunden wird.

Menschliche Intelligenz?

Auch wenn es zuweilen anders erscheinen mag: Diese Lücke ist noch ziemlich groß. Das sieht man zum einen daran, dass selbst die Neurowissenschaft noch überhaupt nicht richtig weiß, was menschliche Intelligenz eigentlich ist, beziehungsweise, wie das Fassen eines Gedankens biochemisch – also sozusagen auf der Ebene der “Verschaltung” – vonstatten geht. Zum anderen sind auch die smarten Programme, die selbstständig Lösungsstrategien für vorher definierte Ziele entwickeln, intellektuell noch eher auf dem Stand von Insekten.

Out of the Box?

Ähnlich wie ein Insekt verhält sich die KI – von außen betrachtet – wie eine Blackbox und wird auch in der Theorie so gesehen. Weil in diesem Sinn nicht bekannt ist, was zwischen Reiz und Reaktion passiert, lässt sich auch nicht definitiv sagen, ob hier überhaupt von Intelligenz die Rede sein kann. Das Problem einer solchen behavioristischen Herangehensweise ist, dass sich das selbst vom Menschen nicht endgültig entscheiden lässt. Rein äußerlich lässt sich die kreative Intelligenz nicht vom dummen Zufall unterscheiden, wenn eine Handlung erfolgreich war. (Man denke hier an die computerspielenden KIs, die nach “Trial and Error” verfahren).

Ein Reiz geht rein, zwei Reaktionen raus: Die Blackbox in der Mitte hütet ihr Geheimnis, was in ihr vorgeht.
Aus behavioristischer Sicht ist KNN eine Blackbox. Allerdings gilt das auch für menschliche Intelligenz... Grafik: TL

Nur ein Traum

Da verwundert es nicht, dass bei so viel Vagheit und Unsicherheit Sorge vor dem aufkommt, was der Mensch da nach seinem Ebenbild erschafft. Falls es ihm tatsächlich irgendwann gelingen sollte, eine ihm ebenbürtige Intelligenz zu kreieren, heißt das ja noch lange nicht, dass dann das Verhältnis zwischen Mensch und Maschine konfliktbeladen wäre. Zusätzlich wäre es vorstellbar, dass der Maschine bei gleicher kognitiver Leistung darüber hinaus noch viele andere Eigenschaften fehlen würden, wie zum Beispiel die Fähigkeit einen Willen zu formulieren und dementsprechende Ziele zu verfolgen, geschweige denn, einen für physische Interaktion notwendigen Körper zu besitzen. Schlussendlich bleibt die künstliche Erschaffung des (Über-)Menschen durch den Menschen, ähnlich wie die Erzeugung von Gold, ein alchemistischer Traum und gehört wohl eher in die Kategorie Science Fiction.