Technologien

Me, myself and AI #02: Der Algorithmus, bei dem man mit muss.

von am

Dass KI die Gemüter umtreibt, haben wir ja bereits in unserer Einleitung zu dieser Reihe betont. Bei näherer Betrachtung stellen wir außerdem fest, dass Künstliche Intelligenz gar nicht so einfach zu definieren ist. Das liegt auch daran, dass die Technologie hinter dem Begriff so vielseitig eingesetzt wird. Der methodische Ansatz hingegen ist eigentlich immer derselbe: Intelligent ist, was lernt.

Unser Bürohund Gizmo mit grünem Rahmen, wie man ihn aus Darstellungen von Bilderkennungssoftware kennt.
Egal ob Selfie oder Portrait: Bilderkennung ist ein Beispiel, wo KI heute schon selbstverständlich ist.

Nach seinem Ebenbild

Die Entwicklung Künstlicher Intelligenz orientiert sich am Original: dem Menschen. Sein Gehirn dient hier als Vorbild, das in seiner komplexen Verknüpfung von Abermillionen von Neuronen bislang als einzigartig gilt. Diese befähigen ihn dazu, all die intellektuellen Kunststücke zu vollbringen, die wir insgesamt als menschliche Intelligenz bezeichnen: Erfahrungen machen, Informationen verknüpfen, sich an Gelerntes erinnern und zu komplexem Wissen verbinden. Durch die Modellierung künstlicher neuronaler Netze (KNN) versprechen Entwickler*innen sich, ein solches Verhalten auch digital erreichen zu können. Das ist es, was sich im Großteil hinter dem Begriff “Machine Learning” verbirgt. Derart automatisierte Abläufe durch Algorithmen erfahren schon in vielen Bereichen, wie der Medizin, Messtechnik, in Luft- und Raumfahrt oder selbstverständlich unser eigen täglich Brot, dem Online Marketing, Anwendung. Überall dort, wo es darum geht, komplexe Muster zu erkennen, große Datenmengen zu strukturieren oder Vorhersagen zu treffen, kommen maschinell trainierte Algorithmen zum Einsatz.

Ein Ding, sie alle zu rechnen

Um das zu verstehen, gehen wir noch einmal einen Schritt zurück und werfen einen Blick auf die Kinderschuhe des Computings. Bereits gegen Ende des vorletzten Jahrhunderts legten die brillante Ada Lovelace und ihr Freund Charles Babbage mit der Analytical Engine den Grundstein für die Entwicklung automatischer Rechenmaschinen, deren Prinzip der Programmierbarkeit auch heute noch für die Entwicklung Künstlicher Intelligenz eine Rolle spielt. Eine der Hürden bei der Entwicklung Künstlicher Intelligenz besteht darin, bestimmte Ebenen der Programmierung an das Programm selbst abzugeben. Doch das hatten Babbage und Lovelace wahrscheinlich noch nicht im Sinn.

Etwa ein halbes Jahrhundert später griff der englische Mathematiker Alan Turing Lovelaces und Babbages Ansätze zur Entwicklung eines der ersten Computers der Welt auf und schuf nicht nur die theoretischen Grundlagen für den Manchester Mark I, sondern ersann zudem eine ganze Reihe von Abhandlungen zum Thema Künstliche Intelligenz und entwarf den berühmten Turing-Test, der heute noch eingesetzt wird, allerdings ist man sich uneinig, ob es sich dabei nach aktuellem Stand um ein valides Testverfahren handelt. Von daher werden Turing-artige Tests heute vor allem zur Generierung von öffentlicher Aufmerksamkeit eingesetzt.

Schematische Darstellung des Imitation Game: Mensch und Maschine versuchen die Jury davon zu überzeugen, dass sie Mensch und nicht Maschine sind.
Der Turing Test wurde unter dem Titel Imitation Game entwickelt. Hier versuchen der Computer und die Testperson jeweils die Jury davon zu überzeugen, dass sie ein Mensch sind. Grafik: Thomas Lassner. Icons: Shutterstock

All diesen Technologien ist eines gemeinsam: Im Kern steht der Algorithmus, der für nicht viel mehr als die Durchführung einer klar definierten Regel verantwortlich ist. Ein besonders sinnfälliges Beispiel für dessen Anwendung ist der gute alte Rubik's Cube. Hier gibt es eine Handvoll klar definierter Züge, mit denen sich der Würfel in jeder beliebigen Ausgangslage in kurzer Zeit lösen lässt. Ein Algorithmus bestimmt eine Bewegung und die korrekte Kombination der möglichen Algorithmen führt zur zuverlässigen Lösung des Zauberwürfels.

Mustererkennung

Doch ein Algorithmus macht noch keine Intelligenz, diese ist erst durch die Fähigkeit, zu lernen, gegeben. Hierfür werden vor allem Daten benötigt, denn sie bilden die Grundlage für das artifizielle Lernen. Mittels verschiedener Algorithmen werden die Daten erfasst, sortiert und erweitert. Die Komplexität der Algorithmen bestimmt die Intelligenz des Programms, und der Umfang der Daten sein Wissen.

Erst die Fähigkeit, das Lernen selbst zu erlernen, gibt den Algorithmen die nötige Selbstständigkeit, um sich auch autonom weiterentwickeln zu können. Von Intelligenz kann bisher bei gängigen Machine-Learning-Systemen kaum die Rede sein, denn das Training wird hier noch stark vom menschlichen Eingriff bestimmt. Jedes Ergebnis wird vom Menschen kontrolliert und dementsprechend der Code oder die Datenlage angepasst. Das gilt auch, wenn Entwickler*innen gezielt in Lernprozesse eingreifen. Allerdings lässt sich ebenso Nutzerverhalten als Trainingsmethode nutzen. Solche Technologie bildet beispielsweise die Grundlage für Google Search Engine sowie für personalisierte Suchen bei Youtube oder Spotify. Jede Sucheingabe ist in diesem Beispiel ein korrigierender Eingriff für den Algorithmus, der daraufhin seine Ausgabe minimal anpasst.

Übung macht den Meister

Für die Entwicklung Künstlicher Intelligenz ist vor allem Deep Learning interessant, denn hier wird das Programm sich sozusagen selbst überlassen. Die Kontrolle und Anpassung der Verfahrensweise übernehmen die Algorithmen selbst. Im Fall von Deep Learning sind sie so komplex miteinander verknüpft, dass die Programme sich die Beherrschung eines Spiels beispielsweise selbst beibringen können. Dabei gehen sie einfach nach dem Trial-and-Error-Prinzip vor. Denn im Gegensatz zum Menschen ist es für einen Computer das Leichteste der Welt, tausende Versuche binnen weniger Sekunden aneinanderzureihen. Während des Lernprozesses wirken keine anleitenden Einflüsse mehr von außen ein. Die derart miteinander verknüpften Algorithmen bilden das sogenannte künstliche neuronale Netz und funktionieren dann wie eine Blackbox, in die Entwickler*innen keinen Einblick mehr haben.

Schematishce Darstellung, wie Ebenen in Deep Learning-Modellen aussehen kann.
Durch die Übereinanderlagerung mehrerer Ebenen sollen Netzwerke simuliert werden, die prinzipiell Gehirnen ähneln. Quelle: Shutterstock, Petrol: die Redaktion.

In dieser Blackbox bilden die verbundenen Algorithmen übereinander gelagerte Ebenen, auf denen Informationen über erfolgreiche Strategien und externe Daten gespeichert und weiterentwickelt werden. Im Laufe des Lernprozesses verstetigen sich die Pfade des Erfolgs und irgendwann “weiß” das Programm, wie es zu einer Lösung kommt. Weil diese Lösungsstrategien eher zufällig entstehen, lässt sich der Lernprozess besonders gut ablesen, sofern er denn eintritt. Die Überlagerung der verschiedenen Ebenen ermöglicht dem Programm so etwas wie Erinnerungsfähigkeit. Die für menschliche Intelligenz kennzeichnende Fähigkeit zum Transfer ist damit allerdings noch nicht ermöglicht.

Die Analogie zu organischen neuronalen Netzen ist naheliegend, denn hier wie dort ist es die Erfahrung, aus der sich das Wissen speist. In manchen Fällen führt das sogar dazu, dass die Maschine bislang ungeahnte Strategien entwickelt, die unter Umständen sogar erfolgreicher als die bisher bekannten menschengemachten sind. Ein geradezu sympathisches Beispiel hierfür ist Googles DeepMind, das über tausende Runden hinweg die optimale Strategie für das Arcade Game Breakout lernte.

Well played!

Bei aller Intelligenz und trotz teilweise beeindruckender Fortschritte befinden sich sämtliche Entwicklungen nach wie vor auf dem Stand der sogenannten schwachen KI – im Gegensatz zur starken, oder gar Super-KI. Dabei haben schwache KIs zwar ihren “dümmeren” Verwandten, den rein vom Menschen programmierte Algorithmen, bereits voraus, dass sie lernfähig sind, indem sie die besagten Netze knüpfen. Als “schwach” werden sie bezeichnet, weil nach wie vor jede dieser KIs auf ein sehr spezifisches Problemfeld bzw. dessen Lösung beschränkt ist. Manche moderne KIs sind besonders gut darin, Schach oder Go zu spielen, Gesichter oder Sprache zu erkennen und bei Bedarf zu übersetzen. Seit Jahren gelingt es beispielsweise IBM immer wieder, mit intelligenten Spielecomputern Meilensteine zu setzen. 1996 beeindruckte der Schachcomputer Deep Blue durch eine siegreiche Partie gegen den damals amtierenden Weltmeister Kasparov, das semantische Programm Watson gewann 2011 in der Quizshow Jeopardy publikumswirksam und AlphaGo rasierte 2015 den damaligen weltbesten Go-Spieler Fan Hui.

Boston Dynamics Spot trägt eine Kelchförmige Apparatur auf dem Rücken
Der canide Roboter Spot ist vielseitig einsetzbar. Quelle: Shutterstock.

Nur in wenigen Fällen werden KIs tatsächlich dafür entwickelt, menschliche Interaktion zu simulieren, wie die Humanoiden aus dem Hause Hanson Robotics, deren wahrscheinlich bekanntestes Beispiel “Sophia” ist. Den berühmten Turing-Test hat Sophias Konversationsprogramm allerdings noch nicht bestanden. Oft gilt die Fähigkeit, Spiele zu erlernen und schließlich zu meistern, als Prüfstein für intelligente Programme. Darüber hinaus gibt es noch eine Vielzahl von Anwendungsbereichen für intelligente Maschinen, die zwar unter dem Label KI firmieren, allerdings nicht im selben Sinn intelligent sind. Die Rede ist von dynamischen Maschinen, die selbstständig immer komplexere Bewegungsabläufe absolvieren. Einer der Vorreiter in Sachen agile Maschinen ist Boston Dynamics, deren Roboter sich vor allem dadurch hervortun, dass sie gerade in unwegsamem Gelände besonders trittsicher sind und selbstständig kleinere und größere Hindernisse überwinden, sowie selbst unter Schubsen und Rempeln zuverlässig im Gleichgewicht bleiben. Wirklich autonom verhalten sich die Roboter allerdings kaum. Eine Fernsteuerung gehört bislang standardmäßig dazu.

Innovation kostet

Weil für die Entwicklung Künstlicher Intelligenz nicht nur hochkarätige Expertise vonnöten ist, sondern auch eine Menge Geld, finden sich KI-Innovatoren oft dort, wo eine gute wirtschaftliche Anbindung lockt. Allen voran prescht natürlich das Silicon Valley, doch in den meisten Metropolen des Globus schießen immer mehr Unternehmen aus dem Boden, die mit teilweise verblüffenden Ergebnissen aufwarten können. Andersherum lassen sich an der Menge investierten Geldes auch Rückschlüsse darauf ziehen, welche Wirtschaftszweige ein besonderes Interesse oder einen besonderen Bedarf an KI-Technologie haben. Spoiler: Weltherrschaft ist nicht darunter.

Die vier Sektoren Informationstechnologie, Fahrzeugbau, Finanzdienstleistungen und Handel sind vom Umfangreichsten Investment bis zum geringsten in einer Reihe aufgelistet
Ist es verwunderlich, dass im Bereich Informationstechnologie am meisten Geld für KI in die Hand genommen wird? Eigene Grafik auf Grundlage von: www.netzoekonom.de

Von Automation zu Autonomie

Obwohl die technische Realität noch lange nicht so weit ist, reden sich schon jetzt viele die Köpfe über die gesellschaftlichen Konsequenzen heiß, die mit der Entwicklung einer starken KI einhergehen würden. Doch bevor wir in Panik vor der Ankunft der göttlichen KI verfallen, möchten wir noch einmal ganz sachlich und en détail schauen, was starke KI denn eigentlich heißen kann.

Die meisten Statements dazu bleiben vage und benennen nur grob, dass starke KI eine mit der menschlichen vergleichbare Intelligenz aufweisen würde. Das würde bedeuten, dass sie nicht mehr nur selbstständig voneinander isolierte Probleme lösen würde, sondern Themen in ihrem Kontext umreißen und mit anderen in Beziehung setzen könnte. Konkret würde das implizieren, dass eine starke KI etwa dazu in der Lage wäre, logisch zu denken, auch bei Unsicherheit Entscheidungen zu treffen, nicht nur zu lernen, sondern auch zu planen sowie einzelne Fähigkeiten zur Erreichung eines höheren Ziels zu verbinden. Lernfähigkeit und Erfahrung auf neue Felder zu übertragen gilt als eine der Kernkompetenzen starker KI. Ab dem Moment, in dem ein Programm dazu in der Lage wäre, nicht mehr nur selbstständig zu lernen, sondern autonom Ziele zu setzen – was die Konsequenz aus der Fähigkeit wäre, Teilbereiche miteinander zu verbinden und Pläne zu entwickeln – hätte sich eine solche KI geradezu völlig vom Menschen emanzipiert. Von der Automation hätte sie sich damit zur Autonomie entwickelt.

Allerdings bewegen wir uns hier schon in dem Bereich der Spekulation und bereits die Vorstellung eines unendlichen technologischen Fortschritts ist nicht ganz unstrittig. Dennoch gibt es Gedankenexperimente, die sich genau damit beschäftigen. Starke und Super-KIs gehören vor allem diesen Sphären an. Den Gedankenexperimenten zufolge würde KI-Technologie, die sich exponentiell weiterentwickelt, immer wieder Quantensprünge ihrer Entwicklung vollziehen, in denen sie völlig neue Stufen ihrer Intelligenz erreicht. Eine der gängigen Thesen besagt, dass es höchstens noch 100 Jahre dauert, bis die Technologie den Zustand einer starken KI erreicht habe. Doch damit wäre dann ja noch nicht Schluss und einer solchen Logik zufolge wäre es danach wiederum nur eine Frage der Zeit, bis Künstliche Intelligenz einen gottgleichen Zustand annähme, in dem sie allwissend, allmächtig und zugleich unsterblich wäre. Es ranken sich diverse utopische Szenarien um dieses Gedankenspiel. Viele dieser Spekulationen handeln davon, ob eine solche Gott-KI dem Menschen wohlgesonnen oder aber feindselig gestimmt wäre. In diesem Zusammenhang sprechen Menschen von der sogenannten “Singularität”, die das Schicksal der Menschen endgültig entscheiden werde.

Wie realistisch ist eigentlich die Vorstellung einer starken KI oder gar jener Singularität? Auf welchen Vorannahmen beruht diese? Ist eine Singularität überhaupt vereinbar mit den gegenwärtigen Auffassungen über die Gesetze der Physik? Mene mene tekel? Mit derartigen Spekulationen und teilweise quasi schon religiös gefärbten Vorstellungen beschäftigen wir uns im nächsten Artikel.