Intelligent ist, wer eine Katze erkennt

Künstliche Intelligenz ist auf dem Vormarsch. Nur, was bedeutet das?

Text: Werner Sturmberger | aus HEUREKA /18 vom 25.04.2018

Ich habe keine Angst zuzugeben, dass ich Angst habe. Und ich habe keine Angst zu sagen, warum ich Angst habe. Es geht über jeden Schachcomputer der Welt hinaus." Am 11. Mai 1997 gegen vier Uhr Nachmittag in Manhattan sollten die Befürchtungen von Garri Kasparow wahr werden. Deep Blue gelingt es als erstem Computer, einen amtierenden Schachweltmeister unter Turnierbedingungen zu besiegen.

Schach ist zwar ein sehr komplexes Spiel, lässt sich aber mathematisch repräsentieren und kann daher von Computern berechnet werden. Die Anzahl unterschiedlicher Spielverläufe war aber lange Zeit mit den existierenden Rechenkapazitäten nicht zu bewältigen, denn es gibt mehr mögliche Spielverläufe als Atome im Weltall. Doch Kasparow wusste, "dass die Überlegenheit des Computers über den Menschen im Schach schon immer nur eine Frage der Zeit gewesen war". Für IBM sei das zwar ein beeindruckender Erfolg, doch letztlich wäre "Deep Blue nicht intelligenter als ein programmierbarer Wecker". Gegen einen zehn Millionen Dollar teuren Wecker verloren zu haben, ist auch nicht sehr tröstlich."

Überraschender Triumph für das Programm AlphaZero

"Anders als bei Schach, war es vor zwei Jahren bei Go tatsächlich eine Überraschung, dass ein Computer einen Go-Meister schlagen kann", so Robert Trappl, Leiter des Österreichischen Forschungsinstituts für Artificial Intelligence. Das chinesische Brettspiel ist vielfach komplexer als Schach: Die Anzahl der Atome im Universum beträgt etwa 10 80, auf einem Go-Brett mit 19 mal 19 Feldern sind dagegen 2,08 mal 10 170 Positionen möglich.

Dass dies dem mittlerweile in Besitz von Google befindlichen DeepMind Labor gelang, hatte vor allem einen Grund: AlphaGo. "Dabei kamen Algorithmen zum Einsatz, die sich am menschlichen Lernen orientieren. Die Entwickler des Systems waren dabei selbst überrascht, wie schnell es lernte", erklärt Klaus Mainzer von der TU München. DeepMind entwickelte mehrere Versionen dieser KI: In den ersten besiegte AlphaGo die Profispieler Fan Hui, Lee Sedol und Ke Jie. Als AlphaZero lernte die KI innerhalb weniger Stunden Schach, Go und Shogi und konnte jede bisher entwickelte Software, auch AlphaGo, schlagen. Die KI verfügte über keinerlei menschliche Erfahrungswerte, kannte lediglich die Spielregeln und lernte aus Spielen gegen sich selbst. Garri Kasparow zeigte sich begeistert von AlphaZero und erkannte darin "ein Werkzeug, das die Welt verändern wird".

Wie lernen Maschinen, zu Künstlicher Intelligenz zu werden?

Im menschlichen Gehirn finden sich rund 86 Milliarden Nervenzellen und zwischen diesen rund hundert Billionen Verbindungen, die Synapsen. Wenn wir lernen, entstehen neue Verbindungen und Aktivitätsmuster zwischen Neuronen. "Mithilfe bildgebender Verfahren können wir zwar betrachten, welche Areale im Gehirn aktiv sind und diese statistisch mit Aktivitäten und Zuständen korrelieren, die kausalen Mechanismen hinter diesen sind uns aber nach wie vor verborgen", erklärt Mainzer.

Dennoch versuchte man bereits in den 1940er Jahren, einzelne Eigenschaften dieser neuronalen Verbindungen mathematisch nachzuahmen. Eine praktische Umsetzung war wegen der nicht vorhandenen Rechenleistung völlig undenkbar. Diese wurde erst in der jüngeren Vergangenheit möglich. Die komplexen Tätigkeiten der Nervenzellen werden auf einfache logische Verknüpfungen reduziert und als artifizielles neurales Netz simuliert. Jede dieser künstlichen Nervenzellen erhält Daten über das Netzwerk. Der Input wird dabei gewichtet und, basierend auf diesem, der Output berechnet. Überschreitet dieser einen Schwellenwert, wird er an andere "Neuronen" kommuniziert.

Um komplexe Aufgaben wie etwa Bilderkennung bewältigen zu können, braucht es eine Vielzahl solcher in mehreren Ebenen organisierten künstlichen Neuronen, also ein simuliertes Gehirn oder zumindest einen Teil davon. Auf der ersten Ebene würde eine dafür programmierte KI etwa nur nach Kanten und Linien suchen, auf den folgenden nach immer komplexeren geometrischen Formen, und diese immer weiter zusammensetzen, bis schließlich ein komplexes Konzept wie eine Katze oder ein Gesicht erkannt werden kann. Googles Bilderkennung arbeitet mit zweiundzwanzig solcher Ebenen.

Was bedeutet Lernen in Bezug auf eine Maschine?

Eine Künstliche Intelligenz lernt entweder überwacht oder nicht überwacht. Überwachtes Lernen bedeutet etwa, ein Bilderkennungssystem mit Bildern interessierender Objekte zu füttern, damit diese auf wiederkehrende Muster untersucht werden können. Googles Bilderkennung, die mittlerweile auf jedem Smartphone mit der entsprechenden Foto-App angekommen ist, hat unüberwacht gelernt. Anhand zahlloser Fotos aus dem Internet brachte sich das System selbst bei, 20.000 Objekte zu unterscheiden.

Den Prozess der Bilderkennung kann man sich dabei wie eine Abstimmung vorstellen: Das System fragt die künstlichen Neuronen, was sie sehen. Sagt eine Mehrzahl der Neuronen "Katze", gibt die Bilderkennung das aus. Es kommen aber auch Prinzipien des verstärkenden Lernens zum Einsatz. Das bedeutet, dass all jenen Neuronen, welche die Katze richtig erkannt haben, künftig höhere, und jenen, die etwas anderes erkannt haben, niedrigere Zahlenwerte zugewiesen werden. Die richtigen Antworten werden dadurch "lauter", die falschen "leiser". Lernen bedeutet also, technisch betrachtet, dass Gewichtungen künstlicher Neuronen verändert werden.

Die Analogie zwischen auf neuronalen Netzen basierender Künstlicher Intelligenz und dem menschlichen Gehirn ist lediglich eine metaphorische. Doch es gibt eine Gemeinsamkeit: Niemand weiß genau, was vor sich geht. Die neuronalen Netzwerke präsentieren sich uns wie eine Blackbox. Nicht einmal die Entwickler von Google können genau sagen, was ihr System unter einer Katze versteht. Als diese ihre Bilderkennung quasi rückwärtslaufen ließen, um sich jenes Bild zeigen zu lassen, das am sichersten als Katze erkannt wird, zeigte ihnen die Künstliche Intelligenz ein geisterhaftes Bild vom Gesicht einer Katze.

"Der Nachteil von neuronalen Netzwerken ist, dass man nicht sagen kann, wieso etwas gelingt. Hat man eine Künstliche Intelligenz mit mehreren Millionen Gewichten, kann man nicht sagen, dass etwas von diesem und jenem Gewicht abhängt", erklärt Trappl. Dies mache die Korrektur eines Fehlverhaltens äußerst schwierig. Bei sensiblen Aufgaben wie dem Autonomen Fahren stellt sich zusätzlich die Frage, wer die Haftung für etwas übernimmt, das man nicht wirklich versteht.

Algorithmen, die selbst Algorithmen entwerfen

Die Komplexität neuronaler Netze hat einen paradoxen Nebeneffekt: Sie ist so hoch, dass sich keine idealen Parameter bei der Entwicklung solcher Algorithmen berechnen lassen. Entwickler sind oft gezwungen, auf ihr Bauchgefühl zu hören. Bald soll es Algorithmen geben, die Algorithmen entwerfen können. Google arbeitet daran: AutoML analysiert die Entwicklung von Algorithmen, um zu lernen, welche Methoden erfolgreich sind. Die Software kann mittlerweile selbstständig einfache Bilderkennungsalgorithmen erstellen.

Welche Rolle bleibt nun den Menschen in einer von Künstlicher Intelligenz geprägten Welt? "Es ist zwar prinzipiell denkbar, dass es eine andere materielle Basis für Bewusstsein gibt als die uns bekannte. Im Moment verstehen wir aber selbst von unserem eigenen Bewusstsein viel zu wenig, um es zu reproduzieren", sagt Mainzer. Menschliche Intelligenz wird künftig verstärkt mit künstlicher interagieren. Das gilt für unliebsame Office-Verwaltungsprogramme genauso wie für Schachcomputer.

"Jeder Spieler hatte einen PC zur Hand, auf dem während des Spiels das Schachprogramm seiner Wahl lief. Ziel war, die höchste Form von Schach zu erreichen, eine Synthese der besten Fähigkeiten von Mensch und Maschine", berichtet Kasparow über ein Turnier. Und stellte zu seiner Überraschung fest: Wenn der Computer die harte Rechenarbeit übernimmt, gewinnt menschliche Kreativität an Bedeutung.

Weitere Artikel lesen


Anzeige

Anzeige