Künstliche vs. menschliche Dummheit

Von Goethes "Zauberlehrling" über "HAL 9000" zu "Bob & Alice": Wie gefährlich ist KI?

Text: Sabine Edith Braun | aus HEUREKA /18 vom 25.04.2018

Sind das alles Einzelfälle, oder ist das schon eine Entwicklung? Angefangen hat es 2016 mit "Tay". Die Künstliche Intelligenz von Microsoft sollte mittels Deep Learning (siehe Seite 14) herausfinden, auf welche Weise Jugendliche miteinander kommunizieren. Doch nach wenigen Stunden hatten Teile der Netz-Community aus dem selbstlernenden Chatprogramm einen Rassisten gemacht und Tay musste vom Netz genommen werden.

2017 war es an Facebook, bei "Alice" und "Bob" - A[lice] symbolisiert im Netzwerkprotokoll den Sender, B[ob] den Empfänger einer Nachricht - den Stecker zu ziehen. Die zwei Bots hatten eine Geheimsprache entwickelt, die auch sämtliche KI-Spezialisten nicht mehr entschlüsseln konnten. Schließlich machte auch noch "AlphaZero" auf sich aufmerksam, das sich durch Gospielen gegen sich selbst unschlagbar gemacht hatte. Es wurde abgeschaltet.

Regeln für das digitale Zusammenleben mit Algorithmen

Für die EU-Kommission scheinen diese Ereignisse so besorgniserregend, dass nun offenbar Regelungen für den Umgang mit Formen von Künstlicher Intelligenz (KI) geplant sind. Das legt zumindest ein vorzeitig bekannt gewordener, mit Februar datierter Entwurf der Kommission nahe. Demnach soll nicht nur die Wettbewerbskraft europäischer Unternehmen auf dem KI-Sektor gestärkt, sondern auch ein rechtlicher Rahmen für die Unionsbürger geschaffen werden. Als Schlüsseltechnologie des 21. Jahrhunderts, so die Kommission, sei KI ein wichtiger Wirtschaftsfaktor, gleichzeitig entstünde aber in Grundrechtsfragen Handlungsbedarf.

Denn Algorithmen - nichts anderes ist KI - benötigen riesige Datenmengen, um an diesen "lernen" zu können. Während die Verfügbarkeit von Daten des öffentlichen Sektors hierfür wesentlich sind, seien laut EU-Kommission auch persönliche Daten besonders schützenswert. Das betreffe vor allem Daten des "Internets der Dinge". Eine entsprechende KI-Ethik-Charta soll bis Anfang 2019 entwickelt werden.

Einer jedoch hält die Ängste vor übereifrig lernenden Maschinen für überzogen: Peter J. Bentley. Der Brite hat Bücher mit Titeln wie "Digital Biology" oder, zuletzt, "Digitized: The Science of Computers and how it shapes our World" geschrieben. Wenn er nicht gerade einen populärwissenschaftlichen Bestseller verfasst, lehrt er am Department für Computerwissenschaften am University College in London (UCL). Den Hype, den dieses Thema in der Öffentlichkeit erfährt, bewege sich in regelmäßigen Ups und Downs, so Bentley, die sich dann in der Forschung in florierenden und abnehmenden Perioden niederschlügen.

Derzeit befänden wir uns in Bezug auf KI in einem extremen Hype, aber: "Es gibt Anzeichen, dass sich das bald wieder ändern könnte, da immer mehr negative Geschichten über KI, die schiefläuft, auftauchen." Zum Beispiel jene von Bob und Alice. Dass die beiden Facebook-Bots, die ihre eigene Sprache entwickelt hatten, vom Netz genommen wurden, findet Bentley nicht weiter besorgniserregend: "Jahrzehntelang haben Forscher kleinere künstliche Intelligenzen entwickelt und getestet. Bob und Alice waren bloß ein weiteres in einer langen Reihe von Experimenten." Dennoch mache es Sinn, über Künstliche Intelligenzen zu verfügen, die man versteht.

Immer noch am zerstörerischsten: menschliche Intelligenz

Auf die Frage, ob künstliche oder menschliche Intelligenz gefährlicher sei, überlegt Bentley nicht lange: "Menschen haben sich als die zerstörerischste Kreatur auf dem Planeten entwickelt. Wir radieren jede Konkurrenz aus. Leider zerstören wir systematisch auch die Umwelt." Doch nur weil wir Menschen so aggressiv und gedankenlos in unserem Verhalten sind, heiße das noch lange nicht, dass andere Intelligenzen sich ähnlich verhalten. Künstliche Intelligenzen, so Bentley, seien nicht notwendigerweise gefährlicher als andere Intelligenzen, mit denen wir den Planeten teilen: "Man sieht keine Delfine, die planen, Menschen auszurotten."

Künstliche Intelligenz erstreckt sich aber auf viele verschiedene Zweige. Deep Learning, so Peter J. Bentley, sei eine Weile sehr modern gewesen. Für das nächste große Ding hält der Brite "Agentenbasierte Modellierung", eine spezielle Methode der computergestützten Modellbildung und Simulation: "Hier ist Potenzial vorhanden, damit wir komplexe Systeme verstehen lernen, zum Beispiel, wie sich Krebs entwickelt."

Wissensverarbeitung durch Maschinen über Modelle

Jener Zweig der Künstlichen Intelligenz, mit dem sich Dimitris Karagiannis beschäftigt, heißt "Knowledge Engineering" (KE), zu deutsch: Wissensverarbeitung. Hier wird KI im Rahmen von wissensbasierten Systemen angewandt, es geht also um maschinelles Verstehen. Karagiannis, Leiter der KE-Forschungsgruppe an der Fakultät für Informatik der Universität Wien, erklärt zwei verschiedene Ansätze: "Man kann erstens eine Maschine wie eine Drohne oder einen Roboter immer wieder neu programmieren, aber irgendwann ist die Komplexität zu hoch: Maschinen lassen sich daher nicht endlos programmieren. Der zweite - und das ist unser Ansatz - lautet deshalb: Man versucht der Maschine beizubringen, semantisch reiche Modelle zu verstehen. Das heißt, wir statten die Maschine mit einer Basisfunktionalität aus." Das funktioniere aber nicht über Programmieren, sondern über intelligente Modellstrukturen, die wie in einem CAD-System erstellt werden. Was die Maschine später machen soll, wird vorab vom Menschen in Form von Modellen erarbeitet und anschließend von der Maschine ausgeführt. "Das ist ein enormer Unterschied", sagt Karagiannis und erläutert den Unterschied an einem plakativen Beispiel: Stellt man sich eine Maschine als Koch vor, würde immer wieder neues Programmieren bedeuten: Man programmiert den Roboterkoch auf Wiener Schnitzel, man programmiert ihn auf Tafelspitz, auf Apfelstrudel, etc. "Wir aber machen Folgendes: Wir programmieren den Roboter nicht immer wieder neu für einzelne Rezepte, sondern aufs Kochen!", erklärt Karagiannis. Die Maschine wird also mit übergreifenden Fähigkeiten ausgestattet.

Was Ängste vor derart intelligenten Maschinen betrifft, meint Karagiannis: "Wir befinden uns in einer Übergangszeit. Sie ist dadurch gekennzeichnet, dass zuerst bestimmte Phänomene beobachtet werden müssen und dann erst können Juristen entsprechende Gesetze und Regeln dazu erarbeiten." Karagiannis erwähnt neben dem Fall jener Passantin, die von einem selbstfahrenden Uber-Auto getötet wurde, auch Versuche mit menschlicher Gentherapie Ende der 1990er Jahre. Auch damals gab es einen Todesfall, der der Genforschung einen Rückschlag bescherte. "Aber sollen wir alles stoppen, oder weiterforschen?" 2018 sei die Welt differenzierter, Künstliche Intelligenz helfe den Menschen. Und nicht die Technik bzw. die Angst vor der Technik sei es, die uns manchmal in unserem wissenschaftlichen Tun stoppt, sondern die Rechtslage.

Eine europäische Charta für Künstliche Intelligenz?

Eine EU-weite Ethik-Charta für den Bereich Künstliche Intelligenz hält Karagiannis für eine gute Idee: "Ich bin dafür. Es soll eine gemeinsame Kultur entwickelt werden, wie man mit dieser Thematik umgeht, vergleichbar mit den Bereichen Atomforschung oder Genetik."

Sein Kollege Peter J. Bentley sieht das anders: "Wir brauchen keine KI-Ethik." Was wir aber bräuchten, seien ganz normale technische Sicherheitsprotokolle sowie angemessenes Prüfen und Abnehmen. Denn Probleme, sagt Bentley, bekämen wir dann, wenn wir Technologien verwenden, bevor diese ausgereift seien: "KI ist bloß ein anderer Name für 'smarte Software'. In der Industrie und unseren Produkten haben wir diese immer schon verwendet. Das Wichtigste ist, dass wir uns bewusst machen, dass kluge Computer uns nicht töten werden, sehr wohl aber dumme Computer." Das sieht Dimitris Karagiannis ähnlich. Beim Vergleich künstliche versus menschliche Intelligenz könne man sich, so der Wiener Forscher, nämlich auch genauso fragen: "Ist künstliche oder menschliche Dummheit gefährlicher?"

Website von Peter J. Bentley: http://about. peter-jbentley.com

Weitere Artikel lesen


Anzeige

Anzeige