Wenn Sissi außer Kontrolle gerät

Wie sieht Realität von Robotern aus? Müssen wir uns auf eine Maschinenrealität einstellen?

Text: Sonja Burger | aus HEUREKA 1/17 vom 22.03.2017

Der Schlag, den ein Schauspieler in der TV-Krimiserie "SOKO Leipzig" von einem außer Kontrolle geratenen Roboterarm erhielt, war tödlich. Wurde die Steuerung namens "Sissi" manipuliert? Mit einem Computervirus infiziert? Oder hatte "Sissi" eine eigene Realität entwickelt, war eifersüchtig geworden und hat den Wissenschafter bewusst getötet?

In der kürzlich ausgestrahlten Folge ging es unter anderem um Realitätswahrnehmung, nämlich der von Robotern. Die Vorstellung, eine Maschine sei zu einem Mord imstande, ist gruselig. Der technologische Fortschritt, man denke etwa an selbstfahrende Autos, verunsichert viele von uns. Hinzu kommt, dass Roboter im Alltag präsenter werden. Wie "Pepper", ein humanoider Roboter der Firma Aldebaran (siehe Seite 10). Die Optik dieses Maschinenwesens ist stark an Menschen angelehnt.

Ist der traurig dreinschauende Roboter wirklich traurig?

"Sissi" hatte eine dem Menschen sehr ähnliche Realitätswahrnehmung. Die Maschine entwickelte Emotionen und interpretierte das, was sie über Sensoren wahrnahm. Die Fähigkeit zu Interpretation und Abstraktion ist vielen Menschen eigen, Maschinen jedoch nicht. Humanoide, welche die Emotionen ihres Gegenübers "erkennen" und darauf reagieren, verfügen nur scheinbar über emotionale Intelligenz. Dass ein Roboter einen Gesichtsausdruck erfasst, kann etwa ein Gesichtsbewegungs-Kodierungssystem (Face Action Coding System) ermöglichen. Das teilt das menschliche Gesicht in Teilbereiche. Wenn bestimmte Gesichtsmuskeln miteinander kombiniert eine gewisse Stellung ergeben, erkennt der Roboter zum Beispiel Freude, Traurigkeit oder Ekel.

"Um ihn besorgt schauen zu lassen, sind wenige Programmzeilen nötig. Die dahinterstehenden Algorithmen sind meist trivial. Roboter täuschen Gefühle somit vor. Was auf den ersten Blick nach Empathie aussieht, ist in Wahrheit weit davon entfernt", erklärt der Informatiker Christopher Lindinger, Director Research &Innovation am Ars Electronica Futurelab in Linz. Um menschliche Emotionen wahrzunehmen, spielen auch Sprache und Gestik eine Rolle. Etwa die Geschwindigkeit unserer Bewegungen: Diese registriert ein Roboter mithilfe von Tiefensensoren, die ein dreidimensionales Bild erzeugen. Damit ist es Robotern übrigens auch möglich, nach Objekten zu greifen.

Kein Roboter kann "blind" Objekte aus einer Kiste greifen

Wie Roboter Objekte besser erkennen bzw. "sehen" lernen, damit beschäftigt sich Markus Vincze, Experte für Maschinenbau und Robotik am Institut für Automatisierungsund Regelungstechnik der TU Wien schon seit den 1990ern. Heute wird dort mit "Pepper" und seinen Vorgängern "Nao" und "Romeo" sowie dem im EU-Projekt "HOBBIT" konzipierten Roboter experimentiert. Wegen seiner langjährigen Erfahrung weiß Vincze, wo die Fähigkeiten und Grenzen von Robotern in puncto Wahrnehmung liegen.

So basiert "Sehen" in erster Linie auf Kameras und verschiedenen Sensoren, etwa zur Lage-, Abstands-oder Tiefenerkennung. Auch Sensoren, die den Untergrund wahrnehmen, sind nötig.

In jedem Bereich konnten die Leistungen verbessert werden, sie hinken denen des Menschen allerdings hinterher. Besonders deutlich ist das beim Greifen. "Das taktile Empfinden über Sensoren ist nach wie vor schlecht ausgeprägt. Menschen können mit geschlossenen Augen jedes Objekt aus einer Kiste greifen. Das ist Robotern unmöglich. Hier ist die Diskrepanz zu den Fähigkeiten von Menschen unglaublich groß", sagt Vincze.

Einzelroboter brauchen eine ihnen adäquate Umgebung

Roboter -ob Roboterarm oder Humanoid - brauchen eine Umgebung, die ihren Fähigkeiten angepasst ist. Es bereitet ihnen große Schwierigkeiten, sich auf die Komplexität einzustellen, die ein ungewohntes Umfeld mit sich bringt. Viele, die mit Robotern forschen, empfinden deshalb großen Respekt vor den menschlichen Leistungen. Wie etwa der Kulturhistoriker und Kurator der Ausstellung "Roboter. Maschine und Mensch?" am Technischen Museum Wien, Christian Stadelmann: "Das sind Fertigkeiten wie die fantastische Kontrolle über die Beine oder die selbstverständliche Wahrnehmung einer Raumsituation. Damit tut sich ein Roboter enorm schwer. Wir müssen für ihn eine Umgebung schaffen, die seiner ,Realität' entspricht: Wo sie nicht über Bodenschwellen steigen müssen, keine unbekannten Gegenstände vorfinden oder mit wechselnden Lichtverhältnissen konfrontiert sind. Selbst Menschen sind nach wie vor nicht die ideale Umgebung für Roboter."

Doch nicht alle Roboter ticken so. Es existieren auch solche, die sich als Kollektiv bzw. Schwarm auf Unbekanntes sehr gut einstellen können. Die Rede ist von Schwarmintelligenz. Eine Gruppe von Akteuren löst dabei eine Aufgabe im Kollektiv. In der Gruppe sollte das besser gelingen als allein. Sowohl die Gesamt-als auch die Einzelleistung sollten steigen. Dem Team rund um den Zoologen und auch Leiter des "Artificial Life Laboratory" an der Universität Graz, Thomas Schmickl gelang es, aus dem Verhalten junger Honigbienen einen Algorithmus zu entwickeln.

Dieser BEECLUST Algorithmus ist laut Schmickl der einfachste schwarmintelligente Algorithmus, der bisher gefunden wurde. Er wurde etwa in landbasierte, schwimmende oder tauchende Roboter implementiert. Deutlich wird der Unterschied zu gängigen Robotern bei der Wahrnehmung der Umgebung. "Ein präziser konventioneller Algorithmus ist mathematisch optimal. Sind alle Rahmenbedingungen bekannt, ist er immer besser als eine schwarmintelligente Lösung. Ein Schwarm ist gut einsetzbar, wo man mit unbekannten Dingen zu tun hat, wie etwa in der Tiefsee oder in Katastrophengebieten", sagt Schmickl.

Das EU-Parlament schlägt Roboter als elektronische Personen vor

Im Verhältnis zwischen Mensch und Maschine geht es immer öfter um Kooperation. Lernfähigkeit seitens der Roboter sowie Erfahrung und Vertrauen beim Menschen sind zentrale Aspekte. Ob etwa eine Person schläft oder bewusstlos am Boden liegt, ist laut Vincze für Roboter schwierig zu unterscheiden.

Umgekehrt sind selbstfahrende Autos ein Beispiel dafür, wie weit Lernen gediehen ist: mit gestellten Gefahrensituationen werden Erkennungsmethoden trainiert. Sicherheit auch in puncto Manipulation ist heute ein vieldiskutiertes Thema und geht mit Vertrauen Hand in Hand.

Die Wahrung des Unterschieds zwischen Mensch und Maschine, auch in den Köpfen von Entwicklern und Anwendern, scheint das Gebot der Stunde zu sein. So schlägt das EU-Parlament vor, autonomen Robotern künftig den Status von "elektronischen Personen" zu geben.

Die Realität von Menschen besteht im Unterschied zu der von Robotern aus mehr als nur Daten. Unter welchen Voraussetzungen ein Miteinander dennoch gelingen kann, beschäftigt die international tätige Medienpsychologin Martina Mara. Sie leitet den Bereich "RoboPsychology" am Ars Electronica Futurelab. "Ich sehe nicht wahnsinnig viel Sinn darin, Roboter zu entwickeln, die nachahmen, was wir Menschen sind und können. Wir haben mehr davon, wenn wir die menschliche Intelligenz und die Maschinenintelligenz ihre je eigenen Vorteile ausspielen lassen."

Darüber hinaus ist ein gesundes Maß an Misstrauen nötig. "Sissi" hat es vorgezeigt. Der Grund liegt für Mara auf der Hand: "Egal, wie smart oder drollig sie daherkommen, sie verfügen über ordentlich Masse, viel kinetische Energie und könnten Menschen verletzen." Daher sei hundertprozentiges Vertrauen unangebracht.

Das Konzept eines "Experiencers", einer Maschine, die über Bewusstsein, Intention und Gefühle verfügt, ist noch imaginär, löst aber wie bei etlichen Zuschauern von SOKO Leipzig ein unheimliches Gefühl aus. Schon der Name "Sissi" ist nah am Menschen dran. Vielleicht wäre eine Kombination aus Zahlen und Buchstaben besser, um auch emotional Distanz zu wahren. Ein besserer Mensch kann und soll eine Maschine jedenfalls nicht werden.

Weitere Artikel lesen


Anzeige

Anzeige