Computerwissenschaft auf Weltniveau

Weitgehend unbemerkt hat es die heimische Informatik zu internationalem Ansehen gebracht

Werner Sturmberger | aus HEUREKA 3/15 vom 01.07.2015

Als das "größte Treffen von Logikern seit Aristoteles" betitelte die veranstaltende Kurt-Gödel-Gesellschaft den "Vienna Summer of Logic". Das letztjährige Treffen von mehr als 2.000 Forschern und Forscherinnen an der TU Wien kann als vorläufiger Höhepunkt der Renaissance Wiens als historisches Zentrum der Logik gelten. Vor allem im Bereich Logik, in der Informatik und bei Artificial-Intelligence-Forschung, einem Schwerpunkt der Tagung, nimmt Österreich seit einigen Jahren einen Spitzenplatz ein. Das Land genießt als Informatik-Standort hohes Ansehen.

"Auch im Bereich der Verifikation von Soft-und Hardware ist Österreich ein Global Player", sagt Helmut Veith vom Institut für Informationssysteme der TU Wien. "Das nationale Forschungsnetzwerk für Rigorous Systems Engineering ist ein österreichweites Großprojekt von internationaler Bedeutung. Weltweit gibt es nur wenige vergleichbar starke Konzentrationen auf diesem Gebiet."

Im Bereiche der Computer-Verifikation lassen sich drei Stufen von Aufgaben unterscheiden. "Im einfachsten Fall versucht man Fehler in einem Programm zu finden, im schwierigeren, ihn zu verifizieren. Mit ein bisschen Glück kann jeder Anwender einen Fehler finden, die Verifikation erfordert aber Beweise. Die Kür ist es schließlich, fehlerfreie Programme durch den Computer selbst schreiben zu lassen", so der Forscher.

Was nach Zukunftsmusik klingt, ist seit 2013 in der Tabellenkalkulationssoftware Microsoft Excel integriert. Das Programm kann manuelle Routineaufgaben, zum Beispiel das Trennen einer Adresse in Straßenname und Hausnummer, selbstständig aus Beispielen des Nutzers erlernen und automatisiert durchführen. Die Technologie der Synthese kann auch in der Programmierausbildung genutzt werden: "Wer Programmieren lernt, macht natürlich Fehler. Meine Forschungsgruppe entwickelt gemeinsam mit Microsoft ein Lernprogramm für angehende Programmierer, das minimale Fehlerkorrekturen vorschlagen soll, um aus einem fehlerhaften ein funktionierendes Programm zu machen", erklärt Veith.

Effizienz und Krebszellen

"Korrekte Systeme zu entwerfen ist eine Grundvoraussetzung, um komplexe Systeme entwickeln zu können. Diesen kommt gesellschaftlich eine immer größere Bedeutung zu", sagt Krishnendu Chatterjee vom Institute of Science and Technology Austria (IST Austria). Damit endet die Herausforderung aber nicht: "Im nächsten Schritt geht es darum, Algorithmen zu entwickeln, die nicht nur darüber Auskunft geben, ob ein System korrekt funktioniert, sondern auch darüber, wie effizient es arbeitet."

"Effi zienz bedeutet, dass ein Algorithmus zur Lösung einer Aufgabe möglichst wenige Arbeitsschritte und wenig Speicherplatz benötigt", erklärt Monika Henzinger, Leiterin der Forschungsgruppe Theory and Applications of Algorithms der Uni Wien. Es lassen sich aber nicht nur die Systeme in ihrer Effi zienz optimieren, sondern auch die Algorithmen, die über diese Auskunft geben. "Für viele Problemstellungen in der Verifikation ist die Laufzeit eine quadratische Funktion der möglichen Zustände. Ein komplexes System kann schon mal aus einer Milliarde Zustände bestehen. Diese alle zu überprüfen, kann Tage dauern. Wir wollen aber nicht fünf Tage warten, sondern nur drei Minuten. Daher suchen wir nach linearen Algorithmen, die dasselbe leisten."

Chatterjee und Henzinger, die auch häufig kooperieren, arbeiten gleichzeitig an mehreren solcher Algorithmen, die nicht ausschließlich Computerverifikation betreffen. Chatterjee ist auch im Bereich evolutionärer Spieltheorie an der Beschreibung der Entwicklung von Krebszellen tätig.

Übersichtliche Datenmengen

Menschen können hervorragend mit visuellen Eindrücken umgehen. Computer verfügen dagegen über das Potenzial, riesige Datenmengen zu verarbeiten. Diese wachsen stetig an, sind aber in ihrem Rohzustand für uns nichtssagend. Visual Analytics will beides kombinieren. "Wir versuchen große Datenräume - das heißt verschiedenste Daten unterschiedlicher Herkunft - mit analytischen und visuellen Methoden in Beziehung zu setzen, um sie im Zeitverlauf betrachten und analysieren zu können", sagt Silvia Miksch, Leiterin der Information and Software Engineering Group an der TU Wien.

Computerunterstützte Methoden der Visualisierung und analytischen Datenauswertung sollen, kombiniert mit den Methoden der Wahrnehmungs- und Erkenntnistheorien, bei der einfachen Darstellung komplexer Sachverhalte helfen. Ziel ist, Instrumente zu entwickeln, die es erleichtern, Zusammenhänge herzustellen und Hypothesen zu generieren. Welche Visualisierungsstrategie in welchem Kontext am besten funktioniert, wird anhand von Versuchspersonen getestet. Mithilfe unterschiedlicher Visualisierungen werden Aufgaben gelöst, wobei Zeit, Fehleranzahl und Erkenntnisgewinn gemessen werden.

Die konkreten Anwendungen reichen von Werkzeugen zum Monitoring von Tiefbohrungen bis hin zur Analyse der Therapiepläne magersüchtiger Personen. Um die heterogenen Daten analysieren zu können, werden die Datenberge in mit der Maus bedienbare, interaktive Diagramme und Graphiken umgewandelt. Miksch gibt aber zu bedenken, dass es sich dabei um eine "nicht ungefährliche" Technologie handle. Einerseits müssen die Daten fehlerfrei sein, um nicht zu falschen Schlüssen zu führen, andererseits können Visualisierungen dazu missbraucht werden, bewusst falsche Trends zu erzeugen.

Smarte Assistenzsysteme

"Angenommen, es kommt zu einem Fehler in einer Fabrik. Es ist laut, heiß und stressig. Das Problem muss aber dennoch rasch behoben werden. Damit das klappt, braucht man möglichst sofort die richtigen Informationen über den konkreten Fehler, und zwar so aufbereitet, dass sie auf den jeweiligen Mitarbeiter abgestimmt sind und ihm auch wirklich weiterhelfen", erklärt Stefanie Lindstaedt, Leiterin des Knowledge Technologies Institute der TU Graz und Geschäftsführerin am Know-Center. Im Rahmen von Cognitive Computing forscht sie an Assistenzsystemen, welche die richtige Information zur richtigen Zeit am richtigen Ort in angemessener Form bereitstellen können.

Damit diese "Leistungsverstärker für den Menschen" funktionieren, müssen sie in ihrem Verhalten das menschliche Denken berücksichtigen: Wie wird Wissen aufgenommen? Wie kommen Entscheidungen zustande? Wie reagieren Menschen unter Stress?

In der Grundlagenforschung wird daran gearbeitet, die Erkenntnisse psycho-und soziologischer Kognitionsmodelle mit technischen Methoden umzusetzen. Die Systeme müssen nicht nur verstehen, welche Information die NutzerInnen im Moment benötigen und wie man diese am besten präsentiert. Neben hilfreichen sollen sie auch richtige Antworten liefern: "Wir brauchen große Datenmengen - Stichwort Big Data -, um die Systeme zu trainieren, damit sie in Umfeldern mit großer Unsicherheit intelligente Antworten geben können."

Als Geschäftsführerin des Know-Center verschafft Lindstaedt österreichischen Unternehmen Zugang zu diesen Technologien: "Uns gibt das die Möglichkeit, unsere Technologien in unterschiedlichen Branchen zu testen. Die Firmem profitieren vom technologischen Know-how und dem Innovationspotenzial." Die meisten Unternehmen verfügen über riesige Datenmengen, haben aber oft keine Vorstellung davon, was in diesen steckt. Gemeinsam mit den Firmen werden auf deren Bedürfnisse zugeschnittene Anwendungen entwickelt. "Data Driven Business ist ein Game Changer", ist sich Lindstaedt sicher.

Unser Beitrag zu Netflix

Zur Primetime entfällt in Nordamerika mehr als ein Viertel des Internetverkehrs auf die Streaming-Plattform Netflix. Mehr als zwei Drittel der im Internet übertragenen Daten sind Videos - Tendenz steigend. "Wenn man sich ein Youtube-Video ansieht, dann steckt dahinter sehr viel Software. Am Standard hinter solchem Streaming haben wir mitgearbeitet", sagt Hermann Hellwagner, Leiter der Forschungsgruppe Multimedia-Kommunikation der Alpen-Adria-Universität Klagenfurt. Die Standards halten fest, wie Daten komprimiert, gespeichert, übertragen und abgespielt werden müssen.

Um Videos in der bestmöglichen Qualität wiederzugeben, wählt die Software anhand der zur Verfügung stehenden Bandbreite dynamisch die ideale Übertragungsqualität aus. Das Video muss dafür in unterschiedlichen Qualitäten und teilweise auch Codierungen am Server abgespeichert werden.

Bei Netflix ist jedes Video in bis zu fünfzig Versionen vorhanden. Aufgrund des enormen Speicherbedarfs von Streaming Services fällt der Komprimierung von Daten eine Schlüsselrolle zu: Je höher diese ist, desto geringer die Datenmenge. Das bedeutet geringeren Speicherplatz-und Bandbreitenbedarf sowie damit verbunden einen geringeren Hardware-Einsatz und somit niedrigere Kosten für Hardware und deren Betrieb.

Ad-hoc-Netz & Drohnen

Bei den letztjährigen Herbst-Protesten in Hongkong verwendeten viele Demonstranten und Demonstrantinnen die App FireChat. Sie stellt über die Bluetooth -Schnittstelle des Smartphones ein Ad-hoc-Netzwerk zum Senden und Empfangen von Nachrichten her. Anders als die Internetverbindung, die wir im Alltag nutzen, sind diese Netzwerke nicht auf eine feste Infrastruktur angewiesen. Jedes Endgerät des Netzwerks fungiert als Übertragungsknoten. Das Netzwerk ist daher nicht von einem Ausfall fester Infrastruktur betroffen.

Im EU-Projekt "Bridge" demonstrierten Hellwagner und sein Team den Nutzen solcher Netzwerke in Krisensituationen. Mit entsprechenden Apps können Help-Beacons (ein Hilferuf mit Standortlokalisierung) abgesetzt oder Informationen und Videos an Einsatzkräfte bzw. -leitung übermittelt werden.

Ad-hoc-Netzwerke können nicht nur mit mobilen Benutzer-Endgeräten, sondern auch mit Drohnen gebildet werden: "In einem Search-and-Rescue-Szenario, gerade in unwegsamen Gelände, können mit Kameras bestückte Drohnen nicht nur Informationen generieren, sondern sich auch als Netzwerkknoten so positionieren, dass die Informationen über große Distanzen übermittelt werden können", erklärt Hellwagner.

Der Serienreife stehen im Moment noch Probleme mit der Übertragungstechnik und der Witterungsbeständigkeit der Drohnen im Weg. "Gerade im militärischen Bereich wird massiv an solchen Technologien gearbeitet. Wir beschränken uns aber auf rein zivile Anwendungen", so der Forscher.

Qualitätsmanagement

Mit zunehmender Anzahl und Komplexität der IT-Systeme wird deren effiziente Instandhaltung immer wichtiger. "Wir interessieren uns besonders für die neue Generation von IT-Systemen: Cloud Services, Smarte Systeme, medizinische Anwendungen und all das, was unter das Schlagwort Industrie 4.0 fällt", sagt Ruth Breu, Leiterin der Forschungsgruppe Quality Engineerung an der Universität Innsbruck.

Die gängigen Qualitätsmanagementprozesse sind oft veraltet und entsprechen nicht dem Niveau der Systeme, die sie erhalten sollen. "Wir arbeiten daran, die Qualitätsmanagementprozesse genauso smart zu machen wie die Produkte, die sie betreffen." Qualität heißt: Anwendungen stabil, effizient und geschützt vor dem Zugriff Unbefugter zu betreiben.

Quality Engineering soll Methoden und Werkzeuge zur Verbesserung von Qualität und Kosteneffizienz beim Management, Entwurf und Betrieb der Software-Systeme bereitstellen. Derzeit müssen viele administrative Tätigkeiten noch manuell erledigt werden.

Ein höherer Automatisationsgrad hat enorme Auswirkungen in der Praxis: Das IT-Team von Infineon zeichnet etwa für die IT-Infrastruktur von 30.000 MitarbeiterInnen verantwortlich. In Zusammenarbeit mit diesen und anderen Industriepartnern werden im anwendungsorientierten Forschungszentrum Quality Engineering Laura Bassi Lab Werkzeuge und Techniken unter Praxisbedingungen erprobt.

Neben dem Wachstum der IT-Systeme in Größe und Anzahl machen auch die gesetzlichen Anforderungen an deren Sicherheit eine Qualitätssteigerung im IT-Management notwendig. Sicherheit und Handhabbarkeit der Systeme bestimmen wiederum über deren Akzeptanz.

Wie die Debatten um die elektronische Gesundheitsakte zeigen, trifft dies besonders im Bereich des Gesundheitssystems zu. Doch nur wenn die Systeme angenommen werden, können sie einen positiven Beitrag zur Gesundheit leisten. Am Institut von Breu beschäftigt man sich daher mit der Einbindung der Bevölkerung in solche Systeme.

Kooperationen zwischen Industrie und Instituten sind für beide Seiten vorteilhaft. Die Industrie bringt Geldmittel und Expertise aus der Praxis, die Universitätsinstitute langfristig nutzbares, theoretisch fundiertes Wissen. Dieses kann jedoch nur in der Grundlagenforschung erarbeitet werden.

Grundlagenforschung

"Ich hätte sehr gern mehr Freiraum in der Grundlagenforschung, denn viele Probleme sind noch ungelöst und lassen sich auch im Rahmen von Auftragsforschung oder Industrie-Kooperationen nicht lösen", sagt Miksch. Das Volumen der möglichen Grundlagenforschung wird durch die dem FWF zur Verfügung stehenden Mittel bestimmt. "Insgesamt betrachtet ist die Informatik in Österreich top aufgestellt. Es hakt aber bei der Finanzierung der Grundlagenforschung. Das betrifft aber nicht nur die Informatik, sondern alle Disziplinen", erklärt Breu.

"Im Jahr 2014 hatten wir eine Bewilligungsquote von 21 Prozent. Wir müssen also viele gute Projekte ablehnen, die sehr wohl förderungswürdig wären. Das sind Projekte, die von internationalen Gutachtern als exzellent bis sehr gut eingestuft wurden", so Hellwagner, als Vizepräsident des FWF zuständig für den Bereich Naturwissenschaft und Technik. Für die nächsten Jahre rechnet er mit einem Budgetrückgang bei steigender Nachfrage und damit mit einer sinkenden Förderungsquote.

"Wir müssen versuchen, mehr Mittel vom Wissenschaftsministerium zu erhalten und auch darüber hinaus mehr Geld auf die Beine stellen", sagt er. Das dürfe aber nicht zu Kürzungen auf anderen Förderungsebenen führen. Denn die Informatik ist aufgrund ihrer Verknüpfung mit unterschiedlichsten Disziplinen auf die Förderung der gesamten Innovationskette angewiesen.

Benötigt werden die Gelder der Grundlagenforschung für die Durchführung von Forschungsprojekten und die Schaffung von Stellen für den Nachwuchs. "Die akademische Szene ist globalisiert und der Wettbewerb um die besten Köpfe international. Wir befinden uns in Österreich in der paradoxen Situation, dass wir mittlerweile so attraktiv sind, dass Leute gerne zu uns kommen wollen, wir aber gleichzeitig nicht das Geld haben, ihnen entsprechende Stellen anzubieten", sagt Veith.

Dass junge Wissenschafter und Wissenschafterinnen aus Österreich ins Ausland gehen, um dort zu forschen, sei zwar begrüßenswert, ohne Stellenangebote könne man diese aber nicht mehr zurückholen. Angesichts der drohenden Kürzung von Doktoratskollegsstellen appelliert Veith an die Politik:

"Österreich hat vor zwanzig Jahren eine Aufholjagd in der Wissenschaft begonnen. Jetzt, wo die österreichische Forschung in zahlreichen Bereichen wieder Weltniveau erreicht hat, darf man nicht einfach aufhören. Wie im Sport ist auch in der Wissenschaft die Förderung der Nachwuchstalente der Schlüssel zum Erfolg. Dafür brauchen wir einen gut dotierten FWF."

Weitere Artikel lesen


Anzeige

Anzeige