Mathematik

Dictionary Learning: Lernalgorithmen für hochdimensionale Daten und ihre raschere Bearbeitung

Uschi Sorz | aus HEUREKA 3/15 vom 01.07.2015

Dictionary Learning kann man sich wie eine Maschine vorstellen, in die man viele Beispiele einer Datenklasse hineinsteckt und die dann einen geeigneten Bausteinsatz für die ganze Datenklasse ausspuckt", sagt Karin Schnass, Post-Doc an der Fakultät für Mathematik der Uni Innsbruck. In ihrem gerade angelaufenen START-Projekt "Optimierung, Modelle & Algorithmen für Dictionary Learning" untersucht sie, wie man mit gigantischen Datenmengen umgehen kann. Ob es 300 Millionen hochgeladener Facebook-Fotos pro Tag sind oder 800 GB pro Sekunde, die der Teilchenbeschleuniger am CERN aufzeichnet - die Datenmengen auf der Welt steigen unablässig.

Eine vielversprechende Strategie basiert auf der geringen Komplexität sogar hochdimensionaler Daten, sobald diese in einem geeigneten Repräsentationssystem (Dictionary) dargestellt werden. "Ich kann etwa Datensätze wie Bilder haben", erklärt Schnass. "Die Unterklassen davon sind Bilder von ausgewählten Details, also entweder nur von Gesichtern, oder nur von Bäumen etc."

Je weniger Bausteine man pro Bild aus dem Dictionary braucht, desto leichter kann man die Bilder entrauschen bzw. sie überhaupt aufnehmen. "Ich brauche dann nicht von jedem den Pixelwert erfragen, sondern es genügen vergleichsweise wenige Durchschnittsmessungen. Dafür habe ich etwas mehr Aufwand beim Rückrechnen."

Ein Beispiel sei etwa, wenn ein Patient beim MRT weniger lange in der Maschine liegen müsse und der Computer im Nebenzimmer länger rechne. "Grundlagenforschung erbringt durchaus nützliche Nebenprodukte", schmunzelt die 35-jährige Klosterneuburgerin. Aber Mathematik sei ja nicht nur für die Technik wichtig, sondern auch die Kunst: "Einfach wunderschön."

Weitere Artikel lesen


Anzeige

Anzeige