Datenmodelle: Dem Algorithmus auf der Spur
Algorithmen steuern Ampeln im Verkehr, sind in Autos oder Smartphones integriert. Sie lösen unterschiedliche Aufgaben und werden zunehmend komplexer. Neuronale Netzwerke sind hierbei die Königsklasse an komplexen Algorithmen. Ein Beispiel dazu ist, wenn ein Algorithmus tausende Bilder erfasst, auf denen unterschiedliche Gesichter zu sehen sind, diese dann in Gruppen zuweist (Familie, Arbeitskollegen, Fremde, Hollywoodstars etc.) und sie mit Namen verschlagwortet – wie das im Fotoalbum am Handy bereits der Fall ist. Solche Algorithmen werden aber auch bei der Bank oder in der Medizin eingesetzt. Diese Algorithmen zu verstehen wird immer mehr zur Herausforderung.
Milliarden Variablen
Genau dieser Herausforderung stellen sich Prof. Torsten Möller und sein Team im Forschungsprojekt „Transparent and explainable models“, finanziert vom WWTF. „Neuronale Netzwerke hängen von Milliarden Variablen ab und übersteigen daher die Vorstellungskraft der klügsten Ingenieur*innen und Wissenschafter*innen.“ Gemeinsam mit Prof. Claudia Plant und Prof. Philipp Grohs (alle Universität Wien) versucht Möller herauszufinden, wann diese neuronalen Netzwerke funktionieren und wann nicht, wie schnell sie sind oder wie fehleranfällig. „Wir fokussieren uns bei dem Forschungsprojekt darauf, zu beweisen, unter welchen Bedingungen diese Netzwerke funktionieren. Außerdem entwickeln wir neue Algorithmen, um das Clustering (Methode, um Daten in Gruppen einzuordnen) von großen Datenmengen zu verbessern und in Folge auch besser zu veranschaulichen.“ So können aufgrund des Forschungsprojekts künftig Systeme basierend auf künstlicher Intelligenz verbessert werden und dadurch präzisere Ergebnisse liefern.