Willkommen, Professor Theodoros Rekatsinas

Theodoros Rekatsinas ist seit Anfang Mai 2022 als Tenure-Track-Assistenzprofessor für Informatik am Departement Informatik der ETH Zürich tätig. In diesem kurzen Interview stellt er sich vor.

Professor Theodoros Rekatsinas
Professor Theodoros Rekatsinas forscht an Algorithmen und Systemen, um künstliche Intelligenz zuverlässiger zu machen und sie besser in verschiedene Aspekte des modernen Lebens zu integrieren.

Professor Rekatsinas, willkommen an der ETH Zürich. Was sind Ihre aktuellen Forschungsinteressen?
Meine Forschungsgruppe, die Structured Intelligence Systems Group, arbeitet an Algorithmen und Systemen für verständliches, robustes und skalierbares maschinelles Lernen (ML) mit komplexen relationalen Daten. Langfristig wollen wir die grundlegenden Zusammenhänge zwischen Datenmanagement und modernen maschinellen Lernsystemen verstehen. Auf der ML-Seite arbeiten wir an Techniken, die die moderne Entscheidungsfindung transparenter und robuster gegenüber der Variabilität und dem Rauschen der Daten machen. Gleichzeitig entwickeln wir neue Systeme, um die Nutzung von Deep-Learning-Modellen über strukturierte Daten im Milliardenmassstab schneller und kostengünstiger zu machen. Dafür gehen wir die wichtigsten Engpässe im ML-Lebenszyklus an, wie z. B. die Optimierung der Datenaufbereitung, die Ermöglichung einer robusten und transparenten Entwicklung und Bereitstellung von ML-Modellen sowie die Entwicklung von Trainings- und Inferenzsystemen für ressourcenschonendes ML.

Welche Auswirkungen hat Ihre Forschung auf die Gesellschaft?
Die Entwicklung der künstlichen Intelligenz (KI) eröffnet der Gesellschaft eine Fülle von Möglichkeiten. Von virtuellen Assistenten, die uns ständig Zugang zu Informationen verschaffen, bis hin zu KI-Modellen, die eine schnellere medizinische Diagnose ermöglichen, verspricht die KI, die menschlichen Fähigkeiten zu verbessern und das Leben effizienter zu gestalten. Zu diesem Zweck unterstützt unsere Forschung Gruppen von Wissenschaftler:innen und Industriepartnern dabei, KI einfacher und zuverlässiger in verschiedene Aspekte des modernen Lebens zu integrieren.

Wo haben Sie gearbeitet, bevor Sie an die ETH Zürich kamen?
Ich begann meine berufliche Laufbahn als Assistenzprofessor an der Universität von Wisconsin-Madison, wo ich Mitglied der Database Group war. In den letzten Jahren war ich jedoch akademisch beurlaubt und arbeitete bei Apple als Leiter des AI/ML Apple Knowledge Platform Teams. Bei Apple habe ich an der Entwicklung von Lösungen mitgewirkt, die hinter Funktionen wie Siri und Spotlight stecken. Jetzt freue ich mich darauf, meine akademische Karriere an der ETH fortzusetzen und gleichzeitig meine engen Verbindungen zur Tech-Industrie zu pflegen.

Welche Lehrveranstaltungen werden Sie an der ETH unterrichten?
Als Teil der Systems Group werde ich verschiedene Kurse im Bereich der Systeme für Datenmanagement und maschinelles Lernen unterrichten. In meiner vorherigen Position habe ich neue Kurse zu Datenmanagement für Data Science und maschinelles Lernen entwickelt, die ich nun auch an der ETH Zürich unterrichten will. Die Motivation hinter diesen Kursen ist es, die Ausbildung im Bereich Datenmanagement zu modernisieren und sie unmittelbar für Data Science und maschinelles Lernen relevant zu machen. Die Einführung in das Datenmanagement durch die Linse der modernen Analytik bietet eine einzigartige Gelegenheit, das Konzept der Datenmodelle hervorzuheben und Verbindungen zu verschiedenen Datenverarbeitungsmethoden entlang der Datenanalysepipelines herzustellen.

Nennen Sie einen interessanten Fakt über Ihre Forschung.
Technologien, die durch meine Forschung entstanden sind, helfen heute Millionen von Menschen, Zugang zu hochwertigeren Informationen zu erhalten. Das HoloClean-Projekt, das ich 2016 als Postdoktorand in Stanford begann, war einer der ersten Versuche, die grundlegenden Verbindungen zwischen modernem maschinellem Lernen und der Datenbereinigung – einer notorischen Herausforderung in der Geschäftsanalytik und bei Datenintegrationsplattformen – zu untersuchen. Seither wurden die Algorithmen und Ideen hinter HoloClean kommerzialisiert und in mehrere Produktionspipelines integriert.

Welche Missverständnisse über Ihren Forschungsbereich kommen häufig vor?
Viele Menschen glauben, dass die neuesten Fortschritte in der KI die Notwendigkeit von Datenmanagement und sorgfältig konzipierten Systemen überflüssig machen. Ich behaupte, dass genau das Gegenteil der Fall ist. Wir erleben gerade, dass sich das Paradigma des ML, bei dem das Modell im Vordergrund steht, zu einem Paradigma wandelt, bei dem Daten und Systeme im Vordergrund stehen. Die jüngsten Durchbrüche bei gross angelegten KI-Modellen (GPT-3, PaLM, Gato, Metaformer usw.) haben gezeigt: Eine skalierbare Datenverarbeitung ist entscheidend, um bei Aufgaben wie der Informationssuche, der Bildverarbeitung und dem Textverständnis Spitzenleistungen zu erzielen. Skalierung gibt es in zwei Formen: 1) Datenrekonstruktionsaufgaben (z. B. Vorhersage des nächsten Tokens in einer Tokensequenz) über grosse Mengen sorgfältig ausgewählter Daten und 2) effiziente Verarbeitung komplexer Berechnungsgraphen linearer Algebra-Operationen über grosse Tensoren. Überraschenderweise sehen wir, dass ein grosser Teil des Fortschritts im Bereich der KI auf Forschungsergebnisse im Bereich der skalierbaren Datenverwaltung und
-verarbeitung für diese neuen Arbeitslasten zurückzuführen ist.

JavaScript wurde auf Ihrem Browser deaktiviert