Der KI-Praktiker Prof. Dr. Philipp Hennig im Interview

Prof. Dr. Philipp Hennig, Foto: Max-Planck-Institut für Intelligente Systeme
Prof. Dr. Philipp Hennig, Foto: Max-Planck-Institut für Intelligente Systeme

Dr. Philipp Hennig ist Professor für die Methoden des Maschinellen Lernens an der Universität Tübingen sowie Co-Sprecher von Cyber Valley, Europas größtem Forschungskonsortium im Bereich der KI mit Partnern aus Wissenschaft und Industrie. Im Interview erzählt er, warum sich die KI-Forschung für andere Wissenschaften öffnet und was uns die künstliche über die menschliche Intelligenz verrät. Zudem mahnt er davor, die weitere Entwicklung zu negativ zu betrachten: Ein wenig Vorfreude auf das, was KI leisten kann, täte Europa gut. Die Fragen stellte André Boße.

Zur Person

Philipp Hennig studierte ab 2001 in Heidelberg Physik, wo er das Studium 2007 mit dem Diplom abschloss. Danach ging er nach Cambridge, wo er am Lehrstuhl des Naturphilosophen und Universalgelehrten Sir David MacKay promovierte. Seine berufliche Karriere begann 2011 beim Max-Planck-Institut für Intelligente Systeme in Tübingen, wo er vom Research Scientist zum Gruppenleiter aufstieg – und zwischendrin eine sechsmonatige Elternzeit einlegte. Seine Stelle als Professor der Uni Tübingen trat er 2018 an. Philipp Hennig ist darüber hinaus Co-Sprecher der Cyber Valley Initiative. Seine Lieblings-KI in der Science- Fiction ist Marvin, der „paranoide Androide“ aus Douglas Adams’ „Hitchhiker’s Guide to the Galaxy“: „Er ist nach eigenen Angaben fünfzigtausendmal schlauer als ein Mensch. Das macht ihn aber nicht zu einer Bedrohung für die Menschen. Im Gegenteil: Man muss ihn von anderen Computern fernhalten, weil sie bei Herstellung einer Verbindung mit ihm ob der offensichtlich tiefgründigen Erkenntnis in Depression verfallen.“

Herr Dr. Hennig, können Sie sich noch an Ihren „Erstkontakt“ mit der Künstlichen Intelligenz erinnern?
Für meine Physik-Diplomarbeit musste ich eine Simulation eines Elektronen-Mikroskops programmieren. Dabei stieß ich auf eine faszinierende Forschungsgemeinschaft, die sich damit beschäftigte, wie Computer-Modelle die Welt aus Daten lernen können. Damals war das noch eine Nische. Auf der ersten KI-Konferenz, die ich dann als Doktorand besuchte, waren 500 Leute – die meisten davon Doktoranden wie ich. Eine Gruppe von ihnen hatte eine Ferienwohnung gemietet und dort eine spontane Party organisiert. Danach kannte ich die halbe Konferenz. Zu derselben Veranstaltung fuhren vor der Pandemie übrigens zuletzt zehntausende Menschen.

Welches landläufige Vorurteil über Künstliche Intelligenz stört Sie am meisten?
Es gibt eine Vorstellung, bei KI-Systemen handele es sich um magische, unkontrollierbare Automaten, die man irgendwo in die Steckdose stöpselt – und die dann so lange mit wachsendem Hunger Daten verschlingen, bis sie mehr wissen, als sie wissen sollen. In Wahrheit funktioniert die Künstliche Intelligenz aber ja nur, wenn ein intelligenter Mensch vor dem Computer sitzt. Lernende Maschinen sind Computerprogramme, die von Menschen geschrieben werden. Es ist zwar richtig, dass wir zum Erfolg dieser Maschinen auch Infrastruktur, Rechenkapazitäten und Zugang zu Daten brauchen. Mehr als alles andere jedoch brauchen wir gut ausgebildete junge Menschen, die nicht nur den jüngsten Hype mitbekommen, sondern die grundlegenden mathematischen Zusammenhänge verstanden haben.

Sie sind von Hause aus diplomierter Physiker. Warum ist eine klassische naturwissenschaftliche Ausbildung ein Vorteil, wenn man später tief in die KI einsteigen will?
Ich beschreibe maschinelles Lernen, also die zeitgenössische Form der KI, gerne als die Mechanisierung der naturwissenschaftlichen Methode. Die klassische Rolle des theoretischen Physikers ist es ja, sich Reihen an Messdaten anzuschauen und darin Ordnung, Gesetze und Prinzipien zu erkennen, die sich dann auf eine Formel reduzieren lassen, mit der man die Ergebnisse zukünftiger Experimente vorhersagen kann. Lernende Maschinen machen genau das – nur, dass sie nicht auf eine Formel, sondern auf ein Computerprogramm reduzieren. Sie machen das nicht nur mit präzisen Labormessungen, sondern mit allen Daten, die unsere Gesellschaft beschreiben.

Ändert sich durch diesen Blick auf die KI die Informatik? Ja, sehr grundlegend. Die Informatik war früher das Feld der formalen Sprachen und abstrakten Muster. Mit KI sind die Daten zu einem zentralen Objekt geworden. Mit ihnen ist die ganze Komplexität, aber auch alles Wunderbare des Menschlichen in diesem technischen Feld angekommen. Ich rede heute mit den Studierenden in meinen Vorlesungen genauso über algorithmische Fairness, gesellschaftliche Verantwortung und Datenschutz wie über stochastische Prozesse und Funktionsräume. Und ich sehe mit Freude, dass diese neue Rolle der Informatik auch eine neue Generation an Studierenden anzieht, die sich nicht nur mit den althergebrachten Klischees des Computernerds identifizieren, sondern auch eine soziale Verantwortung verspüren. Auch deshalb würde ich heute vielleicht das Informatikstudium der Physik vorziehen.

In Bereichen wie Bild- und Spracherkennung ist der Durchbruch im Prinzip geschafft. In anderen Bereichen, wie dem autonomen Fahren, hat so mancher die Dynamik des Möglichen überschätzt.

Ihr Standort Tübingen wird im Rahmen des „AI Breakthrough Hub“ eine hohe Fördersumme erhalten. Warum ist Geld
Geld ist vor allem wichtig, weil wir in Deutschland und Europa in einer enorm dynamischen internationalen Entwicklung große Anstrengungen unternehmen müssen, um überhaupt den Anschluss zu halten und unsere eigenen Chancen zu nutzen. Natürlich sind dazu auch Investitionen in Hardware nötig. Vor allem aber geht es darum, Orte zu schaffen, an denen motivierte junge Menschen eine Chance für sich und ihre Ideen sehen. Es geht da auch um die Erreichung einer kritischen Masse: Für die Promovierenden in meiner Gruppe ist es enorm wertvoll, auf unserem Campus zu fast jedem Teilund Anwendungsbereich der KI einen Experten zu finden, mit dem sie Fragen und Ideen schnell und kompetent diskutieren können. Übrigens gehören dazu nicht nur Informatiker, sondern auch Philosophen, Ethiker sowie Partner aus den angewandten Wissenschaften, die teils mit uns im selben Gebäude arbeiten. Kurze Wege und gebündeltes, breites Fachwissen – das sind die Zündfunken, aus denen eine Kettenreaktion entstehen kann.

Bezogen auf den Titel „AI Breakthrough Hub“, wie ist denn der Stand der Dinge, wann „bricht die KI denn durch“?
In Bereichen wie Bild- und Spracherkennung ist der Durchbruch im Prinzip geschafft. In anderen Bereichen, wie dem autonomen Fahren, hat so mancher die Dynamik des Möglichen überschätzt. Da wird es wohl länger dauern als man zunächst erwartet hatte. Aber vielleicht eben auch nicht. Mit revolutionären Technologien scheint es ja oft so, dass Vorhersagen erst lange viel zu optimistisch – und dann ganz plötzlich veraltet sind. In jedem Fall aber liegen die wirklich umwälzenden Effekte dieser Technologie noch vor uns. Sie werden dabei aus Fortschritten bestehen, in denen KI als Katalysator im Hintergrund wirkt. Zum Beispiel mit einer Vielfalt an neuen aus großen Datenmengen gewonnenen medizinischen Erkenntnissen. Oder an neuen, mit KI-Suchverfahren entdeckten Materialien mit ungeahnten physikalischen Eigenschaften. Viele Menschen werden diese Fortschritte gar nicht als direkte Ergebnisse der KI wahrnehmen. Dennoch werden sie eher dort erzielt werden, wo Expertise in Datenanalyse und Modellierung leicht zu finden ist.

Vielleicht sollten wir uns weniger Gedanken darüber machen, ob uns die Maschinen irgendwann überlegen sein könnten, sondern uns darauf vorbereiten, dass sie uns die Banalität unserer eigenen „Intelligenz“ aufzeigen.

KI nimmt sich, grob gesagt, das menschliche Gehirn als Vorbild. Was haben Sie in diesem Feld zuletzt gelernt, was Sie wirklich nachhaltig erstaunt hat? In der jüngeren Vergangenheit sind vermehrt KI-Systeme wie der Textgenerator GPT-3 und der Bildgenerator DALL-E aufgetaucht, die mich, wie viele meiner Kolleginnen und Kollegen, mit einer vermeintlichen „Kreativität“ überrascht haben. Bei genauerer Untersuchung kommt dann oft die Vermutung auf, dass diese Systeme, etwas herablassend gesagt, „nur“ zwischen unglaublichen Mengen an Trainingsdaten interpolieren. Aber wer sagt, dass menschliche Gehirne das nicht auch so machen? Manchmal habe ich die leise Ahnung, dass uns eine Art kopernikanische Wende in unserem Selbstbild bevorstehen könnte: Vielleicht sollten wir uns weniger Gedanken darüber machen, ob uns die Maschinen irgendwann überlegen sein könnten, sondern uns darauf vorbereiten, dass sie uns die Banalität unserer eigenen „Intelligenz“ aufzeigen.

Denken Sie, dass die künftigen Generationen bei Krisen wie der aktuellen Pandemie oder auch der Klimakrise auf die Hilfe von KI-Lösungen bauen können?
Bislang hat die Pandemie der KI-Community vor allem eine Lektion in Demut erteilt. Zu Beginn gab es viel Selbstbewusstsein, Tatendrang – und durchaus auch gute Ideen. Hochdetaillierte Echtzeitmodelle von Infektionsketten in etwa, oder automatisierte Infektions-Diagnosen auf Basis eines Husters ins Telefon. Dass daraus weniger geworden ist als erhofft, sollte aber kein Grund zur Häme sein, sondern vielmehr Anlass zu fragen, woran diese Ideen gescheitert sind.

Was ist Ihre Vermutung?
Oft lag es wohl nicht an den Möglichkeiten der Technik, sondern daran, dass die nötigen Trainingsdaten aus Datenschutzgründen unzugänglich blieben oder die Anwendung der neuen Methoden nicht in die Prozesse unseres Gesundheits- und Verwaltungssystems passen. Wenn eine Gesellschaft bewusst und konkret entscheidet, dass bestimmte Verwendungen von Daten unerwünscht sind, dann ist das okay. Mir fällt aber auch auf, dass wir in Europa vor allem darüber sprechen, welche KI-Anwendungen verboten werden sollten. Wir sprechen zu wenig darüber, welche Verwendung von Daten wir im Interesse der Allgemeinheit, nach umfangreicher gesellschaftlicher Debatte und mit klaren Regeln und Zielen konkret angehen sollten.

KI-Forschung für Künstliche Faulheit

Mit seiner Forschungsgruppe arbeitet Philipp Hennig daran, Rechenalgorithmen für die KI zu entwickeln, die lernende Maschinen effizienter, zuverlässiger und einfacher zu bedienen machen. „Maschinelles Lernen ist noch sehr energiehungrig“, sagt er zum Hintergrund. „KI-Systeme mögen zwar Go spielen wie ein Großmeister, sie verbrauchen dabei aber mindestens tausendmal so viel Energie wie ihr menschlicher Gegner.“ Stark vereinfacht liege das daran, dass die Informatik noch nicht gut verstanden habe, was die internen Rechenaufgaben einer KI schwer oder leicht macht. „Wir suchen also nach Konzepten, mit denen die Maschine selbst besser erkennen kann, wie gut sie ihre Aufgabe erfüllt – um dann auch mal früher damit aufzuhören.“ Anders gesagt: Der KI soll beigebracht werden, auch mal faul zu sein.