Die KI-Juristin: Yvonne Hofstetter im Interview

Foto: Fotolia/kras99
Foto: Fotolia/kras99

Was eigentlich ist künstliche Intelligenz genau? Und wann wird sie aus juristischer und ethischer Perspektive zu einem Problem? Die Juristin und Essayistin Yvonne Hofstetter gehört zu den profiliertesten Denkerinnen zum Thema KI. Im Interview widmet sie sich den brennenden Fragen zu einer neuen Technik und sagt: Nicht die KI führt uns an die Grenzen des Rechts, sondern die Menschen und Unternehmen, die KI für ihre Geschäfte missbrauchen. Die Fragen stellte André Boße.

Zur Person

Yvonne Hofstetter, Foto: Heimo Aga
Yvonne Hofstetter, Foto: Heimo Aga

Yvonne Hofstetter, Jahrgang 1966, schloss in den 1990er-Jahren ihr Jurastudium ab und begann dann ab 1999 eine Karriere in der IT-Technologie. Seit 2009 ist sie Geschäftsführerin von Teramark Technologies in München, einem führenden Unternehmen für maschinelle Lernverfahren. Das Unternehmen entwickelt künstliche Intelligenz für unterschiedliche industrielle Einsatzzwecke. Yvonne Hofstetter beschäftigt sich mit Fragen zu Nutzen und Risiken der Digitalisierung für die Gesellschaft, mit Technikfolgen und Gefährdungsanalysen, mit politischen und juristischen Herausforderungen für die digitale Ära. Sie lebt in Freising bei München.

Frau Hofstetter, man hatte in der Geschichte immer den Eindruck, der Mensch gestalte die Technik so, dass sie ihm beim Fortschritt behilflich sein möge. Stehen wir bei der KI vor einer Zeitenwende? Droht die Digitalisierung eine Kraft zu entwickeln, die die Gesellschaft verändert, ohne dass der Mensch die Gestaltungshoheit besitzt?
Technischer Fortschritt ist eine Kulturleistung des Menschen, das gilt schon seit der Entdeckung des Feuers. Jede Kulturleistung entfernt den Menschen Schritt für Schritt von einer für den Menschen zunächst lebensbedrohlichen Natur hin zu einer Natur, die der Mensch wie ein Demiurg nach seinen Wünschen gestaltet. Der Demiurg steht im Altgriechischen für den Schöpfer. Er macht sich die Natur untertan. In der Folge hat der technische Fortschritt die Gesellschaft entscheidend verändert. Heute ist das nicht anders als früher, die künstliche Intelligenz ist also eine aktuelle Kulturleistung.

Das heißt, die künstliche Intelligenz besitzt in dieser Hinsicht keine neue Dimension?
Um die künstliche Intelligenz ranken sich viele falsche Vorstellungen. Was früher „Digitalisierung“ hieß, nennt man heute „Künstliche Intelligenz“, auch wenn es sich dabei gar nicht um künstliche Intelligenz handelt. Ein Roboter ist keine künstliche Intelligenz, Augmented Reality ist keine künstliche Intelligenz und auch nicht das berüchtigte Flugtaxi. Ich wäre sogar sehr beunruhigt, hätte das Flugtaxi eine Flugsteuerung aus künstlicher Intelligenz.

Was ist Künstliche Intelligenz denn dann?
KI ist weder Technologie noch ein Business, sondern ein Catch-All-Konzept. Mathematiker sagen: KI ist Funktionsapproximation, also eine mathematische Funktion mit zigtausend, hunderttausend Unbekannten. Diese kann kein Mensch mehr im Kopf lösen, zumal es häufig für diese Funktionen viele verschiedene Lösungen gibt. Oder auch mal gar keine Lösung, zumindest keine geschlossene. Was KI leistet: Sie sucht nun nach der besten Lösung. Oder sie nähert sich der besten Lösung, dem Optimum, an. Um das zu erreichen, muss sie lange rechnen. Deshalb handelt es sich bei KI auch um wissenschaftliches Rechnen, das viel Prozessorleistung benötigt.

Gibt es für die KI eine Art Standardleistung?
Ja, das ist die Klassifikation, die Kategorisierung. Zeigt das Bild einen Baum oder ein Haus? Ist der handschriftliche Buchstabe ein „c“ oder ein „e“? Ist ein Mensch ein guter Mensch oder ein schlechter Mensch? Bilderkennung, Spracherkennung, Übersetzung, Identifizierung, Bewertung – diese Dinge sind KI-Standardaufgaben.

Ein Roboter ist keine künstliche Intelligenz, Augmented Reality ist keine künstliche Intelligenz und auch nicht das berüchtigte Flugtaxi.

Klingt unspektakulär.
Das von Einstein im Rahmen seiner Relativitätstheorie entdeckte Naturgesetz lässt sich auch in einer ganz kurzen Formel ausdrücken: E=mc2. Die sieht auch unspektakulär aus. Aber sie hat uns zum Mond und in den Weltraum gebracht. Auch KI hat Potenzial, die Menschen weit zu bringen.

Trotzdem wird sie häufig kritisch betrachtet. Warum eigentlich?
Vor rund fünf Jahren haben die Unternehmen die KI entdeckt, an der ja schon seit Jahrzehnten geforscht wird und die seit 20 Jahren beim Militär im operativen Einsatz ist. Und immer dann, wenn die Wirtschaft mit etwas Neuem viel Geld verdienen kann, pervertiert der Kapitalismus selbst gute Ideen. Auch deshalb wird KI heute so übertrieben in Schwarz oder Weiß gemalt.

Welche Aspekte der KI werden unterschätzt?
Die Bedeutung von KI und Sicherheit. KI ist stark abhängig davon, dass Daten erhoben, gespeichert und vernetzt werden können. Werden diese Prozesse unterbrochen, dann hat man quasi den KI-Schalter auf „Aus“ umgelegt. Wir digitalisieren munter weiter und investieren Milliarden in eine digitale Infrastruktur – doch ist diese auf Friedenszeiten ausgelegt. Will heißen, wir gehen davon aus, dass das Netz immer und ungestört vorhanden ist, dass wir also immer Daten erheben, übertragen und speichern können, die Bandbreite immer gegeben ist. Nur haben sich die Zeiten geändert, geopolitisch ist es sehr unruhig geworden. Unsere Netze sind extrem angreifbar. Sollte der Fall eintreten, dass unsere digitale Infrastruktur – auf welchem Weg auch immer – gestört oder unterbrochen würde, wäre all unsere KI nutzlos. Und wir vielleicht ziemlich hilflos.

Der Gesetzgeber hat Unternehmen bereits auferlegt, nicht umweltschädlich zu handeln. Er könnte also genauso gut verlangen, dass der Markt keine demokratieschädlichen KI-Geschäftsmodelle umsetzt.

Wo liegt in Ihren Augen der Grenzbereich, wann wird KI ethisch und rechtlich zum Problem?
Wir haben kein Problem mit der Technologie der KI, sondern mit Ideologien. Es gibt problematische ideologische Ansprüche, die die Entwicklung von KI begleiten. Das amerikanische KI-Unternehmen zum Beispiel x.ai hat einen solchen Anspruch ganz klar ausgesprochen: „Using AI to program humans to behave better.“ KI nutzen, um Menschen umzuprogrammieren, damit sie sich besser benehmen. Da stellt sich die Frage, ist hier die KI das Problem – oder nicht vielmehr das Unternehmen, das ungeheure – und ganz undemokratische – Machtansprüche erhebt und sich andere Menschen untertan machen will? Ist hier nicht der Unternehmer derjenige, der Grundrechte untergräbt, indem er behauptet, der Mensch sei programmierbar, also unfrei? Weiter gefragt, muss ich hier nun die Technologie regulieren oder nicht vielmehr den Unternehmer, der demokratieschädigende Ansprüche geltend macht? Und der dafür die Technologie und sein Wissen einsetzt, um Geld zu verdienen? Verlangt also nicht vielmehr der Markt statt der Technologie nach einer Regulierung? Den Markt kann der Gesetzgeber regulieren, wenn er will.

Und, will er?
Der Gesetzgeber hat Unternehmen bereits auferlegt, nicht umweltschädlich zu handeln. Er könnte also genauso gut verlangen, dass der Markt keine demokratieschädlichen KI-Geschäftsmodelle umsetzt. Im Moment jedoch überwiegt noch der politische Wunsch nach Wirtschaftswachstum und Wettbewerbsfähigkeit.