Das letzte Wort hat Matthias Pfeffer, TV-Journalist, Autor, Produzent und Philosoph

Foto: Fotolia/fotofabrika

Herr Pfeffer, Sie bewerten Künstliche Intelligenz als eine Hochrisikotechnologie. Warum?
KI kann in sehr unterschiedlichen Bereichen eingesetzt werden. Es kommt dann darauf an, wo und in welcher Entwicklungsstufe sie eingesetzt wird. Wenn ich von gefährlicher KI spreche, dann meine ich eine KI, die auf dem Prinzip des Deep Learning basiert, auf neuronalen Netzen, und sich damit selbst verändert. Eine solche KI ist nur in Teilen beherrschbar, wenn sie sich zum Beispiel in Formen des unüberwachten Lernens selbst entwickeln kann. Zum anderen gibt es Risiken bei bestimmten Anwendungen. Hier muss im Rahmen der aktuellen Lage das Thema „Autonome Waffen“ genannt werden.

Zur Person

Matthias Pfeffer, Foto: Wolf Heider-Sawall
Matthias Pfeffer, Foto: Wolf Heider-Sawall

Matthias Pfeffer, geboren 1961, ist freier TVJournalist, Produzent, Philosoph sowie Gründer von PfefferMedia. Er hat Philosophie studiert und war 20 Jahre lang Geschäftsführer und Chefredakteur von FOCUS TV. Er hat zahllose TV-Formate entwickelt und produziert und verant wortet, darunter mit Future Trend für RTL das erste Wissenschaftsformat im Privat fernsehen (1997–2013) sowie mit Eins gegen Eins für Sat.1 (2011–2013) ein neuartiges Talkformat. Er hat mit FOCUS GESUNDHEIT (2005– 2010) den ersten 24-Stunden-Gesundheitssender in Deutschland gegründet und war als Produzent maßgeblich an der Entwicklung des konstruktiven ZDF-Formates Plan B beteiligt. Sein Buch »Prinzip Mensch« (mit Paul Nemitz) schaffte es auf die Shortlist „Das Politische Buch“ der Friedrich-Ebert-Stiftung. Er lebt in Berlin und in München. www.pfeffermedia.de

Was muss getan werden, um diese Risiken zu minimieren?
Es muss als erstes das Bewusstsein für die Folgen der Technologie geschärft werden. Und es muss viel mehr öffentlich debattiert werden, bevor KI-Anwendungen in den öffentlichen Verkehr gebracht werden. Wir sprechen hier von Technologiefolgenabschätzung. Es geht nicht nur um unbeabsichtigte Folgen der Technik, sondern bei selbstlernenden und sich selbst verändernden Instrumenten wird die Technologiefolgenabschätzung nochmals erhöht, weil gewisse Dinge nicht ausgeschlossen werden können und sich ganz neue Haftungsfragen ergeben.

Was bedeutet das für die Arbeit von KI-Entwickler*innen?
Es ist eine ganz wesentliche Aufgabe von Entwicklern und Programmierern sich über das Thema zu informieren. Mit ihren unfassbaren Auswirkungen ist die Technologiefolgenabschätzung bei KI, auch die Ethik – heute spricht man auch von Ethics by Design, unabdingbar. Schon zu Beginn eines Programmiervorgangs muss man sich mit ethischen Fragestellungen befassen.

Der Mensch neigt aufgrund der von KI präsentierten Ergebnisse eventuell zur Bequemlichkeit, nimmt die Ergebnisse unhinterfragt an. Wie kann er sich das kritische Denken und Hinterfragen in einem zunehmend von Algorithmen bestimmten Umfeld erhalten?
Indem er es anwendet. Das Denken wird wie ein Muskel trainiert. Und wenn Sie das Training einstellen, ist es ganz schnell verschwunden. Wenn Sie alle Entscheidungen nicht mehr selbst treffen, weil Sie dafür einen digitalen Assistenten haben, dann werden Sie untrainiert im Denken sein. Das ist fatal, da in dem Begriff „Künstliche Intelligenz“ ein Trugschluss enthalten ist: KI ist keine Intelligenz, sondern einfach eine ganz schnelle und stochastische Wahrscheinlichkeitsberechnung.

Worin ist das menschliche Denken einer KI überlegen?
Unsere in der Evolution ausgebildete Intelligenz ist vielschichtiger. Sie umfasst auch emotionale, moralische, ästhetische und praktische Intelligenz. Das sind Bereiche, in denen eine KI über grobe Simulationen auf lange Sicht nicht hinauskommen wird. Auch in der Philosophiegeschichte ist das menschliche Denken immer in Vernunft und Verstand unterteilt worden: ratio und intellectus. Die KI ist nur ein Teilbereich des Vernunftsegments, den die Philosophie entwickelt hat. Sind die Prämissen jedoch falsch gesetzt, ist auch ein logischer Schluss falsch. Menschliches Denken kann hingegen reflektieren. Wir können unsere Annahmen überprüfen und die Daten bewerten. Die KI kann nur auswerten. Daher mein Appell an die jungen KI-Entwickler*innen: Seid euch darüber im Klaren, ihr habt eine große Verantwortung!

Gibt es auch Positives, das Sie Künstlicher Intelligenz abringen können?
Wir leben in einer so komplexen und vernetzten Welt, dass KI uns tatsächlich bei der Informationsgewinnung unterstützen kann. Insofern wir zwischen Fakes und den echten Berichten unterscheiden können. Die Welt ist aufgrund des Austausches und der Vernetzung kleiner geworden. Aber: Sie fordert uns zu Verantwortung auf.

Die Fragen stellte Christoph Berger

Zum Buch:

Matthias Pfeffer: Menschliches Denken und Künstliche Intelligenz. Dietz 2021, 18 Euro.