Aufwind für denkende Menschen

Foto: AdobeStock/ Sergey Nivens
Foto: AdobeStock/ Sergey Nivens

Wer bei der KI an eine Superintelligenz denkt, die das Beste aus Menschen und Maschine kombiniert, sollte sich auf eine Enttäuschung gefasst machen. Da könne man ja auch versuchen, Leitern miteinander zu verbinden, bis man den Mond erreicht, wie ein Informatikprofessor aus Princeton vergleicht. Statt auf eine moralischmenschliche KI zu bauen, sollten wir Systeme entwickeln, die Probleme, Chancen und Ungerechtigkeiten offenlegen. Die Dinge dann zum Besseren zu verändern? Ist und bleibt die Aufgabe des denkenden Menschen.

Die US-Digitalexpertin und Autorin Frederike Kaltheuner hat eine Anthologie über die Künstliche Intelligenz geschrieben, die den für diese Zukunftstechnik wenig schmeichelhaften Titel „Fake AI“ trägt. Für das im Netz frei zugängliche Buch (zu finden unter: fakeaibook.com) haben diverse Autor*innen über die KI geschrieben. Zum Einstieg hat Frederike Kaltheuner den Informatik-Professor Arvind Narayanan interviewt, Hochschullehrer in Princeton, laut Ranking weltweit die elfwichtigste Hochschule im Bereich Computer Science. Wer hier lehrt, der beherrscht sein Fach. Im Interview sagt der Princeton-Professor einen bemerkenswerten Satz, im englischen Original lautet er: „Much of what is sold commercially today as ‘AI’ is what I call ‘snake oil’.“ Auf Deutsch: Vieles von dem, was heute unter dem Label KI verkauft werde, bezeichne er als „Schlangenöl“.

Gemeint ist öliges Zeug, das zur Zeit des Wilden Westens von vermeintlichen Wunderheilern bei ihren „Medicine Shows“ verscherbelt wurde, gekoppelt an das Versprechen, diese Tinkturen würden gegen diverse Leiden helfen. Der Begriff hat es viele Jahre später von der Prärie in die Welt der Software geschafft: Als „snake oil“ werden ITProdukte bezeichnet, die Bemerkenswertes versprechen, davon jedoch fast nichts halten, zum Beispiel in der Praxis nutzlose Antiviren-, Festplattenaufräum- oder Arbeitsspeicherverdoppelungsprogramme. Arvind Narayanan trifft also ein hartes Urteil über viele der Versprechen der KI, macht aber eine wichtige Differenzierung: „Some are not snake oil.“ Einige Künstliche Intelligenzen wirkten, andere nicht. Wo also liegt der Unterschied?

Superintelligenz? Schlangenöl!

Seine Kritik fokussiert Arvind Narayanan an eine „Artificial General Intelligence“ (AGI), eine Allgemeine Künstliche Intel- ligenz, die in der Lage sei, nahezu jede intellektuelle Aufgabe zu erlernen. Eine solche Superintelligenz würde also das Problembewusstsein eines Menschen mit der Rechengeschwindigkeit von Supercomputern kombinieren; sie arbeite damit nicht mehr aufgabenspezifisch, sondern generell. Umfragen zeigten, sagt Narayanan, dass viele Menschen glaubten, diese Form von AGI stehe kurz vor der Realisation – womit ein Wendepunkt der menschlichen Zivilisation kurz bevorstehe. „I don’t think that’s true at all“, hält Narayanan dagegen. Er beschreibt die Vorstellung, die aktuellen Fortschritte im Bereich der Künstlichen Intelligenz könnten zu einer solchen „Artificial General Intelligence“ führen, mit dem Versuch, eine immer längere Leiter zu bauen, um damit den Mond zu erreichen. Kurz: die Vorstellung einer AGI sei „absurd.“

KI in der Lehre

Die Friedrich-Schiller-Universität Jena und die Technische Universität Ilmenau starteten Ende 2021 ein Forschungsprojekt, das es ihren Studierenden und Lehrenden ermöglicht, Kenntnisse und Fähigkeiten über Künstliche Intelligenz zu erlangen. „Angesichts der zunehmenden Durchdringung nahezu aller Bereiche der Gesellschaft mit Künstlicher Intelligenz, werden KI-Angebote nicht nur für MINT-Studiengänge, sondern für das gesamte Studienangebot der beiden Universitäten entwickelt“, heißt es in einer gemeinsamen Pressemitteilung der Hochschulen. Bislang seien solche Verfahren vor allem in der Informatik und in ingenieurtechnischen Fachbereichen entwickelt und eingesetzt worden, „doch sind Kenntnisse und Fähigkeiten über Künstliche Intelligenz auch in naturwissenschaftlichen und zunehmend in geistes- und sozialwissenschaftlichen Bereichen nützlich und künftig immer notwendiger. Daher werden für Universitätsabsolventen und -absolventinnen KI-Kompetenzen in Zukunft wichtige Voraussetzung für einen erfolgreichen Karriereeinstieg sein. Und diese sorgen wiederum dafür, dass KI-Kenntnisse verstärkt in Wirtschaft und Gesellschaft transferiert werden“, erklärt das Pilotprojekt seinen Ansatz.

Bei den Bereichen, in denen die Menschen laut Arvind Narayanan besonders anfällig für „Schlangenöl-KI“ seien, steche eines besonders hervor: das Recruiting. Dass man hier auf Künstliche Intelligenz hoffe, liege daran, dass die Not hier besonders groß sei – weil halt niemand vorhersagen könne, ob eine neu eingestellte Person tatsächlich im Job überzeugen werde oder nicht. Recruiting ist ein Spiel im Nebel – umso begieriger greife man zum „Snake Oil“, in der Hoffnung, dass die KI diesen Nebel lichten möge. Was sie natürlich nicht könne: Es gebe, sagt Arvind Narayanan im Interview im Buch „Fake AI“, mittlerweile eine Reihe wissenschaftlicher Studien, die gründlich der Frage nachgegangen seien, wie gut KI-Systeme darin sind, soziale Folgen von Entscheidungen abzuschätzen, zum Beispiel der, wen man für einen neuen Job einstellt und wen nicht. Das Ergebnis: „Die KI schneidet gerade so besser als der Zufall ab.“

Recruiting für KI an die Grenzen

Eine Meldung zu den Human Ressource-Trends für das Jahr 2022 des Talent-Lösungs-Anbieters Robert Half scheint dieser Ansicht zu widersprechen. KI werde „bei der Suche nach geeigneten Bewerber*innen eine unterstützende Rolle spielen“, wird Sven Hennige, Senior Managing Director Central Europe bei Robert Half, in einer Pressemeldung zu HR-Trends im Jahr 2022 zitiert. Basis der Analyse ist die Befragung von 300 Manager*innen mit Personalverantwortung in kleinen, mittelgroßen und großen deutschen Unternehmen. Dabei zeigen sich zwei Einsatzgebiete der Systeme: Zum einen setzen Personalabteilungen sie ein, um Termine für Bewerbungsgespräche zu koordinieren oder formale Anforderungen in den Unterlagen prüfen, um so den Kreis der Kandidat* innen zu definieren. Das sind alles Routinearbeiten im Vorfeld, hier übernimmt die Künstliche Intelligenz eine Reihe von Prozessen, die den Menschen viel Zeit kosten. Der positive Effekt: Die HR-Spezialisten können sich auf ihre wahre Arbeit fokussieren. Kein „snake oil“, sondern echte Hilfe.

Doch die Befragten nannten noch ein weiteres Einsatzfeld für die KI im Bereich des Recruiting: Sie könne auch dafür genutzt werden, auf Basis einer passenden Datenbasis zu entscheiden, ob jemand anhand der fachlichen Skills für den Job geeignet sei – und zwar unabhängig von den sonstigen Merkmalen dieser Person. „Die Entscheidung richtet sich dann zum Beispiel nicht danach, ob es sich bei dem Bewerber um einen Mann oder eine Frau handelt“, so Hennige in der Pressemeldung. Seine Schlussfolgerung: „KI soll Bewerbungsverfahren bestenfalls auch fairer machen. Denn: Menschen sind nicht immer vorurteilsfrei.“ Das stimmt. Der Haken an der Sache ist nur: Das stimmt dann aber auch für die Künstliche Intelligenz. Schließlich wird sie von den vorurteilsbehafteten Menschen gestaltet.

KI in der Industrie: Muster erkennen

Ein Blick in die industrielle Praxis zeigt, wo Künstliche Intelligenz aktuell in den großen deutschen Unternehmen zum Einsatz kommt. Siemens vermeldet in einem Pressetext, die KI gestalte die Produktion in der Industrie „effizienter, flexibler und zuverlässiger“. Konkrete Anwendungen seien „Spracherkennung zum Bearbeiten einfacher Aufträge, das Erfassen von Umgebungen mittels Kameras, Laser- oder Röntgenstrahlen bis hin zu virtuellen persönlichen Assistenten in der Logistik“, heißt es in der Meldung zu den industriellen Anwendungsfeldern der KI. Ihre Stärke spielten die Systeme dann aus, wenn es um die Analyse der digitalen Informationen gehe, die im Zuge der Industrie 4.0 anfielen: „In den Datenmengen einer Fabrik können mittels intelligenter Softwarelösungen Trends und Muster erkannt werden, die dabei helfen, effizienter oder energiesparender zu fertigen“, heißt es bei Siemens. „Mit steigender Vernetzung kann die KI-Software lernen, auch ‚zwischen den Zeilen‘ zu lesen. Dadurch lassen sich viele komplexe Zusammenhänge in Systemen aufdecken, die der Mensch noch nicht oder nicht mehr überblicken kann.“

Magazin zu KI-Gestaltungen und -Erfahrungen

TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis“ nennt sich ein Open Access-Zeitschriftenprojekt des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS). Es erscheint beim Oekom-Verlag, der PDF-Zugriff ist gratis. Die Ausgabe 30, erschienen Ende 2021, widmet sich dem Thema „KI-Systeme gestalten und erfahren“ – ein Titel, der impliziert, dass es Menschen sind, die bei der Entwicklung der KI-Systeme die Gestaltungsrolle übernehmen. In ihren Texten betrachten die Autor*innen u.a. die juristischen oder demokratietheoretischen Rahmenbedingungen von KI sowie die Frage, wie sich solche Systeme in Hinblick auf Akzeptanz und Vertrauen mitarbeiterfreundlich implementieren lassen.

Bosch stellt in einer Story auf der Konzernhomepage die KI-Perspektiven in seinen weltweit 240 Werken vor, in denen vernetzte Produktionssysteme im Einsatz sind. Hier entstehen „KI-basierte Regelkreise, die sich selbst regulieren oder optimieren und ganz nebenbei auch noch eine Liste möglicher Problemursachen bereitstellen“, heißt es. Die Vorteile sieht Bosch darin, dass diese Modelle in der Lage seien, „Fehler zu erkennen und zu vermeiden, die Menschen oder herkömmliche Systeme nur schwer wahrnehmen können.“ Die Künstliche Intelligenz werde den Unternehmen darüber hinaus ermöglichen, „ihre Produkte ohne aufwändigere Prozesse deutlich stärker zu individualisieren“ sowie dazu beizutragen, „Roboter in bisher undenkbaren Bereichen zu etablieren“, indem die KI hier dafür sorge, dass sich der Lernaufwand für Roboter reduziere, deren „Sehvermögen“ verbessere und ein „Transferlernen“ zwischen Robotern ermögliche.

Auf dem Weg zur nachhaltigen Lieferkette

Bei Audi setzt man laut Pressmeldung aus dem Sommer 2021 darauf, KI-Methoden für einen besonders komplexen Bereich einzusetzen: den Einblick in die Lieferkette in der Automobilproduktion. Gerade diese Komplexität sorge dafür, dass es wichtig sei, „mögliche Risiken zu verstehen und Zusammenhänge frühzeitig herzustellen“, heißt es in der Pressemeldung. Im Herbst 2020 startete Audi ein Pilotprojekt: In weltweit rund 150 Ländern analysieren intelligente Algorithmen Nachrichten über Lieferant*innen aus online zugänglichen öffentlichen Medien und sozialen Netzwerken. „Geprüft werden Nachhaltigkeitskriterien wie Umweltverschmutzung, Menschenrechtsverstöße und Korruption. Besteht der Verdacht auf potenzielle Nachhaltigkeitsverstöße, schlägt die Künstliche Intelligenz Alarm“, heißt es in der Pressemeldung. Entwickelt wurde die dafür eingesetzte KI vom österreichischen Start-up Prewave. „Machine Learning und automatisierte Sprachverarbeitung machen so möglich, was manuell ein Ding der Unmöglichkeit wäre: kontinuierliche Risikoabschätzungen über die gesamte Lieferkette hinweg, mit denen die Beschaffung dann proaktiv auf die Lieferant* innen zugehen kann“, wird Harald Nitschinger, CEO von Prewave, in der Audi-Pressemeldung zitiert.

KI in der Verwaltung

Wegen seiner Analysekraft im Dickicht der Datenmenge ist die Künstliche Intelligenz ein kluges System für die öffentliche Verwaltung. Das zeigt auch eine Studie des ITBeratungsunternehmens Adesso: 65 Prozent der befragten Entscheidungsträger gaben an, dass Investitionen in die KI mittelfristig mit Vorteilen einhergingen, jedoch gaben 77 Prozent der Befragten an, der eigene Verwaltungsbereich sei derzeit noch „mittelmäßig“ bis „schlecht“ aufgestellt. Die höchste Hürde auf dem Weg der Künstlichen Intelligenz in die öffentliche Verwaltung sei das mangelnde Fachwissen: „26 Prozent der Entscheiderinnen und Entscheider sehen darin das Hauptproblem“, heißt es im Management-Summary der Studie. Vor allem für den Einstieg in die neue Technik fällt vielen schwer: Jeder vierte Befragte aus der öffentlichen Verwaltung sei laut Studie davon überzeugt, dass es im jeweiligen Aufgabenbereich überhaupt noch kein Einsatzszenario für KI-Anwendungen gebe.

Die Fallbeispiele aus der industriellen Praxis zeigen: Zum Einsatz kommt Künstliche Intelligenz in den Unternehmen vor allem dort, wo die Menge und Tiefe an Informationen das menschliche Gehirn komplett überfordert. Welche dieser Daten relevant sind und welche nicht – diese Regeln gibt weiterhin der Mensch vor. Das muss er auch, denn eine KI weiß von sich aus nichts über Menschenrechte oder das Fehlverhalten der Korruption. Daraus folgen zwei Dinge: Erstens bleibt der Mensch das bestimmende Element, zweitens bringt er damit weiterhin seine moralischen Vorstellungen, aber auch Vorurteile ins Spiel. Darauf zu bauen, die KI könnte sich aus eigener Motivation heraus zu einer fairen, gerechten oder sogar moralischen Instanz entwickeln, ist der Glaube ans „snake oil“.

Menschen machen Maschinen

Was die KI-Systeme aber durchaus leisten können: Prozesse in Gang zu setzen, die den Menschen dabei helfen, unfaire und ungerechte Strukturen offensichtlich zu machen. Und zwar auch in einem Bereich wie dem Recruiting, wo die KI fehlende Diversity erkennbar machen kann. „Entscheidend ist dabei ein Verständnis der verschiedenen ‚Superkompetenzen‘ von Mensch und Maschine“, schreiben die Trendforscher* innen vom Zukunftsinstitut in ihrem „Trendausblick 2022“. „Computer sind unschlagbar im Rechnen und in der Mustererkennung, doch nur Menschen können denken, fühlen, Kontexte erfassen und kreativ schöpferisch sein.“ Die eigentliche Zukunftsbestimmung intelligenter Technologien werde deshalb darin bestehen, die Erschließung dieser genuin menschlichen Potenziale zu unterstützen. Kurz: Der Job der Künstlichen Intelligenz sollte es sein, dem denkenden Menschen Aufwind zu geben.