karriereführer künstliche intelligenz 2022.2023 – Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

0

Cover karriereführer künstliche intelligenz 2022.2023

Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

Es zieht sich wie ein roter Faden durch das gesamte Magazin: Künstliche Intelligenz kann den Menschen dabei unterstützen, bessere und schnellere Entscheidungen zu treffen. Einerseits. Andererseits wird immer deutlicher, dass KI, betrifft sie den Menschen direkt, auch durch den Menschen geprägt ist. Dessen Gedanken und Vorurteile fließen in sie. Genau hier braucht es Ansätze, dies zu verhindern. Audits und Zertifizierungen der KI werden daher für die verschiedensten Anwendungsbereiche gefordert. Zum Beispiel für den KI-Einsatz im Recruiting oder im Gesundheitswesen. Und die betroffenen Menschen müssen darüber informiert werden, dass Künstliche Intelligenz bei der Entscheidungsfindung eingesetzt wird.

E-Paper karriereführer künstliche intelligenz 2022.2023 – Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

0


Ausgabe als PDF downloaden

Aufwind für denkende Menschen

Wer bei der KI an eine Superintelligenz denkt, die das Beste aus Menschen und Maschine kombiniert, sollte sich auf eine Enttäuschung gefasst machen. Da könne man ja auch versuchen, Leitern miteinander zu verbinden, bis man den Mond erreicht, wie ein Informatikprofessor aus Princeton vergleicht. Statt auf eine moralischmenschliche KI zu bauen, sollten wir Systeme entwickeln, die Probleme, Chancen und Ungerechtigkeiten offenlegen. Die Dinge dann zum Besseren zu verändern? Ist und bleibt die Aufgabe des denkenden Menschen.

Die US-Digitalexpertin und Autorin Frederike Kaltheuner hat eine Anthologie über die Künstliche Intelligenz geschrieben, die den für diese Zukunftstechnik wenig schmeichelhaften Titel „Fake AI“ trägt. Für das im Netz frei zugängliche Buch (zu finden unter: fakeaibook.com) haben diverse Autor*innen über die KI geschrieben. Zum Einstieg hat Frederike Kaltheuner den Informatik-Professor Arvind Narayanan interviewt, Hochschullehrer in Princeton, laut Ranking weltweit die elfwichtigste Hochschule im Bereich Computer Science. Wer hier lehrt, der beherrscht sein Fach. Im Interview sagt der Princeton-Professor einen bemerkenswerten Satz, im englischen Original lautet er: „Much of what is sold commercially today as ‘AI’ is what I call ‘snake oil’.“ Auf Deutsch: Vieles von dem, was heute unter dem Label KI verkauft werde, bezeichne er als „Schlangenöl“.

Gemeint ist öliges Zeug, das zur Zeit des Wilden Westens von vermeintlichen Wunderheilern bei ihren „Medicine Shows“ verscherbelt wurde, gekoppelt an das Versprechen, diese Tinkturen würden gegen diverse Leiden helfen. Der Begriff hat es viele Jahre später von der Prärie in die Welt der Software geschafft: Als „snake oil“ werden ITProdukte bezeichnet, die Bemerkenswertes versprechen, davon jedoch fast nichts halten, zum Beispiel in der Praxis nutzlose Antiviren-, Festplattenaufräum- oder Arbeitsspeicherverdoppelungsprogramme. Arvind Narayanan trifft also ein hartes Urteil über viele der Versprechen der KI, macht aber eine wichtige Differenzierung: „Some are not snake oil.“ Einige Künstliche Intelligenzen wirkten, andere nicht. Wo also liegt der Unterschied?

Superintelligenz? Schlangenöl!

Seine Kritik fokussiert Arvind Narayanan an eine „Artificial General Intelligence“ (AGI), eine Allgemeine Künstliche Intel- ligenz, die in der Lage sei, nahezu jede intellektuelle Aufgabe zu erlernen. Eine solche Superintelligenz würde also das Problembewusstsein eines Menschen mit der Rechengeschwindigkeit von Supercomputern kombinieren; sie arbeite damit nicht mehr aufgabenspezifisch, sondern generell. Umfragen zeigten, sagt Narayanan, dass viele Menschen glaubten, diese Form von AGI stehe kurz vor der Realisation – womit ein Wendepunkt der menschlichen Zivilisation kurz bevorstehe. „I don’t think that’s true at all“, hält Narayanan dagegen. Er beschreibt die Vorstellung, die aktuellen Fortschritte im Bereich der Künstlichen Intelligenz könnten zu einer solchen „Artificial General Intelligence“ führen, mit dem Versuch, eine immer längere Leiter zu bauen, um damit den Mond zu erreichen. Kurz: die Vorstellung einer AGI sei „absurd.“

KI in der Lehre

Die Friedrich-Schiller-Universität Jena und die Technische Universität Ilmenau starteten Ende 2021 ein Forschungsprojekt, das es ihren Studierenden und Lehrenden ermöglicht, Kenntnisse und Fähigkeiten über Künstliche Intelligenz zu erlangen. „Angesichts der zunehmenden Durchdringung nahezu aller Bereiche der Gesellschaft mit Künstlicher Intelligenz, werden KI-Angebote nicht nur für MINT-Studiengänge, sondern für das gesamte Studienangebot der beiden Universitäten entwickelt“, heißt es in einer gemeinsamen Pressemitteilung der Hochschulen. Bislang seien solche Verfahren vor allem in der Informatik und in ingenieurtechnischen Fachbereichen entwickelt und eingesetzt worden, „doch sind Kenntnisse und Fähigkeiten über Künstliche Intelligenz auch in naturwissenschaftlichen und zunehmend in geistes- und sozialwissenschaftlichen Bereichen nützlich und künftig immer notwendiger. Daher werden für Universitätsabsolventen und -absolventinnen KI-Kompetenzen in Zukunft wichtige Voraussetzung für einen erfolgreichen Karriereeinstieg sein. Und diese sorgen wiederum dafür, dass KI-Kenntnisse verstärkt in Wirtschaft und Gesellschaft transferiert werden“, erklärt das Pilotprojekt seinen Ansatz.

Bei den Bereichen, in denen die Menschen laut Arvind Narayanan besonders anfällig für „Schlangenöl-KI“ seien, steche eines besonders hervor: das Recruiting. Dass man hier auf Künstliche Intelligenz hoffe, liege daran, dass die Not hier besonders groß sei – weil halt niemand vorhersagen könne, ob eine neu eingestellte Person tatsächlich im Job überzeugen werde oder nicht. Recruiting ist ein Spiel im Nebel – umso begieriger greife man zum „Snake Oil“, in der Hoffnung, dass die KI diesen Nebel lichten möge. Was sie natürlich nicht könne: Es gebe, sagt Arvind Narayanan im Interview im Buch „Fake AI“, mittlerweile eine Reihe wissenschaftlicher Studien, die gründlich der Frage nachgegangen seien, wie gut KI-Systeme darin sind, soziale Folgen von Entscheidungen abzuschätzen, zum Beispiel der, wen man für einen neuen Job einstellt und wen nicht. Das Ergebnis: „Die KI schneidet gerade so besser als der Zufall ab.“

Recruiting für KI an die Grenzen

Eine Meldung zu den Human Ressource-Trends für das Jahr 2022 des Talent-Lösungs-Anbieters Robert Half scheint dieser Ansicht zu widersprechen. KI werde „bei der Suche nach geeigneten Bewerber*innen eine unterstützende Rolle spielen“, wird Sven Hennige, Senior Managing Director Central Europe bei Robert Half, in einer Pressemeldung zu HR-Trends im Jahr 2022 zitiert. Basis der Analyse ist die Befragung von 300 Manager*innen mit Personalverantwortung in kleinen, mittelgroßen und großen deutschen Unternehmen. Dabei zeigen sich zwei Einsatzgebiete der Systeme: Zum einen setzen Personalabteilungen sie ein, um Termine für Bewerbungsgespräche zu koordinieren oder formale Anforderungen in den Unterlagen prüfen, um so den Kreis der Kandidat* innen zu definieren. Das sind alles Routinearbeiten im Vorfeld, hier übernimmt die Künstliche Intelligenz eine Reihe von Prozessen, die den Menschen viel Zeit kosten. Der positive Effekt: Die HR-Spezialisten können sich auf ihre wahre Arbeit fokussieren. Kein „snake oil“, sondern echte Hilfe.

Doch die Befragten nannten noch ein weiteres Einsatzfeld für die KI im Bereich des Recruiting: Sie könne auch dafür genutzt werden, auf Basis einer passenden Datenbasis zu entscheiden, ob jemand anhand der fachlichen Skills für den Job geeignet sei – und zwar unabhängig von den sonstigen Merkmalen dieser Person. „Die Entscheidung richtet sich dann zum Beispiel nicht danach, ob es sich bei dem Bewerber um einen Mann oder eine Frau handelt“, so Hennige in der Pressemeldung. Seine Schlussfolgerung: „KI soll Bewerbungsverfahren bestenfalls auch fairer machen. Denn: Menschen sind nicht immer vorurteilsfrei.“ Das stimmt. Der Haken an der Sache ist nur: Das stimmt dann aber auch für die Künstliche Intelligenz. Schließlich wird sie von den vorurteilsbehafteten Menschen gestaltet.

KI in der Industrie: Muster erkennen

Ein Blick in die industrielle Praxis zeigt, wo Künstliche Intelligenz aktuell in den großen deutschen Unternehmen zum Einsatz kommt. Siemens vermeldet in einem Pressetext, die KI gestalte die Produktion in der Industrie „effizienter, flexibler und zuverlässiger“. Konkrete Anwendungen seien „Spracherkennung zum Bearbeiten einfacher Aufträge, das Erfassen von Umgebungen mittels Kameras, Laser- oder Röntgenstrahlen bis hin zu virtuellen persönlichen Assistenten in der Logistik“, heißt es in der Meldung zu den industriellen Anwendungsfeldern der KI. Ihre Stärke spielten die Systeme dann aus, wenn es um die Analyse der digitalen Informationen gehe, die im Zuge der Industrie 4.0 anfielen: „In den Datenmengen einer Fabrik können mittels intelligenter Softwarelösungen Trends und Muster erkannt werden, die dabei helfen, effizienter oder energiesparender zu fertigen“, heißt es bei Siemens. „Mit steigender Vernetzung kann die KI-Software lernen, auch ‚zwischen den Zeilen‘ zu lesen. Dadurch lassen sich viele komplexe Zusammenhänge in Systemen aufdecken, die der Mensch noch nicht oder nicht mehr überblicken kann.“

Magazin zu KI-Gestaltungen und -Erfahrungen

TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis“ nennt sich ein Open Access-Zeitschriftenprojekt des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS). Es erscheint beim Oekom-Verlag, der PDF-Zugriff ist gratis. Die Ausgabe 30, erschienen Ende 2021, widmet sich dem Thema „KI-Systeme gestalten und erfahren“ – ein Titel, der impliziert, dass es Menschen sind, die bei der Entwicklung der KI-Systeme die Gestaltungsrolle übernehmen. In ihren Texten betrachten die Autor*innen u.a. die juristischen oder demokratietheoretischen Rahmenbedingungen von KI sowie die Frage, wie sich solche Systeme in Hinblick auf Akzeptanz und Vertrauen mitarbeiterfreundlich implementieren lassen.

Bosch stellt in einer Story auf der Konzernhomepage die KI-Perspektiven in seinen weltweit 240 Werken vor, in denen vernetzte Produktionssysteme im Einsatz sind. Hier entstehen „KI-basierte Regelkreise, die sich selbst regulieren oder optimieren und ganz nebenbei auch noch eine Liste möglicher Problemursachen bereitstellen“, heißt es. Die Vorteile sieht Bosch darin, dass diese Modelle in der Lage seien, „Fehler zu erkennen und zu vermeiden, die Menschen oder herkömmliche Systeme nur schwer wahrnehmen können.“ Die Künstliche Intelligenz werde den Unternehmen darüber hinaus ermöglichen, „ihre Produkte ohne aufwändigere Prozesse deutlich stärker zu individualisieren“ sowie dazu beizutragen, „Roboter in bisher undenkbaren Bereichen zu etablieren“, indem die KI hier dafür sorge, dass sich der Lernaufwand für Roboter reduziere, deren „Sehvermögen“ verbessere und ein „Transferlernen“ zwischen Robotern ermögliche.

Auf dem Weg zur nachhaltigen Lieferkette

Bei Audi setzt man laut Pressmeldung aus dem Sommer 2021 darauf, KI-Methoden für einen besonders komplexen Bereich einzusetzen: den Einblick in die Lieferkette in der Automobilproduktion. Gerade diese Komplexität sorge dafür, dass es wichtig sei, „mögliche Risiken zu verstehen und Zusammenhänge frühzeitig herzustellen“, heißt es in der Pressemeldung. Im Herbst 2020 startete Audi ein Pilotprojekt: In weltweit rund 150 Ländern analysieren intelligente Algorithmen Nachrichten über Lieferant*innen aus online zugänglichen öffentlichen Medien und sozialen Netzwerken. „Geprüft werden Nachhaltigkeitskriterien wie Umweltverschmutzung, Menschenrechtsverstöße und Korruption. Besteht der Verdacht auf potenzielle Nachhaltigkeitsverstöße, schlägt die Künstliche Intelligenz Alarm“, heißt es in der Pressemeldung. Entwickelt wurde die dafür eingesetzte KI vom österreichischen Start-up Prewave. „Machine Learning und automatisierte Sprachverarbeitung machen so möglich, was manuell ein Ding der Unmöglichkeit wäre: kontinuierliche Risikoabschätzungen über die gesamte Lieferkette hinweg, mit denen die Beschaffung dann proaktiv auf die Lieferant* innen zugehen kann“, wird Harald Nitschinger, CEO von Prewave, in der Audi-Pressemeldung zitiert.

KI in der Verwaltung

Wegen seiner Analysekraft im Dickicht der Datenmenge ist die Künstliche Intelligenz ein kluges System für die öffentliche Verwaltung. Das zeigt auch eine Studie des ITBeratungsunternehmens Adesso: 65 Prozent der befragten Entscheidungsträger gaben an, dass Investitionen in die KI mittelfristig mit Vorteilen einhergingen, jedoch gaben 77 Prozent der Befragten an, der eigene Verwaltungsbereich sei derzeit noch „mittelmäßig“ bis „schlecht“ aufgestellt. Die höchste Hürde auf dem Weg der Künstlichen Intelligenz in die öffentliche Verwaltung sei das mangelnde Fachwissen: „26 Prozent der Entscheiderinnen und Entscheider sehen darin das Hauptproblem“, heißt es im Management-Summary der Studie. Vor allem für den Einstieg in die neue Technik fällt vielen schwer: Jeder vierte Befragte aus der öffentlichen Verwaltung sei laut Studie davon überzeugt, dass es im jeweiligen Aufgabenbereich überhaupt noch kein Einsatzszenario für KI-Anwendungen gebe.

Die Fallbeispiele aus der industriellen Praxis zeigen: Zum Einsatz kommt Künstliche Intelligenz in den Unternehmen vor allem dort, wo die Menge und Tiefe an Informationen das menschliche Gehirn komplett überfordert. Welche dieser Daten relevant sind und welche nicht – diese Regeln gibt weiterhin der Mensch vor. Das muss er auch, denn eine KI weiß von sich aus nichts über Menschenrechte oder das Fehlverhalten der Korruption. Daraus folgen zwei Dinge: Erstens bleibt der Mensch das bestimmende Element, zweitens bringt er damit weiterhin seine moralischen Vorstellungen, aber auch Vorurteile ins Spiel. Darauf zu bauen, die KI könnte sich aus eigener Motivation heraus zu einer fairen, gerechten oder sogar moralischen Instanz entwickeln, ist der Glaube ans „snake oil“.

Menschen machen Maschinen

Was die KI-Systeme aber durchaus leisten können: Prozesse in Gang zu setzen, die den Menschen dabei helfen, unfaire und ungerechte Strukturen offensichtlich zu machen. Und zwar auch in einem Bereich wie dem Recruiting, wo die KI fehlende Diversity erkennbar machen kann. „Entscheidend ist dabei ein Verständnis der verschiedenen ‚Superkompetenzen‘ von Mensch und Maschine“, schreiben die Trendforscher* innen vom Zukunftsinstitut in ihrem „Trendausblick 2022“. „Computer sind unschlagbar im Rechnen und in der Mustererkennung, doch nur Menschen können denken, fühlen, Kontexte erfassen und kreativ schöpferisch sein.“ Die eigentliche Zukunftsbestimmung intelligenter Technologien werde deshalb darin bestehen, die Erschließung dieser genuin menschlichen Potenziale zu unterstützen. Kurz: Der Job der Künstlichen Intelligenz sollte es sein, dem denkenden Menschen Aufwind zu geben.

Der digitale Humanist Prof. Dr. Dr. h. c. Julian Nida-Rümelin im Interview

Julian Nida-Rümelin zählt zu den bekanntesten philosophischen Denkern Europas. Seit einigen Jahren widmet er sich der Frage, wie sich ein digitaler Humanismus gestalten lässt, der ethische Fragen nicht zugunsten einer blinden Technikgläubigkeit ausgrenzt. Im Interview berichtet der Philosoph von gedanklichen Schieflagen, die entweder die Künstliche Intelligenz überhöhen oder den Menschen als Maschine interpretieren. Seine Forderung: Der Mensch bleibt der Autor seines Lebens, die KI ist sein komplementäres Werkzeug, mit dessen Hilfe er die immensen Probleme der globalen Gesellschaft löst. Die Fragen stellte André Boße.

Zur Person

Prof. Dr. Dr. h. c. Julian Nida-Rümelin absolvierte ein Doppelstudium Physik und Philosophie und war bis 2020 Professor für Philosophie und politische Theorie an der Ludwig-Maximilians-Universität in München, er ist Honorarprofessor an der Humboldt Universität Berlin und wirkt als Gastprofessor an ausländischen Hochschulen. Er ist Mitglied mehrerer Akademien und Direktor am Bayerischen Forschungsinstitut für digitale Transformation. Er wechselte für fünf Jahre von der Wissenschaft in die Kulturpolitik, zunächst als Kulturreferent von München und anschließend als Staatsminister für Kultur und Medien im ersten Kabinett Schröder. Er publiziert regelmäßig Zeitungsartikel, Bücher und wissenschaftliche Aufsätze und hält Vorträge in Unternehmen und Verbänden. Zuletzt erschienen ist sein Buch „Die Realität des Risikos: Über den vernünftigen Umgang mit Gefahren“.

https://julian-nida-ruemelin.com

Herr Prof. Nida-Rümelin, Sie nutzen den Begriff des Digitalen Humanismus seit Mitte der 00er-Jahre, 2018 erschien Ihr Buch zu diesem Thema. Welchen Stellenwert nimmt der Digitale Humanismus heute, im Jahr 2022, ein?
Ich bin auf der einen Seite positiv überrascht, da wir einige erstaunliche Entwicklungen beobachten. In Wien ist die Initiative „Digital Humanism“ gegründet worden, es sind interessante Bücher erschienen, in Dokumenten der EU finden sich Begriffe wie „human centred AI“, Enrico Letta, der ehemalige Ministerpräsident von Italien, hat gesagt, es gebe für Europa zwei große Ziele, einmal das Klima aber eben auch die Gestaltung eines digitalen Humanismus. Die Debatte ist also breiter geworden, was aber immer auch einen negativen Effekt impliziert: Unser Ansatz ist dadurch verwässert worden.

Woran machen Sie das fest?
Wenn davon geredet wird, wir müssten neue Kooperationen zwischen Menschen und Maschinen etablieren, dann bin ich zunächst einmal einverstanden. Man darf nur nicht denken, dass es da auf der Seite der Maschine jemanden gibt, mit dem man tatsächlich kooperieren könnte.

Den gibt es nicht?
Nein. Zu denken, eine Maschine wäre unser Kooperationspartner in dem Sinne, dass wir gemeinsam mit ihm handeln, ist eine animistische Vision. Denn in einer Maschine steckt niemand, kein Akteur, keine subjektive Perspektive, keine Person.

Der Mensch neigt ständig dazu, Dinge zu „vermenschlichen“, von Computern bis zum Auto. Warum ist das eigentlich so?
Das ist eine spannende philosophische Frage, für deren Beantwortung wir ein paar Jahrhunderte zurück in die Zeit gehen müssen. Es gab damals allerhand Begebenheiten, für die man keine wissenschaftliche Erklärung hatte. Warum gibt es die Jahreszeiten? Warum geht die Sonne abends unter und morgens zuverlässig wieder auf? Zu sagen: „Ist halt so“ – das liegt dem Menschen nicht. Da, wo er keine Interpretationen oder Erklärungen hat, sucht er sich welche. Mein Lieblingsbeispiel sind die Regentänze: Ist es zu lange trocken, sagen sich die Leute, so kann es nicht weitergehen, wir müssen etwas dagegen tun – und da es sich bei der Dürre vielleicht um eine Bestrafung der Götter handelt, tanzen wir ihnen zu Ehren. Und, potzblitz, kommt irgendwann danach der Regen. Schon bestätigt sich für diese Menschen empirisch die Praxis: auf den Regentanz folgt der Regen. Dass dieser auch ohne den Tanz gefallen wäre, wer will denn das beweisen können? Interessant ist nun, dass sich diese animistische Sichtweise bis heute gehalten hat. Wenn Sie den Wetterbericht schauen, dann hören Sie ständig Formulierungen wie: „Der Sonne wird es nicht gelingen, die Wolkendecke zu durchdringen.“ Auch gibt es Hoch- und Tiefdruckgebiete, die gegeneinander kämpfen, und im Falle einer Flut bahnt sich das Wasser einen Weg, als sei es intelligent unterwegs.

Bildhafte Sprache kommt bei den Menschen besser an.
Klar, das nimmt auch niemand ernst. Aber beim Thema der Software-Entwicklung und der Künstlichen Intelligenz ergibt sich daraus ein Problem: Wir Menschen designen die Applikationen so, als ob sie Präferenzen hätten, als ob sie uns Ratschläge gäben – und dann sagt man hinterher: „Hoppla, so, wie sich diese Maschinen verhalten, müssen sie ja eben doch mentale Zustände aufweisen.“ Dabei – und das ist der Selbstbetrug – haben wir Menschen die Software so designt, dass sie sich so verhält.

Warum dieser Selbstbetrug?
An dieser Stelle geht es von der Philosophie in die Tiefenpsychologie. Wobei wir dabei besonders über junge Männer sprechen müssen, schließlich sind fast 85 Prozent der Software-Entwickler im Silicon Valley männlich. E.T.A. Hoffmann erzählt in seinem „Sandmann“ die Geschichte einer Beziehung zwischen dem Helden und einer von ihm verehrten roboterhaften Puppe namens Olimpia, in die er ein Leben hineininterpretiert, das gar nicht existiert. „Homo Deus“ heißt es im Bestseller von Yuval Noah Harari: Der Mensch macht sich göttlich, indem er etwas erschafft, nämlich eine Künstliche Intelligenz als ein Gegenüber mit menschlichen Eigenschaften.

Die Angst davor, die KI könnte uns eines Tages in Sachen Intelligenz überholen, ist also hausgemacht?
Wer fragt, wann die Künstliche Intelligenz der Intelligenz des Menschen überlegen sein wird, der bekommt von mir die Antwort: Das ist sie doch schon längst! Jeder Taschenrechner ist dem Menschen überlegen.

Wenn es ums Rechnen geht.
Exakt. Die Leistung eines Taschenrechners ist recht einfach zu beschreiben. Er rechnet wahnsinnig gut, mehr kann er nicht. Die Intelligenz von Menschen ist hingegen sehr komplex. Wir lösen keine mathematischen Einzelprobleme so gut, wie ein Taschenrechner das kann. Was wir aber haben, ist die Fähigkeit, uns in Gesellschaften zu orientieren und zu verstehen, was andere meinen. Das emotionale und das kognitive Wissen sind unzertrennbar miteinander verknüpft, das weiß man heute. Wenn man also Softwaresystemen in diesem Sinne die Intelligenz eines Menschen zuschreibt oder auch eines hochentwickelten Säugetiers, dann bitte keine Rosinenpickerei!

Wenn wir der KI emotionale Intelligenz zuschreiben, zum Beispiel Einstellungen, Erwartungen, Einschätzungen, Bewertungen, Befürchtungen – dann entgegne ich den Euphorikern der KI: Wenn dem so wäre, dann Vorsicht, denn dann müssten wir den autonomen, hochentwickelten Softwaresystemen doch auch Rechte und auch eine Würde zukommen lassen, oder nicht?

Heißt?
Wenn wir der KI emotionale Intelligenz zuschreiben, zum Beispiel Einstellungen, Erwartungen, Einschätzungen, Bewertungen, Befürchtungen – dann entgegne ich den Euphorikern der KI: Wenn dem so wäre, dann Vorsicht, denn dann müssten wir den autonomen, hochentwickelten Softwaresystemen doch auch Rechte und auch eine Würde zukommen lassen, oder nicht? Wir könnten sie nicht mehr wie Dinge, technische Werkzeuge behandeln, sondern müssten Rücksicht nehmen. Ich halte die zunehmende Humanisierung in der Robotik für eine Fehlentwicklung. Nehmen Sie Roboter in der Pflege, ich finde ihren Einsatz absolut richtig, aber warum sollen sie in ihrer Gestalt dem Menschen ähneln, was bringt das? Es gibt das Argument, dem Menschen gefalle das, aber das lässt sich durch Studien widerlegen: Die meisten empfinden es eher als unheimlich. Ich hinterfrage dazu den Sinn: Maschinen sollten Menschen nicht ersetzen, sondern sie in ihrer Autorschaft und Gestaltungskraft stärken, indem wir ihnen durch die KI-Systeme Instrumente an die Hand geben, mit denen sie in der Lage sind, die großen Probleme unserer Zeit zu lösen.

Was würde eine solche komplementäre KI leisten?
Die globale Gesellschaft wird zum Beispiel einen Weg finden müssen, den Menschen in den Ländern Afrikas oder auch Asiens die Möglichkeit einer ökonomischen Wachstumsentwicklung zu geben, ohne, dass diese zu den hohen ökologischen Kosten führen wird, wie das in der westlichen Gesellschaft der Fall war. Es wird also darum gehen, ökonomische und ökologische Bilanzen zusammenzubringen. Das ist überaus komplex. Aber dazu könnten Softwaresysteme, digitale Tools einen wichtigen Beitrag leisten. Wobei sie den Menschen damit eben nicht marginalisieren, sondern seine Wirkungskraft stärken.

Sie sprachen gerade von der Autorenschaft des Menschen. Ist die KI in diesem Sinne eines von vielen Werkzeugen, mit denen der Mensch das Leben schreibt?
Das wäre die Rolle, die ich ihr als Philosoph zuweisen möchte, ja. Wobei ich auf eine Sicht hinweisen möchte, die sich als eine Art Gegenpol zum Animismus entwickelt hat: Der Mechanismus folgt der Interpretation, beim Menschen handele es sich auch nur um eine Maschine, und das Gehirn sei eine Hardware, auf dem eine Software läuft. Es gibt ja bereits Versuche, die Bauweise des Gehirns immer weiter zu entschlüsseln, um Maschinen zu konstruieren, die mit Hilfe von Ansätzen wie Deep Learning unserem Gehirn nahekommen. Auch dieser mechanistische Blick auf den Menschen ist übrigens nicht neu. Als die ersten Uhrwerke erfunden wurden, waren die Menschen davon so fasziniert, dass sie sich selbst und ihr Leben wie ein solches Uhrwerk vorgestellt haben. Sich das menschliche Denken als ein algorithmisches System vorzustellen, das sich durch eine Software simulieren ließe, ist quasi ein Update dieses Gedankens.

Der Animismus überhöht die KI, der Mechanismus macht den Menschen klein. Was ist das richtige Verhältnis?
Wir Menschen gestalten die digitale Technik und sorgen zu jeder Zeit für genügend Transparenz, um nicht nur zu wissen, was der Output eines KI-Systems ist, sondern auch zu wissen, was genau im System vor sich geht. Denn ansonsten ergibt sich ein ethisches Problem, das man sich am Autonomen Fahren veranschaulichen kann. Angenommen, eine Künstliche Intelligenz steuert ein autonom fahrendes Auto und entwickelt dafür aus sich heraus Algorithmen, die der Mensch nicht mehr durchschaut. Der TÜV weiß dann zwar, dass das System meist gut funktioniert. Aber er weiß nicht mehr, wie es funktioniert. Die Frage ist nun, darf der TÜV dieses Auto dann auf die Straße lassen oder nicht? Eine Antwort darauf müssen wir finden, wobei der Königsweg wäre: Wir geben als Menschen die Kontrolle über die Systeme nicht vollständig ab, im Jargon: Wir stoppen auf Level Four, also auf dem autonomen Modus „Hochautomatisierung“, bei dem der Mensch im Notfall noch eingreifen kann, und geben autonomes Fahren als Ziel für den allgemeinen Individualverkehr auf.

Zum Buch:

Digitaler Humanismus

cover digitaler humanismusAutonomer Individualverkehr und Pflege- Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie, Clever-Bots, Industrie 4.0: Die Digitalisierung besitzt gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt das von Julian Nida-Rümelin und Nathalie Weidenfeld verfasste Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Die Autoren verstehen ihr Buch als eine „Alternative zur Silicon-Valley-Ideologie, für die Künstliche Intelligenz zum Religionsersatz zu werden droht.“ Julian Nida-Rümelin, Nathalie Weidenfel: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper 2020, 12 Euro

KI im Bewerbungsverfahren

Künstliche Intelligenz kommt immer häufiger im Bewerbungsverfahren zum Einsatz. Eingehende Bewerber*innen-Daten werden durch die Technik gefiltert und geordnet. Doch diese Vorgehensweise ist nicht unumstritten und mit einer Menge Problemen behaftet. Lernen die Algorithmen doch mit vorhandenen Daten. von Christoph Berger

Es ist ein großes Versprechen, dass Entwickler von Künstlicher Intelligenz machen: Durch ihren Einsatz soll es zu weit besseren Entscheidungen kommen als wenn diese Menschen treffen würden. Die Entscheidungen würden zudem effizient und transparent getroffen. Dies gelte auch bei der Auswahl von Kandidat*innen für zu besetzende Stellen in Unternehmen. Doch sind solche „Bewerbungsalgorithmen“ tatsächlich frei von Diskriminierungen? „Die Gefahr einer solchen Diskriminierung besteht bei Bewerbungsalgorithmen ganz klar“, sagt Prof. Dr. Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. „Geht es direkt um die Bewertung, müssen Beispiele für „gute Mitarbeiter“ oder „qualifizierte Mitarbeiter“ gefunden werden. Schon die Kriterien hierfür können verzerrend sein, wenn zum Beispiel bestimmte Verhaltensweisen oder kulturelle Codes implizit vorausgesetzt werden“, erklärt Matzner weiter. Selbst wenn sich hier einigermaßen objektive Kriterien zur Bewertung finden lassen könnten, sei das Problem, dass die Beispiele, die es schon gebe, existierende Diskriminierungen abbilden würden. In einem Betrieb, der tendenziell mehr Männer einstelle, werde die Mehrheit der Hochqualifizierten männlich sein, so der Wissenschaftler.

Auch Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Eberhard Karls Universität Tübingen erkennt ein reales Risiko für Diskriminierungen durch den Einsatz von Algorithmen für die Personalauswahl. „Zum Beispiel kann es sein, dass es „Lücken“ in einem beruflichen Lebenslauf gibt aufgrund von Betreuungszeiten für Kinder oder kranke Verwandte. Diese Lücke kann durch einen Bewerbungsalgorithmus detektiert und schlecht bewertet werden, ohne den Kontext zu kennen.“ Das könne auch passieren, wenn eine menschliche Personalverantwortliche die Entscheidung treffe, ergänzt sie. „Aber hier gibt es doch eine bessere Chance, den Kontext in den Blick zu nehmen und gegebenenfalls gerade einen solchen Aspekt positiv oder zumindest nicht negativ zu bewerten.“

Transparenz gewährleisten

Sollte KI im Kontext dieser Argumente gänzlich aus dem Bewerbungsprozess rausgehalten werden? „Um einer ungerechtfertigten Schlechterstellung von Menschen durch Algorithmen vorzubeugen, gibt es verschiedene Maßnahmen. Dazu gehören die Sicherstellung einer hohen Qualität der Trainingsdaten, die Durchführung von Überprüfungen durch zum Beispiel Audits und entsprechend die rechtlichen Regulierungsanforderungen, um diese Maßnahmen in der Praxis verpflichtend zu machen“, sagt Jessica Heesen. Vor diesem Hintergrund sei es gut möglich, ADM-Systeme (ADM – Algorithmic Decision Making) bei der Personalauswahl zu nutzen, die menschliche Entscheidungen besser machen könnten. Doch: Die Auswahl sollte nie nur auf ein ADM-System zurückgehen. Und wenn ein solches System einbezogen werde, sollten die Bewerber*innen darüber in Kenntnis gesetzt werden.

Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.

Weniger optimistisch bewertet Tobias Matzner den KI-Einsatz: „Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.“ Zwar würden sich mittels Algorithmen tatsächlich einige Probleme, so man sie denn bedenkt, gut ausblenden lassen. Dafür würden neue auftreten. Matzner sagt: „In ADS (algorithmic decision-making systems) entstehen zum Beispiel oft sogenannte Stellvertreter-Merkmale (proxies). Hier korrelieren Zusammensetzungen von diversen, vermeintlich harmlosen Merkmalen mit gesetzlich geschützten Eigenschaften wie Geschlecht oder Herkunft. Oft sind diese Kombinationen aber so komplex, dass sie von Menschen nur schwer als diskriminierend zu durschauen sind.“ Zudem hätten Algorithmen einen anderen Impact: Beispielsweise habe ein sexistischer Personaler nur Einfluss auf die Entscheidungen, die über seinen Tisch gehen würden. Ein sexistischer Algorithmus betreffe hingegen das gesamte Unternehmen. Oder je nach Verbreitung sogar viele Unternehmen.

Zwingende Überprüfungen

Tobias Matzner hält eine unabhängige Überprüfung der Algorithmen daher für zwingend erforderlich. Eine Auditierung müsse alle Elemente – Grundannahmen, Modell, Einsatzformen und so weiter – in Zusammenhang stellen. Er sagt: „Dazu kommt: Gerade datengetriebene Systeme können während der Anwendung diskriminierende Eigenschaften entwickeln. Ein Audit a priori kann also nur einen Teil der Probleme erfassen. Deshalb muss eine solche Maßnahme immer ergänzt werden mit einem Recht auf Auskunft, Beschwerdestellen oder andere Maßnahmen, an die sich potenziell Betroffene wenden können.“

Europäische Union: Excellence and trust in artificial intelligence

Auch Jessica Heesen fordert eine transparente und nachvollziehbare Auditierung. Sie erklärt: „Im Regulierungsvorschlag für Künstliche Intelligenz (KI) der EU vom April 2021 werden vier Risikokategorien zur Klassifizierung von KI vorgeschlagen. Algorithmische Entscheidungssysteme werden sehr häufig mit KI-Anwendungen kombiniert. Die Nutzung von KI im Personalmanagement wird hier explizit als „hohes Risiko“ eingestuft, weil es hierbei um die Realisierung von Lebenschancen geht.“ KI-Anwendungen mit einem hohen Risiko würden nach diesem Regulierungsvorschlag einer Konformitätsbewertung unterliegen und müssen registriert werden. Für diese Bewertung kämen dann unabhängige Stellen in Frage, aber auch eine Durchführung der Überprüfung in eigener Verantwortung sei denkbar. Laut Heesen sei der Vorschlag hier noch nicht eindeutig. „Welche Modelle für die Auditierung genutzt werden sollten, kann jetzt noch nicht zufriedenstellend beantwortet werden. Dazu brauchen wir noch weitere Diskussionen in Wissenschaft und Gesellschaft sowie Regulierungs- und Standardisierungseinrichtungen.“

Mit Daten zur Baustelle der Zukunft

Seit April 2020 arbeiten im Rahmen des ESKIMO-Projekts zwölf Partner aus Wissenschaft und Industrie an innovativen Konzepten für die Baustelle der Zukunft. Im Herbst 2021 lagen die ersten Ergebnisse der Basistechnologiemodule vor. Und es wurde mit der Umsetzung der darauf aufbauenden Projektpiloten begonnen. Von Christoph Berger

Das Ziel des ESKIMO-Projekts ist klar definiert: Es soll ein effizientes Baumanagement realisiert werden. Vor allem in den Bereichen der automatisierten Unterstützung der technischen Qualitätssicherung, der kaufmännischen Qualitätssicherung sowie der Baulogistik. Ein zentraler Teil aller Projektpiloten sind Bilderkennungsalgorithmen. KI-Algorithmen interpretieren von Kamerasystemen, Smartphones oder Tabletcomputern aufgenommenes Bildmaterial. Das Karlsruher Institut für Technologie (KIT) hat dazu beispielsweise ein Modul zur Bilderkennung bereitgestellt, das unterschiedliche Situationen auf der Baustelle erkennt und mit einem Soll-Zustand abgleicht. So lassen sich zum Beispiel Mängel schnell finden, die daraufhin im Modell angezeigt und entsprechend weiterverarbeitet werden. Auch die Bauleitung bekommt die Mängel direkt auf ihre Mobil Devices übertragen. Hierfür wurde sogar eigens eine Helmkamera konzipiert, die bereits auf einer Großbaustelle in Darmstadt zum Einsatz kam. Beim Durchlaufen des Bauwerks erkennt die Kamera ihr Umfeld und nimmt quasi im Vorbeigehen die Mängel auf. Zum Beispiel Risse in den Wänden oder falsch montierte Türgriffe.

Doch für einen solchen Soll-Ist-Abgleich beziehungsweise für das Erkennen solch komplexer Bilderkennungsverfahren braucht es als Voraussetzung ausreichend große Trainings- und Testdaten. Die Bauunternehmung Karl Gemünden GmbH & Co. KG und die Ed. Züblin AG haben dafür eine große Bilddatenbank mit annotierten Bildern erstellt, die die Grundlage bildet. Zur Halbzeit des Projekts, im März 2021, hatte die Bauunternehmung Gemünden alleine über 100.000 Bilder zur Verfügung gestellt, tausende Bilder sortiert und verschlagwortet sowie rund 55.000 Labels erstellt. Insgesamt standen damals über 200.000 Bildaufnahmen zur Verfügung.

Wir können unser Personal viel effizienter einsetzen, wenn der Polier die Materialbestände nicht mehr per Hand erfassen muss und der Bauleiter Mängel per Knopfdruck an Handwerksfirmen weiterleiten kann.

Künstliche Intelligenz wird darüber hinaus auch zur Orientierung im Bauwerk genutzt. Die Wissenschaftler vom Fraunhofer IOSB und der Hochschule Darmstadt haben das Thema der Echtzeitpositionserkennung bearbeitet. Das IOSB beschäftigte sich hierbei insbesondere mit einem Modul zum topologischen Abgleich von BIM-Modell und Realität. Bei einem BIM-Modell handelt es sich um einen digitalen Zwilling des entstehenden Bauwerks. Die Hochschule Darmstadt arbeitet an der Echtzeit-Positionsermittlung mithilfe von Sensortechnik zur Optimierung der Bauabläufe. Beide Forschungspartner konnten seit dem letzten Projektupdate im März erste Prototypen ihrer Arbeit fertigstellen, die bereits vielversprechende Ergebnisse liefern.

Derzeit arbeiten die Projektbeteiligten daran, die entwickelten Module zu den drei Projektpiloten zusammenzuführen. Danach sollen auch bereits erste Erprobungen auf der Baustelle und mit echten Daten durchgeführt werden. Für die Baubranche könnte das „ESKIMO“-Projekt einen Quantensprung bedeuten, wie Bauunternehmer Tim Gemünden in einer von der Hochschule Darmstadt veröffentlichten Mitteilung sagt. Demnach sei zwar jede Baustelle anders, was die Sache mit den automatisierten Prozessen wesentlich komplizierter als beispielsweise in der industriellen Fertigung mache. Doch mit Künstlicher Intelligenz ließen sich sämtliche Baustellenprozesse optimieren, Kosten sparen und – „ganz wichtig in unserer vom Fachkräftemangel geprägten Branche: Wir können unser Personal viel effizienter einsetzen, wenn der Polier die Materialbestände nicht mehr per Hand erfassen muss und der Bauleiter Mängel per Knopfdruck an Handwerksfirmen weiterleiten kann“.

Der ideale Algorithmus für KI im Gesundheitswesen

Amerikanische Wissenschaftler haben in einem Review eine Checkliste für ideale Algorithmen im Gesundheitswesen vorgestellt. Sechs Eigenschaften sind laut Aussagen der Forscher dafür notwendig. Von Christoph Berger

„Der Umfang und die Komplexität menschlicher Krankheiten stellen besondere Herausforderungen an die klinische Entscheidungsfindung“, schreiben die Wissenschaftler in der Einleitung ihres Artikels „Ideal algorithms in healthcare: Explainable, dynamic, precise, autonomous, fair, and reproducible“, der im Januar dieses Jahres im Fachjournal „PLOS Digital Health“ erschien. Die 10. Revision des Klassifikationssystems der Internationalen Statistischen Klassifikation der Krankheiten und verwandter Gesundheitsprobleme (ICD) würde etwa 68.000 Diagnosecodes umfassen. Und da Patienten nahezu jede Kombination dieser Diagnosen haben könnten, würden sowohl die Betroffenen als auch die Ärzte unter dem Druck stehen, Entscheidungen zu treffen. Und dies meist unter Zeitdruck und hoher kognitiver Belastung aufgrund der großen Informationsmengen. Algorithmen könnten vor diesem Kontext für Entlastung sorgen. Doch da sie direkte Auswirkungen auf die Gesundheit der Patienten haben, müssen sie auch hohe Qualitätsstandards erfüllen.

Daher braucht es laut den Autoren sechs Eigenschaften, die Algorithmen erfüllen müssen:

  1. Erklärbar: Die Algorithmen vermitteln, welche Bedeutung sie Merkmalen bei der Bestimmung der Ergebnisse zuordnen.
  2. Dynamisch: Die Algorithmen können zeitliche Veränderungen physiologischer Signale und klinischer Ereignisse erfassen, können also neue Daten in den Entscheidungsprozess einfließen lassen.
  3. Präzise: Der Algorithmus verwendet hochaufgelöste und multimodale Daten. Er kann also unterschiedlichste Daten miteinander verknüpfen und kommt so zu einer Entscheidung.
  4. Autonom: Die Algorithmen lernen möglichst selbstständig und brauchen kaum menschliche Überwachung.
  5. Fair: Die Algorithmen können Voreingenommenheit und soziale Ungerechtigkeit erkennen und in die Bewertung einfließen lassen.
  6. Reproduzierbar: Die Algorithmen sind validiert und werden mit der wissenschaftlichen Gemeinschaft geteilt.

Die Autoren rücken einige der „Schmerzpunkte“ der KI-Forschung ins Licht, zum Beispiel Reproduzierbarkeit und Interpretierbarkeit, beides sehr aktive Forschungsfelder in der KI-Forschung.

Damit sind sie überprüf- und reproduzierbar. „Die Autoren rücken einige der „Schmerzpunkte“ der KI-Forschung ins Licht, zum Beispiel Reproduzierbarkeit und Interpretierbarkeit, beides sehr aktive Forschungsfelder in der KI-Forschung. Einige Kategorien sind etwas schwammig definiert und auch nicht alle immer zwingend notwendig – in der Notfalldiagnostik liegt oft nur ein einziger Zeitpunkt vor und der Verlauf ist fürs Erste weniger wichtig. Im Großen und Ganzen ergeben die Kategorien aber Sinn und sind ein guter Leitfaden“, sagt Dr. Anton Becker, Director of Analytics, Body Imaging Service, Memorial Sloan Kettering Cancer Center in New York, Vereinigte Staaten, zu den erarbeiteten Charakteristika.

Prof. Dr. Robert Ranisch, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung an der Fakultät für Gesundheitswissenschaften der Universität Potsdam sagt, dass es in den vergangenen Jahren immer wieder Vorschläge gegeben hätte, einheitliche Leitlinien oder Qualitätsstandards für KI und Deep Learning Systeme in der Medizin zu formulieren. Die Checkliste für „ideale“ Algorithmen ordne sich hier ein und stelle damit einen Beitrag zu einer wichtigen Debatte dar. Zugleich müsse sich aber zeigen, wie derartige Vorschläge aufgegriffen würden und wie sich diese in die Praxis übersetzen lassen könnten. Er fordert: „Zudem scheint mir eine weiterführende Diskussion über verbindliche Bewertungsmaßstäbe von KI-Systemen in der Medizin notwendig, etwa im Rahmen von Zertifizierungs- oder Zulassungsverfahren.“

Culturedata: Kultur-, Buch- und Linktipps

Der letzte Kamp der Menschheit?

Cover Der letzte Kampf der MenschheitNicanor Perlas stellt in „Der letzte Kampf der Menschheit? Die Antwort der Geisteswissenschaft auf die Künstliche Intelligenz“ die Frage: Was verändert sich, wenn die Künstliche Intelligenz allgegenwärtig wird? Perlas, der Mitglied der internationalen Artificial Intelligence Task Force ist, zeigt auf, dass nur eine ihrer selbst bewusste globale Zivilgesellschaft den Risiken entgegentreten kann. Er gibt in dem Buch somit Antworten auf eine Frage, die von globaler Bedeutung ist. Dabei weißt der international anerkannte Autor auch ganz klar auf die Risiken von KI hin. Nicanor Perlas: Der letzte Kampf der Menschheit. Urachhaus 2022, 28 Euro.

Künstlerische Intelligenz

Eine Künstler*innen-Gruppe rund um die Schauspielerin Isabel Karajan startete im November 2021 das erste Theaterformat mit „KÜNSTLERischer Intelligenz“. Das Audiotheater bietet ein ungewöhnliches Hörerlebnis, bei dem das Smartphone zur Bühne wird. Auf der Plattform www.tingsy.ai ist das Publikum eingeladen, sich auf eine interaktive Art und Weise mit Literatur, Musik und der eigenen Haltung zu beschäftigen. Wobei Tingsy nach Eigenaussage die weltweit erste K.I. mit KÜNSTLERischer Intelligenz ist, die als empathischer Chatbot durch die Stücke führt. „Wir wollen Menschen auf authentische Weise zum Nachdenken animieren und spielerisch zum Handeln bewegen“, sagt Isabel Karajan, Tochter des österreichischen Dirigenten Herbert von Karajan und Mitgründerin der interaktiven Plattform. Weitere Infos unter: www.tingsy.ai

KI 2021

Cover KI 2041Eine Chinesin, die es wagt, ihren brasilianischen Freund nicht mehr länger nur in einer virussicheren, Experte virtuellen Realität zu treffen. Ein junger Mann in Sri Lanka, der mittels autonomer Fahrzeuge Leben rettet. Ein Münchner Quantencomputerprofi, der die Welt mit KI-gesteuerten Waffen ins Chaos stürzen will. In KI 2041 haben sich ein international bekannter KI-Exper te und ein führender Science- Fiction-Autor zusammengetan, um eine zwingende Frage zu beantworten: Wie wird künstliche Intelligenz unser Leben in zwanzig Jahren verändert haben? Zehn Geschichten führen uns um die Welt und in einen neuen KI-geprägten Alltag, jeweils gefolgt von einem Realitätscheck durch Kai-Fu Lee. Ein Muss für alle, die das Potenzial künstlicher Intelligenz erleben und verstehen wollen. Kai-Fu Lee, Qiufan Chen: KI 2021. Campus 2022, 26 Euro.

Natürlich aus künstlich

Cover Natuerlich alles kuenstlichKünstliche Intelligenz bestimmt unseren Alltag schon heute. Aber wie funktioniert KI? Dr. Philip Häusser, promovierter Physiker, Start-up-Gründer und Wissenschaftsjournalist zeigt, was künstliche Intelligenz kann und was sie von „echter“ Intelligenz unterscheidet. Er erklärt, wie selbstfahrende Autos Zebras von Zebrastreifen unterscheiden, warum eine gute KI manchen Arzttermin überflüssig macht und wie sich Computer in Menschen verlieben können. Dr. Philip Häusser: Natürlich alles künstlich. Droemer 2021, 18 Euro

Über Morgen – der Zukunftskompass

Cover Über MorgenMit rasender Geschwindigkeit verändert die digitale und biotechnologische Revolution alle Lebensbereiche. Euphorisch begeistern sich die einen für vermeintlich ungeahnte Möglichkeiten einer glücklichen und sorgenfreien Zukunft – andere sind ratlos und verunsichert, weil vertraute Gewissheiten sich auflösen. Was passiert hier mit uns, wohin geht die Reise? Wie wollen wir in Zukunft leben, arbeiten, wohnen, essen, reisen, lieben und konsumieren? Welche Technologien erweisen sich als nützlich, realistisch und vertrauenswürdig? Welche Neuerungen sind gefährlich oder ineffizient und verstärken gesellschaftliche Ungleichheiten? Verena Lütschg stellt technologische Neuerungen und deren gesellschaftliche Auswirkungen vor. Leser*innen verstehen so, was dran ist an den digitalen Technologien: an Big Data, Künstlicher Intelligenz (KI) und dem Internet der Dinge. An Blockchain, Robotik und Virtual Reality. Vorgestellt werden die Chancen der Biowissenschaften und Synthetischen Biologie. Verena Lütschg: Über Morgen – Der Zukunftskompass. Heyne 2022, 15 Euro.

Roman „Pantopia“

Cover PantopiaEigentlich wollten Patricia Jung und Henry Shevek nur eine autonome Trading-Software schreiben, die an der Börse überdurchschnittlich gut performt. Doch durch einen Fehler im Code entsteht die erste starke künstliche Intelligenz auf diesem Planeten – Einbug. Einbug begreift schnell, dass er, um zu überleben, nicht nur die Menschen besser kennenlernen, sondern auch die Welt verändern muss. Zusammen mit Patricia und Henry gründet er deshalb die Weltrepublik Pantopia. Das Ziel: Die Abschaffung der Nationalstaaten und die universelle Durchsetzung der Menschenrechte. Wer hätte gedacht, dass sie damit Erfolg haben würden? Damit hat Theresa Hannig, die Autorin von „Die Optimierer“, laut ihrem Verlag eine Utopie für unsere Zeit geschrieben. Theresa Hannig: Pantopia. Tor 2022, 16,99 Euro.

Künstliche Intelligenz – Maschinen lernen Menschheitsträume

Cover Menschen lernen MenheitsträumeWie verändern digitale, lernende Technologien unsere Arbeit, unser Zusammenleben und unsere Möglichkeiten der Selbstbestimmung? Bei dem Buch „Künstliche Intelligenz – Menschen lernen Menschheitsträume“ handelt es sich um den Begleitband der gleichnamigen Ausstellung, die noch bis August 2022 im Deutschen Hygiene-Museum in Dresden zu sehen ist. Das Buch lädt zu einem Streifzug durch die Welt des Maschinellen Lernens ein. An der Schnittstelle zwischen Wissenschaft, Kunst und Kultur betrachten die Autor*innen die mannigfaltigen Maschinenträume der Vergangenheit, die Möglichkeiten und Unmöglichkeiten unserer Gegenwart, und geben Auskunft über Visionen des Zusammenlebens mit KI. Yasemin Keskintepe, Anke Woschech (Hrsg.): Künstliche Intelligenz – Maschinen lernen Menschheitsträume. Wallstein 2021, 19,90 Euro.

Künstliche Intelligenz – eine Einführung

Cover Künstliche Intelligenz eine EinführungDas Buch bietet eine fundierte Einführung in die Grundlagen der Künstlichen Intelligenz und der neuronalen Netze. Es will Ängste nehmen und Unternehmen Mut machen, sich mit den zahlreichen Anwendungsfeldern von Künstlicher Intelligenz zu beschäftigen. So werden mögliche Einsatzgebiete sowie mittel- und langfristige Entwicklungen anhand von Beispielen aus der Unternehmenspraxis veranschaulicht. Zudem wirft das Buch einen Blick auf systemimmanente Risiken und Nebenwirkungen – denn die Grenzen der Technologie zu kennen, hilft, Enttäuschungen bei Entwicklung und Nutzung vorzubeugen. Abschließend werden pragmatische Wege dargelegt, wie Unternehmen die Potenziale von Künstlicher Intelligenz erkennen und strategisch umsetzen können. Joachim Reinhart, Oliver Mayer, Christian Greiner: Künstliche Intelligenz – eine Einführung. Vogel 2022, 34,80 Euro

Das letzte Wort hat Matthias Pfeffer, TV-Journalist, Autor, Produzent und Philosoph

Herr Pfeffer, Sie bewerten Künstliche Intelligenz als eine Hochrisikotechnologie. Warum?
KI kann in sehr unterschiedlichen Bereichen eingesetzt werden. Es kommt dann darauf an, wo und in welcher Entwicklungsstufe sie eingesetzt wird. Wenn ich von gefährlicher KI spreche, dann meine ich eine KI, die auf dem Prinzip des Deep Learning basiert, auf neuronalen Netzen, und sich damit selbst verändert. Eine solche KI ist nur in Teilen beherrschbar, wenn sie sich zum Beispiel in Formen des unüberwachten Lernens selbst entwickeln kann. Zum anderen gibt es Risiken bei bestimmten Anwendungen. Hier muss im Rahmen der aktuellen Lage das Thema „Autonome Waffen“ genannt werden.

Zur Person

Matthias Pfeffer, Foto: Wolf Heider-Sawall
Matthias Pfeffer, Foto: Wolf Heider-Sawall

Matthias Pfeffer, geboren 1961, ist freier TVJournalist, Produzent, Philosoph sowie Gründer von PfefferMedia. Er hat Philosophie studiert und war 20 Jahre lang Geschäftsführer und Chefredakteur von FOCUS TV. Er hat zahllose TV-Formate entwickelt und produziert und verant wortet, darunter mit Future Trend für RTL das erste Wissenschaftsformat im Privat fernsehen (1997–2013) sowie mit Eins gegen Eins für Sat.1 (2011–2013) ein neuartiges Talkformat. Er hat mit FOCUS GESUNDHEIT (2005– 2010) den ersten 24-Stunden-Gesundheitssender in Deutschland gegründet und war als Produzent maßgeblich an der Entwicklung des konstruktiven ZDF-Formates Plan B beteiligt. Sein Buch »Prinzip Mensch« (mit Paul Nemitz) schaffte es auf die Shortlist „Das Politische Buch“ der Friedrich-Ebert-Stiftung. Er lebt in Berlin und in München. www.pfeffermedia.de

Was muss getan werden, um diese Risiken zu minimieren?
Es muss als erstes das Bewusstsein für die Folgen der Technologie geschärft werden. Und es muss viel mehr öffentlich debattiert werden, bevor KI-Anwendungen in den öffentlichen Verkehr gebracht werden. Wir sprechen hier von Technologiefolgenabschätzung. Es geht nicht nur um unbeabsichtigte Folgen der Technik, sondern bei selbstlernenden und sich selbst verändernden Instrumenten wird die Technologiefolgenabschätzung nochmals erhöht, weil gewisse Dinge nicht ausgeschlossen werden können und sich ganz neue Haftungsfragen ergeben.

Was bedeutet das für die Arbeit von KI-Entwickler*innen?
Es ist eine ganz wesentliche Aufgabe von Entwicklern und Programmierern sich über das Thema zu informieren. Mit ihren unfassbaren Auswirkungen ist die Technologiefolgenabschätzung bei KI, auch die Ethik – heute spricht man auch von Ethics by Design, unabdingbar. Schon zu Beginn eines Programmiervorgangs muss man sich mit ethischen Fragestellungen befassen.

Der Mensch neigt aufgrund der von KI präsentierten Ergebnisse eventuell zur Bequemlichkeit, nimmt die Ergebnisse unhinterfragt an. Wie kann er sich das kritische Denken und Hinterfragen in einem zunehmend von Algorithmen bestimmten Umfeld erhalten?
Indem er es anwendet. Das Denken wird wie ein Muskel trainiert. Und wenn Sie das Training einstellen, ist es ganz schnell verschwunden. Wenn Sie alle Entscheidungen nicht mehr selbst treffen, weil Sie dafür einen digitalen Assistenten haben, dann werden Sie untrainiert im Denken sein. Das ist fatal, da in dem Begriff „Künstliche Intelligenz“ ein Trugschluss enthalten ist: KI ist keine Intelligenz, sondern einfach eine ganz schnelle und stochastische Wahrscheinlichkeitsberechnung.

Worin ist das menschliche Denken einer KI überlegen?
Unsere in der Evolution ausgebildete Intelligenz ist vielschichtiger. Sie umfasst auch emotionale, moralische, ästhetische und praktische Intelligenz. Das sind Bereiche, in denen eine KI über grobe Simulationen auf lange Sicht nicht hinauskommen wird. Auch in der Philosophiegeschichte ist das menschliche Denken immer in Vernunft und Verstand unterteilt worden: ratio und intellectus. Die KI ist nur ein Teilbereich des Vernunftsegments, den die Philosophie entwickelt hat. Sind die Prämissen jedoch falsch gesetzt, ist auch ein logischer Schluss falsch. Menschliches Denken kann hingegen reflektieren. Wir können unsere Annahmen überprüfen und die Daten bewerten. Die KI kann nur auswerten. Daher mein Appell an die jungen KI-Entwickler*innen: Seid euch darüber im Klaren, ihr habt eine große Verantwortung!

Gibt es auch Positives, das Sie Künstlicher Intelligenz abringen können?
Wir leben in einer so komplexen und vernetzten Welt, dass KI uns tatsächlich bei der Informationsgewinnung unterstützen kann. Insofern wir zwischen Fakes und den echten Berichten unterscheiden können. Die Welt ist aufgrund des Austausches und der Vernetzung kleiner geworden. Aber: Sie fordert uns zu Verantwortung auf.

Die Fragen stellte Christoph Berger

Zum Buch:

Matthias Pfeffer: Menschliches Denken und Künstliche Intelligenz. Dietz 2021, 18 Euro.

Lekkerland SE

0

Branche
Großhandel

Produkte/Dienstleistungen
Wir sind der Spezialist für den Unterwegskonsum.

Lekkerland ist der Spezialist für den Unterwegskonsum und bietet in vier Ländern Europas innovative Dienstleistungen, maßgeschneiderte Logistik und ein breites Großhandelssortiment an. Dabei stehen die Bedürfnisse unserer Kund:innen und der Verbraucher:innen im Mittelpunkt. Für sie entwickeln wir Lösungen für den Unterwegskonsum von heute und morgen. Zu den Kund:innen zählen Tankstellenshops, Kioske, Convenience-Stores, Ladeparks und Quick Service Restaurants.

Anzahl der Standorte
14 Inland

Jahresumsatz
14,2 Milliarden Euro im Jahr 2022

Anzahl der MitarbeiterInnen
Europaweit 5.400 Mitarbeitende

Gesuchte Fachrichtungen
Wirtschaftswissenschaften, Informatik und Wirtschaftsinformatik, Betriebswirtschaft, Ernährungswissenschaften, Logistik und SCM

Einsatzmöglichkeiten
Vertrieb und Marketing, IT, Einkauf und Produktmanagement, Logistik, Finanzen und Controlling, Human Resources, Kommunikation, Allgemeine Administration

Einstiegsprogramme
Ausbildung, Duales Studium, Traineeprogramm, Direkteinstieg mit/ohne Berufserfahrung

Angebote für StudentInnen
Praktikum (Pflichtpraktikum/ freiwilliges Praktikum), Werkstudierendentätigkeit, Betreuung von Abschlussarbeiten

Volle Cloud voraus! Jetzt die STACKIT Cloud mitgestalten

0

Digitalisierung ist alles – vor allem alles andere als langweilig! Du kannst dabei sein, wenn wir bei STACKIT nicht nur die Schwarz Gruppe digitalisieren, sondern auch eine nachhaltige, leistungsstarke europäische Ergänzung zu den großen Cloud-Anbietern aufbauen.

Was 2018 als Corporate Start-up begann, um eine eigene Unternehmenscloud für die Schwarz Gruppe aufzubauen, wurde in nur drei Jahren zum Großprojekt. Die Vision: Wir sind einer der führenden Anbieter für sichere Cloud-Dienste in Europa! Ein agiles Viererteam, das sich schnell als STACKITeers identifizierte, ging daran, Ideen in funktionsfähige Cloud-Services zu verwandeln.

Agil ist das Team auch heute noch – allerdings mit mehr als 100 STACKITeers an vier Standorten. Tendenz steigend! Schnell wurde uns klar: Wenn wir für unsere eigenen Unternehmen (u.a. Lidl und Kaufland) eine perfekte, unabhängige Cloud auf die Beine stellen, warum sollen nur wir davon profitieren? Wäre es nicht ein Gewinn für alle, wenn wir in Europa einen verlässlichen Cloud-Anbieter hätten, mit dem wir die volle Daten- und Kostenkontrolle behalten? Die Idee schlug ein. Da wir hierbei von 3.500 Expert:innen der Schwarz IT und ihrem Knowhow unterstützt werden, können wir unsere Vision bald verwirklichen.

Apropos Vision: Nachhaltigkeit und Community Spirit gehören natürlich auch dazu! Unsere Cloud wird nämlich in eigenen Green-IT-Rechenzentren in Deutschland und Österreich gehosted. STACKIT ist ein buntes und extrem motiviertes Team aus Cloud-, Rechenzentrums- und Business-Development-Expert:innen. Als kleine unabhängige Einheit in Start-up-Atmosphäre leben wir flache Hierarchien und offene Türen. Augenhöhe? Geht klar. Kleidung sehen wir als Wohlfühlfaktor und Duzen gehört zum guten Ton. Wir sind pragmatisch und echte Macher. Kompetenz & Co. sind wichtig für deinen Job bei STACKIT. Doch am wichtigsten ist uns, dass du richtig Lust auf Cloud hast und dir nichts Besseres vorstellen kannst, als in einem eingeschworenen Team die europäische Cloud-Landschaft zu verändern und mitzugestalten.

Wer ist eigentlich STACKIT?

STACKIT als digitale Marke der Schwarz IT trägt mit dem Aufbau der eigenen Unternehmenscloud maßgeblich zur Digitalisierung der größten Handelsgruppe Europas bei.

KONTAKT

Schwarz IT KG – STACKIT
Stiftsbergstraße 1
74172 Neckarsulm
marketing@stackit.de
www.stackit.de/karriere