Assessment-Center erfolgreich bestehen

0

Wer eine Einladung zum Assessment- Center, Auswahltag oder Orientierungscenter erhalten hat, zählt zum engsten Kreis der ernstzunehmenden Bewerber. Das typische Assessment- Center dauert einen halben bis einen Tag und besteht aus diversen Einzel- und Gruppenaufgaben, die unter Zeitdruck zu lösen sind. Hier die wichtigsten Fakten und die besten Tipps zu den häufigsten Aufgaben:

Zur Person

Johannes Stärk ist Assessment-Center-Coach und Bestseller-Autor. Für den karriereführer recht beschreibt er, was Bewerber*innen erwartet, wenn sie ein Assessment-Center absolvieren, und wie sie es bestehen.

Postkorb

Die wichtigsten Fakten: Sie erhalten umfangreiche Unterlagen, die den Posteingang Ihres Verantwortungsbereichs darstellen. Ihre Aufgabe besteht darin, Termine zu koordinieren, Abläufe zu organisieren und die richtigen Entscheidungen zu treffen. Die besten Tipps: Verschaffen Sie sich einen groben Überblick über alle Unterlagen und arbeiten Sie die Vorgänge nach Priorität ab. Seien Sie darauf gefasst, dass sich am Ende des Bearbeitungsstapels Mitteilungen von hoher Tragweite verstecken, wie zum Beispiel die Krankmeldung eines Mitarbeiters, die Einfluss auf andere Vorgänge hat.

Gruppendiskussion

Die wichtigsten Fakten: Bei der typischen Gruppendiskussion müssen Sie gemeinsam mit anderen Teilnehmern einen vorgegebenen Auftrag bearbeiten. So kann es beispielsweise darum gehen, ein Konzept zu entwickeln oder sich auf einen Verbesserungsvorschlag zu einigen. Die besten Tipps: Stellen Sie zu Beginn sicher, dass alle das gleiche Verständnis vom Arbeitsauftrag haben. Seien Sie präsent und beteiligen Sie sich kontinuierlich. Engagieren Sie sich für Ihre eigene Position, aber zeigen Sie sich auch kompromissbereit, damit ein gemeinsames Ziel erreichbar ist.

Fallstudie/Case-Study

Die wichtigsten Fakten: Sie erhalten umfangreiche Ausgangsinformationen und müssen zu einer strategischen Fragestellung eine Lösung erarbeiten. Die besten Tipps: Präsentieren Sie nicht nur einen Lösungsvorschlag, sondern zeigen Sie auch nachvollziehbar Ihren Lösungsweg auf, denn die einzig richtige Musterlösung gibt es oft nicht.

Link-Tipp

Kostenfreier Online-Kurs „Das Gratis-Assessment-Center-Training

Rollenspiel

Die wichtigsten Fakten: Ein Rollenspiel ist die Simulation eines Vier-Augen-Gesprächs. Abhängig von der zu besetzenden Position handelt es sich dabei um ein Mitarbeiter-, ein Kunden- oder ein Kollegengespräch. Die besten Tipps: Gehen Sie mit dem persönlichen Anspruch ins Gespräch, die Motive, Bedürfnisse und Ziele Ihres Gesprächspartners exakt verstehen zu wollen. Dazu ist es erforderlich, die richtigen Fragen zu stellen und aktiv zuzuhören. In diesem Vorgehen liegt der Schlüssel zum Erfolg. Achten Sie dabei auf ausgewogene Redeanteile.

Präsentation

Die wichtigsten Fakten: Diese Aufgabe kann Ihnen im Assessment-Center mehrfach begegnen, zum Beispiel in Form einer Selbst-, Fach- und Ergebnispräsentation. Manchmal werden Präsentationsaufträge im Vorfeld als „Hausaufgabe“ erteilt. Die besten Tipps: Entwickeln Sie bereits vorab ein Konzept für Ihre Selbstpräsentation, denn kommt diese Aufgabe unvermittelt im Assessment-Center, gelingt es in der Kürze der Zeit nur den Wenigsten, eine überzeugende Selbstpräsentation zu erstellen. Machen Sie sich im Vorfeld mit Flipchart-Präsentationen vertraut, da Flipchart in vielen Assessment-Centern das Standard-Medium für Ad-hoc-Präsentationen ist.

Buchtipp

Cover Assessment-CenterJohannes Stärk: Assessment-Center erfolgreich bestehen. GABAL Verlag 2021, 25. Aufl. ISBN: 978-3-86936-184-0. 29,90 Euro.
   

Schrift-Sätze

0

Strukturwandel des Öffentlichen Rechts

Cover Strukturwandel des Öffentlichen RechtsViele Beobachter kritisieren die Entwicklung, die das öffentliche Recht in Europa seit Ende des Zweiten Weltkriegs genommen hat, als eine entfremdende Verrechtlichung. In seinem neuen Buch plädiert Armin von Bogdandy, Direktor am Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht, für eine andere Lesart dieses Prozesses, nämlich als Strukturwandel zu einer europäischen demokratischen Gesellschaft. Dieses Narrativ erlaubt eine Neubewertung wichtiger Ereignisse, Urteile, Begriffe sowie aktueller Herausforderungen. Bogdandy zeigt überdies, wie der aus dem Globalen Süden stammende Ansatz des transformativen Konstitutionalismus einen Weg bietet, sowohl autoritären als auch hegemonialen Tendenzen in der europäischen Gesellschaft zu begegnen und ihre demokratische Verfasstheit zu stärken. Armin von Bogdandy: Strukturwandel des öffentlichen Rechts. Suhrkamp Taschenbuch 2022, 26 Euro.

Vor dem Gesetz sind nicht alle gleich

Cover Vor dem Gesetz sind nicht alle gleichDas Versprechen lautet, dass alle Menschen vor dem Gesetz gleich sind. Aber sie sind laut Ronen Steinke, promovierter Jurist sowie Redakteur und Autor der Süddeutschen Zeitung, nicht gleich. Das Recht hierzulande begünstigt jene, die begütert sind; es benachteiligt die, die wenig oder nichts haben. Verfahren wegen Wirtschaftsdelikten in Millionenhöhe enden mit minimalen Strafen oder werden eingestellt. Prozesse gegen Menschen, die ein Brot stehlen oder wiederholt schwarzfahren, enden hart und immer härter. In einer beunruhigenden Reportage deckt Steinke systematische Ungerechtigkeit im Strafsystem auf. Er besucht Haftanstalten, recherchiert bei Staatsanwält*innen, Richter*innen, Anwält*innen und Verurteilten. Und er stellt dringende Forderungen, was sich ändern muss. Ronen Steinke: Vor dem Gesetz sind nicht alle gleich. Piper 2022, 20 Euro.

Strafrechtskino

Cover StrafrechtskinoWer hat sich nicht schon einmal dabei ertappt, sich bei Kino- und Fernsehfilmen unwillkürlich zu fragen, wie der Plot juristisch – insbesonders strafrechtlich – zu werten wäre. Der Autor geht zehn bekannten Kino- und Fernsehfilmen (straf)juristisch auf den Grund und macht das Lösen strafrechtlicher Fälle auf diese Weise zu einem cineastischen Vergnügen. Die (Übungs-)Fälle dieses Buches (ursprünglich einmal drei Anfängerklausuren, drei Fortgeschrittenenklausuren, drei Examensklausuren, eine Hausarbeit) sind allesamt Fiktion, d.h. ihnen liegen (anders als den meisten „Strafrechts-Klassikern“) keine realen Fälle zugrunde, vielmehr sind sie allesamt ausschließlich Film und Fernsehen entnommen. Zumeist sind sie, wie schon am Titel erkennbar, US-amerikanischen Ursprungs (Hollywood). Die Lösung folgt aber stets dem deutschen Recht. Christian Fahl: Strafrechtskino. C.H.Beck 2021, 14,90 Euro.

Inside Strafverteidigung

Cover Inside Strafverteidigung„Wie kann man nur Verbrecher retten?“ Burkhard Benecken und Hans Reinhardt stellen das Image des Strafverteidigers als „Advokat des Bösen“ auf den Prüfstand: Was davon trifft zu, was entspricht nicht der Realität? Die beiden Anwälte zählen zu den bekanntesten Strafverteidigern Deutschlands und wissen, wovon sie sprechen. In diesem spannenden Sachbuch geben sie Einblick in ihren Berufsalltag. Wer sind ihre Mandanten? Haben sie wirklich alle „Dreck am Stecken“? Oder gilt die Unschuldsvermutung? In bester True-Crime-Manier teilen sie ihre Erlebnisse mit berühmten Verbrechern und berichten von wahren Kriminalfällen. Burkhard Benecken, Hans Reinhardt: Inside Strafverteidigung. Benevento 2021, 22 Euro.

Meditation und Verhandlungsführung

Cover Meditation und VerhandlungsfuehrungDieses Buch ist laut dem Verlag das Standardwerk für wertschöpfendes (Win-Win)-Verhandeln im deutschsprachigen Raum. Ist Win-Win-Verhandeln ökonomisch sinnvoll oder naive Sozialromantik? Um diese Frage tobt ein regelrechter „Glaubenskrieg“, vor dessen Hintergrund die Autoren – beide erfahrene Verhandlungsberater und Wirtschaftsmediatoren – in jahrelanger Forschungs- und Praxisarbeit die besten Techniken sowie fundierte wissenschaftliche Belege für wertschöpfendes Verhandeln zusammengetragen haben. Zugleich gilt das Werk als führendes Lehrbuch für mediatives Verhandeln, das auch erfahrenen MediatorInnen immer wieder neue Impulse für eine noch bessere Verhandlungsführung gibt. Berücksichtigt werden dabei modernste Techniken wie Framing-Strategie, Grammatik der Wertschöpfung und Umgang mit „Irrationalität“. Dr. Siegfried Rosner, Dipl.-Jur. Andreas Winheller: Mediation und Verhandlungsführung. Nomos 2022, 39 Euro.

Zeitenwende?

Cover ZeitenwendeStehen die Europäische Union und die westliche Welt vor einer Zeitenwende? Ist die Vision einer „immer engeren Union der Völker Europas“ noch überzeugend? Welche Antworten kann die Union auf die Pandemie, den Klimawandel, den Brexit, die sicherheitspolitischen und digitalen Herausforderungen oder den sich verschärfenden internationalen Wettbewerb finden und wie kann sie die Konflikte über den europäischen Rechtsstaat, die gemeinsamen Schulden und die Zukunft des Euro bewältigen? Welche Rolle kann und sollte die EU in einer sich verändernden Welt spielen? Welche Regeln und Werte sollten die europäische Politik leiten? Diesen Fragen widmen sich im vorliegenden Band 18 Autoren – Praktiker und Wissenschaftler – aus acht Ländern und fünf Fachdisziplinen. Daniel S. Hamilton, Gregor Kirchhof und Andreas Rödder (alle Hrsg.): Zeitenwende. Mohr Siebek, 2022, 59 Euro.

Das Legal Design Buch

Cover Legal Design-BuchDas „Legal Design“-Buch ist laut Wolters Kluwer Deutschland in seiner Art das Erste, das Design und Recht praxisnah vereint und die Vorteile dieser interdisziplinären Arbeitsweise aufzeigt. Es erläutert, was Legal Design ist, wofür es wichtig ist und wie man es in der Praxis anwenden kann. Das Thema Design als Beruf wird intensiv behandelt und auf juristische Fragestellungen übertragen. Mit Hilfe von Legal Design soll für Rechtsanwender die Arbeit vereinfacht werden. Hierbei steht jedoch nicht nur die juristische Denkweise im Fokus. Vielmehr handelt es sich um eine nutzerzentrierte Herangehensweise, die Recht zugänglicher, einfacher und damit nützlicher macht. Dreh- und Angelpunkt sind dabei stets die Rechtsanwender, deren spezielle Bedürfnisse im Mittelpunkt aller Überlegungen stehen. Mit der Methode Legal Design sollen die Herausforderungen der Digitalisierung in der Rechtsbranche überwunden und die juristische Methodik modernisiert werden. Astrid Kohlmeier, Meera Klemola: Das Legal Design Buch. Wolters Kluwer Deutschland 2021, 69 Euro.

Digitalisierung und Innovation in Kanzleien

Cover Digitalisierung und Innovation in KanzleienDie Arbeit in Wirtschaftskanzleien wird immer digitaler. Rechtsanwälte wie Mandanten schätzen die Erleichterungen durch neue Plattformen, Legal-Tech-Tools und künstliche Intelligenz, die die Arbeit in großen wie in kleinen Projekten unterstützen. Die Pandemie gab den Digitalisierungsprojekten in Kanzleien einen weiteren Schub. Alle Mitarbeiter der meisten Wirtschaftskanzleien arbeiten nun zeitund ortsunabhängig. Neben der notwendigen Hard- und Software sorgen neue Systeme und Workflows für die reibungsfreie Arbeit. An der Schnittstelle zum Mandanten können eine Vielzahl von technischen Lösungen die Zusammenarbeit erleichtern und Legal-Tech-Tools im Projekt oder zur Geschäftsanbahnung eingesetzt werden. Digitalisierung geht Hand in Hand mit Innovation. Sie erfordert von einer Kanzlei ein Um- und Neudenken von tradierten Abläufen und die Weiterentwicklung der Kanzleikultur. Die Arbeit in interdisziplinären Teams und der Mut zu Veränderungen müssen entwickelt und ausprobiert werden. Das vorliegende Buch zeigt wichtige Aspekte von Digitalisierung und Innovation unterschiedlicher Wirtschaftskanzleien und belegt deren Innovationskraft auf dem Weg zur Kanzlei von morgen. Claudia Schieblon (Hrsg.): Digitalisierung und Innovation in Kanzleien. Springer Gabler 2022, 39,99 Euro.

Das letzte Wort hat Prof. Dr. Heinz Josef Willemsen, Rechtsanwalt und Lyriker

0

Veröffentlichungen hat Prof. Dr. Heinz Josef Willemsen viele. Er ist zum Beispiel Mitglied des Herausgeberkreises der Zeitschrift „Recht auf Arbeit“. Zudem ist er Verfasser zahlreicher Fachpublikationen. Ende 2021 wurde wieder ein Werk von ihm veröffentlicht. Diesmal allerdings kein Text zu rechtlichen und rechtspolitischen Themen, sondern ein Lyrikband. Die Fragen stellte Christoph Berger

Zur Person

Prof. Dr. Heinz-Josef Willemsen, Foto: Dr. Eva Maria von Ohlen
Prof. Dr. Heinz-Josef Willemsen, Foto: Dr. Eva Maria von Ohlen
Prof. Dr. Heinz Josef Willemsen, geboren 1953, ist Rechtsanwalt und Fachanwalt für Arbeitsrecht in Düsseldorf und Honorarprofessor an der Ruhruniversität Bochum. Zudem hielt er Vorträge an der Heinrich-Heine-Universität Düsseldorf zum deutschen und europäischen Arbeitsrecht. Und er war von 2011 bis 2019 Vorstandsmitglied des Deutschen Anwaltvereins. Bis 2020 beriet er Mandanten für eine internationale Großkanzlei zu hochsensiblen arbeitsrechtlichen Sachverhalten, häufig im Zusammenhang mit Umstrukturierungen, Verschmelzungen und Betriebsübertragungen. Und auch heute noch nimmt er als Einzelanwalt Mandate an. Am 11. März 2022 wurde Heinz Josef Willemsen mit dem Ehrenzeichen der Deutschen Anwaltschaft ausgezeichnet.
Herr Professor Dr. Willemsen, wie kamen Sie als Jurist zur Lyrik, und was fasziniert Sie an der Kunstgattung? Mein Interesse an der Lyrik ist durch persönliche Lebenserfahrungen entstanden, denen ich in Versform Ausdruck verleihen wollte – zunächst rein privat und ohne irgendwelche Ambitionen, sie zu veröffentlichen. Gereizt und fasziniert hat mich dabei von Anfang an die enorme sprachliche und gedankliche Freiheit, die der Dichter im Unterschied zum juristischen Autor hat. Welche Schnittmengen gibt es zwischen der juristischen Sprache und der Dichtkunst? Die Gemeinsamkeiten sind größer, als es auf den ersten Blick erscheinen mag. Beides mal geht es darum, mit den Mitteln der Sprache etwas zu bewirken – allerdings auf ganz unterschiedliche Weise und mit unterschiedlichen Zielen. Wie wichtig und relevant ist das sprachliche Ausdrucksvermögen für Juristinnen und Juristen? Es gehört meines Erachtens zu den Grundvoraussetzungen für eine erfolgreiche Karriere, gleich welcher Art, als Jurist oder Juristin. Darum habe ich die Hörerinnen und Hörer meiner Vorlesungen immer motiviert, sich möglichst frühzeitig um ihre rhetorischen Fähigkeiten zu bemühen, wo immer sich die Gelegenheit dazu ergibt, unter anderem durch aktive Teilnahme an Lehrveranstaltungen und Diskussionsforen. Wer Jurist oder Juristin werden möchte, sollte die Freude an der mündlichen und schriftlichen Gestaltung von Texten mitbringen, weil unter anderem davon der spätere berufliche Erfolg entscheidend abhängt. Verfolgen Sie ein Ziel mit Ihren Gedichten, wollen Sie Ihren Leserinnen und Lesern etwas mit auf den Weg geben? Ich würde das bejahen, auch wenn diese Intention keineswegs von Anfang an die Triebfeder für meinen Ausflug in die Welt der Lyrik gewesen ist. Man merkt aber beim Dichten schon, dass man durch prägnant und sprachlich originell formulierte Verse nicht nur bei sich, sondern auch bei anderen etwas in Bewegung setzen kann, nämlich das Nachdenken über Dinge, die uns im Innersten bewegen. Wichtig ist allerdings, dass man die Leser einerseits „an die Hand nimmt“, sie aber andererseits nicht zu belehren oder gar zu bevormunden versucht. Ihr Gedichtbuch trägt den Titel „Was wirklich zählt“. Was ist es, was tatsächlich zählt? Bei aller Bedeutsamkeit der beruflichen Entwicklung sind es letztlich doch die persönlichen Beziehungen und Gefühle, die unser Leben maßgeblich prägen und es überhaupt erst lebenswert machen. Ich halte es mit der Aussage der Bibel, wonach die Liebe „die Größte unter allen“ ist. Sie spielt daher auch in meinem Gedichtbuch eine wesentliche Rolle.  

Buchtipp

Cover was wirklich zähltDas Gedichtbuch. Heinz Josef Willemsen: Was wirklich zählt. Longinus 2021, 16 Euro

karriereführer künstliche intelligenz 2022.2023 – Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

0

Cover karriereführer künstliche intelligenz 2022.2023

Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

Es zieht sich wie ein roter Faden durch das gesamte Magazin: Künstliche Intelligenz kann den Menschen dabei unterstützen, bessere und schnellere Entscheidungen zu treffen. Einerseits. Andererseits wird immer deutlicher, dass KI, betrifft sie den Menschen direkt, auch durch den Menschen geprägt ist. Dessen Gedanken und Vorurteile fließen in sie. Genau hier braucht es Ansätze, dies zu verhindern. Audits und Zertifizierungen der KI werden daher für die verschiedensten Anwendungsbereiche gefordert. Zum Beispiel für den KI-Einsatz im Recruiting oder im Gesundheitswesen. Und die betroffenen Menschen müssen darüber informiert werden, dass Künstliche Intelligenz bei der Entscheidungsfindung eingesetzt wird.

E-Paper karriereführer künstliche intelligenz 2022.2023 – Der Mensch bestimmt! Neue KI-Perspektiven im Arbeitsleben

0
Ausgabe als PDF downloaden

Aufwind für denkende Menschen

Wer bei der KI an eine Superintelligenz denkt, die das Beste aus Menschen und Maschine kombiniert, sollte sich auf eine Enttäuschung gefasst machen. Da könne man ja auch versuchen, Leitern miteinander zu verbinden, bis man den Mond erreicht, wie ein Informatikprofessor aus Princeton vergleicht. Statt auf eine moralischmenschliche KI zu bauen, sollten wir Systeme entwickeln, die Probleme, Chancen und Ungerechtigkeiten offenlegen. Die Dinge dann zum Besseren zu verändern? Ist und bleibt die Aufgabe des denkenden Menschen.

Die US-Digitalexpertin und Autorin Frederike Kaltheuner hat eine Anthologie über die Künstliche Intelligenz geschrieben, die den für diese Zukunftstechnik wenig schmeichelhaften Titel „Fake AI“ trägt. Für das im Netz frei zugängliche Buch (zu finden unter: fakeaibook.com) haben diverse Autor*innen über die KI geschrieben. Zum Einstieg hat Frederike Kaltheuner den Informatik-Professor Arvind Narayanan interviewt, Hochschullehrer in Princeton, laut Ranking weltweit die elfwichtigste Hochschule im Bereich Computer Science. Wer hier lehrt, der beherrscht sein Fach. Im Interview sagt der Princeton-Professor einen bemerkenswerten Satz, im englischen Original lautet er: „Much of what is sold commercially today as ‘AI’ is what I call ‘snake oil’.“ Auf Deutsch: Vieles von dem, was heute unter dem Label KI verkauft werde, bezeichne er als „Schlangenöl“. Gemeint ist öliges Zeug, das zur Zeit des Wilden Westens von vermeintlichen Wunderheilern bei ihren „Medicine Shows“ verscherbelt wurde, gekoppelt an das Versprechen, diese Tinkturen würden gegen diverse Leiden helfen. Der Begriff hat es viele Jahre später von der Prärie in die Welt der Software geschafft: Als „snake oil“ werden ITProdukte bezeichnet, die Bemerkenswertes versprechen, davon jedoch fast nichts halten, zum Beispiel in der Praxis nutzlose Antiviren-, Festplattenaufräum- oder Arbeitsspeicherverdoppelungsprogramme. Arvind Narayanan trifft also ein hartes Urteil über viele der Versprechen der KI, macht aber eine wichtige Differenzierung: „Some are not snake oil.“ Einige Künstliche Intelligenzen wirkten, andere nicht. Wo also liegt der Unterschied?

Superintelligenz? Schlangenöl!

Seine Kritik fokussiert Arvind Narayanan an eine „Artificial General Intelligence“ (AGI), eine Allgemeine Künstliche Intel- ligenz, die in der Lage sei, nahezu jede intellektuelle Aufgabe zu erlernen. Eine solche Superintelligenz würde also das Problembewusstsein eines Menschen mit der Rechengeschwindigkeit von Supercomputern kombinieren; sie arbeite damit nicht mehr aufgabenspezifisch, sondern generell. Umfragen zeigten, sagt Narayanan, dass viele Menschen glaubten, diese Form von AGI stehe kurz vor der Realisation – womit ein Wendepunkt der menschlichen Zivilisation kurz bevorstehe. „I don’t think that’s true at all“, hält Narayanan dagegen. Er beschreibt die Vorstellung, die aktuellen Fortschritte im Bereich der Künstlichen Intelligenz könnten zu einer solchen „Artificial General Intelligence“ führen, mit dem Versuch, eine immer längere Leiter zu bauen, um damit den Mond zu erreichen. Kurz: die Vorstellung einer AGI sei „absurd.“

KI in der Lehre

Die Friedrich-Schiller-Universität Jena und die Technische Universität Ilmenau starteten Ende 2021 ein Forschungsprojekt, das es ihren Studierenden und Lehrenden ermöglicht, Kenntnisse und Fähigkeiten über Künstliche Intelligenz zu erlangen. „Angesichts der zunehmenden Durchdringung nahezu aller Bereiche der Gesellschaft mit Künstlicher Intelligenz, werden KI-Angebote nicht nur für MINT-Studiengänge, sondern für das gesamte Studienangebot der beiden Universitäten entwickelt“, heißt es in einer gemeinsamen Pressemitteilung der Hochschulen. Bislang seien solche Verfahren vor allem in der Informatik und in ingenieurtechnischen Fachbereichen entwickelt und eingesetzt worden, „doch sind Kenntnisse und Fähigkeiten über Künstliche Intelligenz auch in naturwissenschaftlichen und zunehmend in geistes- und sozialwissenschaftlichen Bereichen nützlich und künftig immer notwendiger. Daher werden für Universitätsabsolventen und -absolventinnen KI-Kompetenzen in Zukunft wichtige Voraussetzung für einen erfolgreichen Karriereeinstieg sein. Und diese sorgen wiederum dafür, dass KI-Kenntnisse verstärkt in Wirtschaft und Gesellschaft transferiert werden“, erklärt das Pilotprojekt seinen Ansatz.
Bei den Bereichen, in denen die Menschen laut Arvind Narayanan besonders anfällig für „Schlangenöl-KI“ seien, steche eines besonders hervor: das Recruiting. Dass man hier auf Künstliche Intelligenz hoffe, liege daran, dass die Not hier besonders groß sei – weil halt niemand vorhersagen könne, ob eine neu eingestellte Person tatsächlich im Job überzeugen werde oder nicht. Recruiting ist ein Spiel im Nebel – umso begieriger greife man zum „Snake Oil“, in der Hoffnung, dass die KI diesen Nebel lichten möge. Was sie natürlich nicht könne: Es gebe, sagt Arvind Narayanan im Interview im Buch „Fake AI“, mittlerweile eine Reihe wissenschaftlicher Studien, die gründlich der Frage nachgegangen seien, wie gut KI-Systeme darin sind, soziale Folgen von Entscheidungen abzuschätzen, zum Beispiel der, wen man für einen neuen Job einstellt und wen nicht. Das Ergebnis: „Die KI schneidet gerade so besser als der Zufall ab.“

Recruiting für KI an die Grenzen

Eine Meldung zu den Human Ressource-Trends für das Jahr 2022 des Talent-Lösungs-Anbieters Robert Half scheint dieser Ansicht zu widersprechen. KI werde „bei der Suche nach geeigneten Bewerber*innen eine unterstützende Rolle spielen“, wird Sven Hennige, Senior Managing Director Central Europe bei Robert Half, in einer Pressemeldung zu HR-Trends im Jahr 2022 zitiert. Basis der Analyse ist die Befragung von 300 Manager*innen mit Personalverantwortung in kleinen, mittelgroßen und großen deutschen Unternehmen. Dabei zeigen sich zwei Einsatzgebiete der Systeme: Zum einen setzen Personalabteilungen sie ein, um Termine für Bewerbungsgespräche zu koordinieren oder formale Anforderungen in den Unterlagen prüfen, um so den Kreis der Kandidat* innen zu definieren. Das sind alles Routinearbeiten im Vorfeld, hier übernimmt die Künstliche Intelligenz eine Reihe von Prozessen, die den Menschen viel Zeit kosten. Der positive Effekt: Die HR-Spezialisten können sich auf ihre wahre Arbeit fokussieren. Kein „snake oil“, sondern echte Hilfe. Doch die Befragten nannten noch ein weiteres Einsatzfeld für die KI im Bereich des Recruiting: Sie könne auch dafür genutzt werden, auf Basis einer passenden Datenbasis zu entscheiden, ob jemand anhand der fachlichen Skills für den Job geeignet sei – und zwar unabhängig von den sonstigen Merkmalen dieser Person. „Die Entscheidung richtet sich dann zum Beispiel nicht danach, ob es sich bei dem Bewerber um einen Mann oder eine Frau handelt“, so Hennige in der Pressemeldung. Seine Schlussfolgerung: „KI soll Bewerbungsverfahren bestenfalls auch fairer machen. Denn: Menschen sind nicht immer vorurteilsfrei.“ Das stimmt. Der Haken an der Sache ist nur: Das stimmt dann aber auch für die Künstliche Intelligenz. Schließlich wird sie von den vorurteilsbehafteten Menschen gestaltet.

KI in der Industrie: Muster erkennen

Ein Blick in die industrielle Praxis zeigt, wo Künstliche Intelligenz aktuell in den großen deutschen Unternehmen zum Einsatz kommt. Siemens vermeldet in einem Pressetext, die KI gestalte die Produktion in der Industrie „effizienter, flexibler und zuverlässiger“. Konkrete Anwendungen seien „Spracherkennung zum Bearbeiten einfacher Aufträge, das Erfassen von Umgebungen mittels Kameras, Laser- oder Röntgenstrahlen bis hin zu virtuellen persönlichen Assistenten in der Logistik“, heißt es in der Meldung zu den industriellen Anwendungsfeldern der KI. Ihre Stärke spielten die Systeme dann aus, wenn es um die Analyse der digitalen Informationen gehe, die im Zuge der Industrie 4.0 anfielen: „In den Datenmengen einer Fabrik können mittels intelligenter Softwarelösungen Trends und Muster erkannt werden, die dabei helfen, effizienter oder energiesparender zu fertigen“, heißt es bei Siemens. „Mit steigender Vernetzung kann die KI-Software lernen, auch ‚zwischen den Zeilen‘ zu lesen. Dadurch lassen sich viele komplexe Zusammenhänge in Systemen aufdecken, die der Mensch noch nicht oder nicht mehr überblicken kann.“

Magazin zu KI-Gestaltungen und -Erfahrungen

TATuP – Zeitschrift für Technikfolgenabschätzung in Theorie und Praxis“ nennt sich ein Open Access-Zeitschriftenprojekt des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS). Es erscheint beim Oekom-Verlag, der PDF-Zugriff ist gratis. Die Ausgabe 30, erschienen Ende 2021, widmet sich dem Thema „KI-Systeme gestalten und erfahren“ – ein Titel, der impliziert, dass es Menschen sind, die bei der Entwicklung der KI-Systeme die Gestaltungsrolle übernehmen. In ihren Texten betrachten die Autor*innen u.a. die juristischen oder demokratietheoretischen Rahmenbedingungen von KI sowie die Frage, wie sich solche Systeme in Hinblick auf Akzeptanz und Vertrauen mitarbeiterfreundlich implementieren lassen.
Bosch stellt in einer Story auf der Konzernhomepage die KI-Perspektiven in seinen weltweit 240 Werken vor, in denen vernetzte Produktionssysteme im Einsatz sind. Hier entstehen „KI-basierte Regelkreise, die sich selbst regulieren oder optimieren und ganz nebenbei auch noch eine Liste möglicher Problemursachen bereitstellen“, heißt es. Die Vorteile sieht Bosch darin, dass diese Modelle in der Lage seien, „Fehler zu erkennen und zu vermeiden, die Menschen oder herkömmliche Systeme nur schwer wahrnehmen können.“ Die Künstliche Intelligenz werde den Unternehmen darüber hinaus ermöglichen, „ihre Produkte ohne aufwändigere Prozesse deutlich stärker zu individualisieren“ sowie dazu beizutragen, „Roboter in bisher undenkbaren Bereichen zu etablieren“, indem die KI hier dafür sorge, dass sich der Lernaufwand für Roboter reduziere, deren „Sehvermögen“ verbessere und ein „Transferlernen“ zwischen Robotern ermögliche.

Auf dem Weg zur nachhaltigen Lieferkette

Bei Audi setzt man laut Pressmeldung aus dem Sommer 2021 darauf, KI-Methoden für einen besonders komplexen Bereich einzusetzen: den Einblick in die Lieferkette in der Automobilproduktion. Gerade diese Komplexität sorge dafür, dass es wichtig sei, „mögliche Risiken zu verstehen und Zusammenhänge frühzeitig herzustellen“, heißt es in der Pressemeldung. Im Herbst 2020 startete Audi ein Pilotprojekt: In weltweit rund 150 Ländern analysieren intelligente Algorithmen Nachrichten über Lieferant*innen aus online zugänglichen öffentlichen Medien und sozialen Netzwerken. „Geprüft werden Nachhaltigkeitskriterien wie Umweltverschmutzung, Menschenrechtsverstöße und Korruption. Besteht der Verdacht auf potenzielle Nachhaltigkeitsverstöße, schlägt die Künstliche Intelligenz Alarm“, heißt es in der Pressemeldung. Entwickelt wurde die dafür eingesetzte KI vom österreichischen Start-up Prewave. „Machine Learning und automatisierte Sprachverarbeitung machen so möglich, was manuell ein Ding der Unmöglichkeit wäre: kontinuierliche Risikoabschätzungen über die gesamte Lieferkette hinweg, mit denen die Beschaffung dann proaktiv auf die Lieferant* innen zugehen kann“, wird Harald Nitschinger, CEO von Prewave, in der Audi-Pressemeldung zitiert.

KI in der Verwaltung

Wegen seiner Analysekraft im Dickicht der Datenmenge ist die Künstliche Intelligenz ein kluges System für die öffentliche Verwaltung. Das zeigt auch eine Studie des ITBeratungsunternehmens Adesso: 65 Prozent der befragten Entscheidungsträger gaben an, dass Investitionen in die KI mittelfristig mit Vorteilen einhergingen, jedoch gaben 77 Prozent der Befragten an, der eigene Verwaltungsbereich sei derzeit noch „mittelmäßig“ bis „schlecht“ aufgestellt. Die höchste Hürde auf dem Weg der Künstlichen Intelligenz in die öffentliche Verwaltung sei das mangelnde Fachwissen: „26 Prozent der Entscheiderinnen und Entscheider sehen darin das Hauptproblem“, heißt es im Management-Summary der Studie. Vor allem für den Einstieg in die neue Technik fällt vielen schwer: Jeder vierte Befragte aus der öffentlichen Verwaltung sei laut Studie davon überzeugt, dass es im jeweiligen Aufgabenbereich überhaupt noch kein Einsatzszenario für KI-Anwendungen gebe.
Die Fallbeispiele aus der industriellen Praxis zeigen: Zum Einsatz kommt Künstliche Intelligenz in den Unternehmen vor allem dort, wo die Menge und Tiefe an Informationen das menschliche Gehirn komplett überfordert. Welche dieser Daten relevant sind und welche nicht – diese Regeln gibt weiterhin der Mensch vor. Das muss er auch, denn eine KI weiß von sich aus nichts über Menschenrechte oder das Fehlverhalten der Korruption. Daraus folgen zwei Dinge: Erstens bleibt der Mensch das bestimmende Element, zweitens bringt er damit weiterhin seine moralischen Vorstellungen, aber auch Vorurteile ins Spiel. Darauf zu bauen, die KI könnte sich aus eigener Motivation heraus zu einer fairen, gerechten oder sogar moralischen Instanz entwickeln, ist der Glaube ans „snake oil“.

Menschen machen Maschinen

Was die KI-Systeme aber durchaus leisten können: Prozesse in Gang zu setzen, die den Menschen dabei helfen, unfaire und ungerechte Strukturen offensichtlich zu machen. Und zwar auch in einem Bereich wie dem Recruiting, wo die KI fehlende Diversity erkennbar machen kann. „Entscheidend ist dabei ein Verständnis der verschiedenen ‚Superkompetenzen‘ von Mensch und Maschine“, schreiben die Trendforscher* innen vom Zukunftsinstitut in ihrem „Trendausblick 2022“. „Computer sind unschlagbar im Rechnen und in der Mustererkennung, doch nur Menschen können denken, fühlen, Kontexte erfassen und kreativ schöpferisch sein.“ Die eigentliche Zukunftsbestimmung intelligenter Technologien werde deshalb darin bestehen, die Erschließung dieser genuin menschlichen Potenziale zu unterstützen. Kurz: Der Job der Künstlichen Intelligenz sollte es sein, dem denkenden Menschen Aufwind zu geben.

Der digitale Humanist Prof. Dr. Dr. h. c. Julian Nida-Rümelin im Interview

Julian Nida-Rümelin zählt zu den bekanntesten philosophischen Denkern Europas. Seit einigen Jahren widmet er sich der Frage, wie sich ein digitaler Humanismus gestalten lässt, der ethische Fragen nicht zugunsten einer blinden Technikgläubigkeit ausgrenzt. Im Interview berichtet der Philosoph von gedanklichen Schieflagen, die entweder die Künstliche Intelligenz überhöhen oder den Menschen als Maschine interpretieren. Seine Forderung: Der Mensch bleibt der Autor seines Lebens, die KI ist sein komplementäres Werkzeug, mit dessen Hilfe er die immensen Probleme der globalen Gesellschaft löst. Die Fragen stellte André Boße.

Zur Person

Prof. Dr. Dr. h. c. Julian Nida-Rümelin absolvierte ein Doppelstudium Physik und Philosophie und war bis 2020 Professor für Philosophie und politische Theorie an der Ludwig-Maximilians-Universität in München, er ist Honorarprofessor an der Humboldt Universität Berlin und wirkt als Gastprofessor an ausländischen Hochschulen. Er ist Mitglied mehrerer Akademien und Direktor am Bayerischen Forschungsinstitut für digitale Transformation. Er wechselte für fünf Jahre von der Wissenschaft in die Kulturpolitik, zunächst als Kulturreferent von München und anschließend als Staatsminister für Kultur und Medien im ersten Kabinett Schröder. Er publiziert regelmäßig Zeitungsartikel, Bücher und wissenschaftliche Aufsätze und hält Vorträge in Unternehmen und Verbänden. Zuletzt erschienen ist sein Buch „Die Realität des Risikos: Über den vernünftigen Umgang mit Gefahren“. https://julian-nida-ruemelin.com
Herr Prof. Nida-Rümelin, Sie nutzen den Begriff des Digitalen Humanismus seit Mitte der 00er-Jahre, 2018 erschien Ihr Buch zu diesem Thema. Welchen Stellenwert nimmt der Digitale Humanismus heute, im Jahr 2022, ein? Ich bin auf der einen Seite positiv überrascht, da wir einige erstaunliche Entwicklungen beobachten. In Wien ist die Initiative „Digital Humanism“ gegründet worden, es sind interessante Bücher erschienen, in Dokumenten der EU finden sich Begriffe wie „human centred AI“, Enrico Letta, der ehemalige Ministerpräsident von Italien, hat gesagt, es gebe für Europa zwei große Ziele, einmal das Klima aber eben auch die Gestaltung eines digitalen Humanismus. Die Debatte ist also breiter geworden, was aber immer auch einen negativen Effekt impliziert: Unser Ansatz ist dadurch verwässert worden. Woran machen Sie das fest? Wenn davon geredet wird, wir müssten neue Kooperationen zwischen Menschen und Maschinen etablieren, dann bin ich zunächst einmal einverstanden. Man darf nur nicht denken, dass es da auf der Seite der Maschine jemanden gibt, mit dem man tatsächlich kooperieren könnte. Den gibt es nicht? Nein. Zu denken, eine Maschine wäre unser Kooperationspartner in dem Sinne, dass wir gemeinsam mit ihm handeln, ist eine animistische Vision. Denn in einer Maschine steckt niemand, kein Akteur, keine subjektive Perspektive, keine Person. Der Mensch neigt ständig dazu, Dinge zu „vermenschlichen“, von Computern bis zum Auto. Warum ist das eigentlich so? Das ist eine spannende philosophische Frage, für deren Beantwortung wir ein paar Jahrhunderte zurück in die Zeit gehen müssen. Es gab damals allerhand Begebenheiten, für die man keine wissenschaftliche Erklärung hatte. Warum gibt es die Jahreszeiten? Warum geht die Sonne abends unter und morgens zuverlässig wieder auf? Zu sagen: „Ist halt so“ – das liegt dem Menschen nicht. Da, wo er keine Interpretationen oder Erklärungen hat, sucht er sich welche. Mein Lieblingsbeispiel sind die Regentänze: Ist es zu lange trocken, sagen sich die Leute, so kann es nicht weitergehen, wir müssen etwas dagegen tun – und da es sich bei der Dürre vielleicht um eine Bestrafung der Götter handelt, tanzen wir ihnen zu Ehren. Und, potzblitz, kommt irgendwann danach der Regen. Schon bestätigt sich für diese Menschen empirisch die Praxis: auf den Regentanz folgt der Regen. Dass dieser auch ohne den Tanz gefallen wäre, wer will denn das beweisen können? Interessant ist nun, dass sich diese animistische Sichtweise bis heute gehalten hat. Wenn Sie den Wetterbericht schauen, dann hören Sie ständig Formulierungen wie: „Der Sonne wird es nicht gelingen, die Wolkendecke zu durchdringen.“ Auch gibt es Hoch- und Tiefdruckgebiete, die gegeneinander kämpfen, und im Falle einer Flut bahnt sich das Wasser einen Weg, als sei es intelligent unterwegs. Bildhafte Sprache kommt bei den Menschen besser an. Klar, das nimmt auch niemand ernst. Aber beim Thema der Software-Entwicklung und der Künstlichen Intelligenz ergibt sich daraus ein Problem: Wir Menschen designen die Applikationen so, als ob sie Präferenzen hätten, als ob sie uns Ratschläge gäben – und dann sagt man hinterher: „Hoppla, so, wie sich diese Maschinen verhalten, müssen sie ja eben doch mentale Zustände aufweisen.“ Dabei – und das ist der Selbstbetrug – haben wir Menschen die Software so designt, dass sie sich so verhält. Warum dieser Selbstbetrug? An dieser Stelle geht es von der Philosophie in die Tiefenpsychologie. Wobei wir dabei besonders über junge Männer sprechen müssen, schließlich sind fast 85 Prozent der Software-Entwickler im Silicon Valley männlich. E.T.A. Hoffmann erzählt in seinem „Sandmann“ die Geschichte einer Beziehung zwischen dem Helden und einer von ihm verehrten roboterhaften Puppe namens Olimpia, in die er ein Leben hineininterpretiert, das gar nicht existiert. „Homo Deus“ heißt es im Bestseller von Yuval Noah Harari: Der Mensch macht sich göttlich, indem er etwas erschafft, nämlich eine Künstliche Intelligenz als ein Gegenüber mit menschlichen Eigenschaften. Die Angst davor, die KI könnte uns eines Tages in Sachen Intelligenz überholen, ist also hausgemacht? Wer fragt, wann die Künstliche Intelligenz der Intelligenz des Menschen überlegen sein wird, der bekommt von mir die Antwort: Das ist sie doch schon längst! Jeder Taschenrechner ist dem Menschen überlegen. Wenn es ums Rechnen geht. Exakt. Die Leistung eines Taschenrechners ist recht einfach zu beschreiben. Er rechnet wahnsinnig gut, mehr kann er nicht. Die Intelligenz von Menschen ist hingegen sehr komplex. Wir lösen keine mathematischen Einzelprobleme so gut, wie ein Taschenrechner das kann. Was wir aber haben, ist die Fähigkeit, uns in Gesellschaften zu orientieren und zu verstehen, was andere meinen. Das emotionale und das kognitive Wissen sind unzertrennbar miteinander verknüpft, das weiß man heute. Wenn man also Softwaresystemen in diesem Sinne die Intelligenz eines Menschen zuschreibt oder auch eines hochentwickelten Säugetiers, dann bitte keine Rosinenpickerei!
Wenn wir der KI emotionale Intelligenz zuschreiben, zum Beispiel Einstellungen, Erwartungen, Einschätzungen, Bewertungen, Befürchtungen – dann entgegne ich den Euphorikern der KI: Wenn dem so wäre, dann Vorsicht, denn dann müssten wir den autonomen, hochentwickelten Softwaresystemen doch auch Rechte und auch eine Würde zukommen lassen, oder nicht?
Heißt? Wenn wir der KI emotionale Intelligenz zuschreiben, zum Beispiel Einstellungen, Erwartungen, Einschätzungen, Bewertungen, Befürchtungen – dann entgegne ich den Euphorikern der KI: Wenn dem so wäre, dann Vorsicht, denn dann müssten wir den autonomen, hochentwickelten Softwaresystemen doch auch Rechte und auch eine Würde zukommen lassen, oder nicht? Wir könnten sie nicht mehr wie Dinge, technische Werkzeuge behandeln, sondern müssten Rücksicht nehmen. Ich halte die zunehmende Humanisierung in der Robotik für eine Fehlentwicklung. Nehmen Sie Roboter in der Pflege, ich finde ihren Einsatz absolut richtig, aber warum sollen sie in ihrer Gestalt dem Menschen ähneln, was bringt das? Es gibt das Argument, dem Menschen gefalle das, aber das lässt sich durch Studien widerlegen: Die meisten empfinden es eher als unheimlich. Ich hinterfrage dazu den Sinn: Maschinen sollten Menschen nicht ersetzen, sondern sie in ihrer Autorschaft und Gestaltungskraft stärken, indem wir ihnen durch die KI-Systeme Instrumente an die Hand geben, mit denen sie in der Lage sind, die großen Probleme unserer Zeit zu lösen. Was würde eine solche komplementäre KI leisten? Die globale Gesellschaft wird zum Beispiel einen Weg finden müssen, den Menschen in den Ländern Afrikas oder auch Asiens die Möglichkeit einer ökonomischen Wachstumsentwicklung zu geben, ohne, dass diese zu den hohen ökologischen Kosten führen wird, wie das in der westlichen Gesellschaft der Fall war. Es wird also darum gehen, ökonomische und ökologische Bilanzen zusammenzubringen. Das ist überaus komplex. Aber dazu könnten Softwaresysteme, digitale Tools einen wichtigen Beitrag leisten. Wobei sie den Menschen damit eben nicht marginalisieren, sondern seine Wirkungskraft stärken. Sie sprachen gerade von der Autorenschaft des Menschen. Ist die KI in diesem Sinne eines von vielen Werkzeugen, mit denen der Mensch das Leben schreibt? Das wäre die Rolle, die ich ihr als Philosoph zuweisen möchte, ja. Wobei ich auf eine Sicht hinweisen möchte, die sich als eine Art Gegenpol zum Animismus entwickelt hat: Der Mechanismus folgt der Interpretation, beim Menschen handele es sich auch nur um eine Maschine, und das Gehirn sei eine Hardware, auf dem eine Software läuft. Es gibt ja bereits Versuche, die Bauweise des Gehirns immer weiter zu entschlüsseln, um Maschinen zu konstruieren, die mit Hilfe von Ansätzen wie Deep Learning unserem Gehirn nahekommen. Auch dieser mechanistische Blick auf den Menschen ist übrigens nicht neu. Als die ersten Uhrwerke erfunden wurden, waren die Menschen davon so fasziniert, dass sie sich selbst und ihr Leben wie ein solches Uhrwerk vorgestellt haben. Sich das menschliche Denken als ein algorithmisches System vorzustellen, das sich durch eine Software simulieren ließe, ist quasi ein Update dieses Gedankens. Der Animismus überhöht die KI, der Mechanismus macht den Menschen klein. Was ist das richtige Verhältnis? Wir Menschen gestalten die digitale Technik und sorgen zu jeder Zeit für genügend Transparenz, um nicht nur zu wissen, was der Output eines KI-Systems ist, sondern auch zu wissen, was genau im System vor sich geht. Denn ansonsten ergibt sich ein ethisches Problem, das man sich am Autonomen Fahren veranschaulichen kann. Angenommen, eine Künstliche Intelligenz steuert ein autonom fahrendes Auto und entwickelt dafür aus sich heraus Algorithmen, die der Mensch nicht mehr durchschaut. Der TÜV weiß dann zwar, dass das System meist gut funktioniert. Aber er weiß nicht mehr, wie es funktioniert. Die Frage ist nun, darf der TÜV dieses Auto dann auf die Straße lassen oder nicht? Eine Antwort darauf müssen wir finden, wobei der Königsweg wäre: Wir geben als Menschen die Kontrolle über die Systeme nicht vollständig ab, im Jargon: Wir stoppen auf Level Four, also auf dem autonomen Modus „Hochautomatisierung“, bei dem der Mensch im Notfall noch eingreifen kann, und geben autonomes Fahren als Ziel für den allgemeinen Individualverkehr auf.

Zum Buch:

Digitaler Humanismus

cover digitaler humanismusAutonomer Individualverkehr und Pflege- Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie, Clever-Bots, Industrie 4.0: Die Digitalisierung besitzt gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt das von Julian Nida-Rümelin und Nathalie Weidenfeld verfasste Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Die Autoren verstehen ihr Buch als eine „Alternative zur Silicon-Valley-Ideologie, für die Künstliche Intelligenz zum Religionsersatz zu werden droht.“ Julian Nida-Rümelin, Nathalie Weidenfel: Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper 2020, 12 Euro

KI im Bewerbungsverfahren

Künstliche Intelligenz kommt immer häufiger im Bewerbungsverfahren zum Einsatz. Eingehende Bewerber*innen-Daten werden durch die Technik gefiltert und geordnet. Doch diese Vorgehensweise ist nicht unumstritten und mit einer Menge Problemen behaftet. Lernen die Algorithmen doch mit vorhandenen Daten. von Christoph Berger

Es ist ein großes Versprechen, dass Entwickler von Künstlicher Intelligenz machen: Durch ihren Einsatz soll es zu weit besseren Entscheidungen kommen als wenn diese Menschen treffen würden. Die Entscheidungen würden zudem effizient und transparent getroffen. Dies gelte auch bei der Auswahl von Kandidat*innen für zu besetzende Stellen in Unternehmen. Doch sind solche „Bewerbungsalgorithmen“ tatsächlich frei von Diskriminierungen? „Die Gefahr einer solchen Diskriminierung besteht bei Bewerbungsalgorithmen ganz klar“, sagt Prof. Dr. Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. „Geht es direkt um die Bewertung, müssen Beispiele für „gute Mitarbeiter“ oder „qualifizierte Mitarbeiter“ gefunden werden. Schon die Kriterien hierfür können verzerrend sein, wenn zum Beispiel bestimmte Verhaltensweisen oder kulturelle Codes implizit vorausgesetzt werden“, erklärt Matzner weiter. Selbst wenn sich hier einigermaßen objektive Kriterien zur Bewertung finden lassen könnten, sei das Problem, dass die Beispiele, die es schon gebe, existierende Diskriminierungen abbilden würden. In einem Betrieb, der tendenziell mehr Männer einstelle, werde die Mehrheit der Hochqualifizierten männlich sein, so der Wissenschaftler. Auch Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Eberhard Karls Universität Tübingen erkennt ein reales Risiko für Diskriminierungen durch den Einsatz von Algorithmen für die Personalauswahl. „Zum Beispiel kann es sein, dass es „Lücken“ in einem beruflichen Lebenslauf gibt aufgrund von Betreuungszeiten für Kinder oder kranke Verwandte. Diese Lücke kann durch einen Bewerbungsalgorithmus detektiert und schlecht bewertet werden, ohne den Kontext zu kennen.“ Das könne auch passieren, wenn eine menschliche Personalverantwortliche die Entscheidung treffe, ergänzt sie. „Aber hier gibt es doch eine bessere Chance, den Kontext in den Blick zu nehmen und gegebenenfalls gerade einen solchen Aspekt positiv oder zumindest nicht negativ zu bewerten.“

Transparenz gewährleisten

Sollte KI im Kontext dieser Argumente gänzlich aus dem Bewerbungsprozess rausgehalten werden? „Um einer ungerechtfertigten Schlechterstellung von Menschen durch Algorithmen vorzubeugen, gibt es verschiedene Maßnahmen. Dazu gehören die Sicherstellung einer hohen Qualität der Trainingsdaten, die Durchführung von Überprüfungen durch zum Beispiel Audits und entsprechend die rechtlichen Regulierungsanforderungen, um diese Maßnahmen in der Praxis verpflichtend zu machen“, sagt Jessica Heesen. Vor diesem Hintergrund sei es gut möglich, ADM-Systeme (ADM – Algorithmic Decision Making) bei der Personalauswahl zu nutzen, die menschliche Entscheidungen besser machen könnten. Doch: Die Auswahl sollte nie nur auf ein ADM-System zurückgehen. Und wenn ein solches System einbezogen werde, sollten die Bewerber*innen darüber in Kenntnis gesetzt werden.
Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.
Weniger optimistisch bewertet Tobias Matzner den KI-Einsatz: „Das zentrale Problem ist nicht, dass Algorithmen mehr oder weniger diskriminieren als Menschen, sondern anders.“ Zwar würden sich mittels Algorithmen tatsächlich einige Probleme, so man sie denn bedenkt, gut ausblenden lassen. Dafür würden neue auftreten. Matzner sagt: „In ADS (algorithmic decision-making systems) entstehen zum Beispiel oft sogenannte Stellvertreter-Merkmale (proxies). Hier korrelieren Zusammensetzungen von diversen, vermeintlich harmlosen Merkmalen mit gesetzlich geschützten Eigenschaften wie Geschlecht oder Herkunft. Oft sind diese Kombinationen aber so komplex, dass sie von Menschen nur schwer als diskriminierend zu durschauen sind.“ Zudem hätten Algorithmen einen anderen Impact: Beispielsweise habe ein sexistischer Personaler nur Einfluss auf die Entscheidungen, die über seinen Tisch gehen würden. Ein sexistischer Algorithmus betreffe hingegen das gesamte Unternehmen. Oder je nach Verbreitung sogar viele Unternehmen.

Zwingende Überprüfungen

Tobias Matzner hält eine unabhängige Überprüfung der Algorithmen daher für zwingend erforderlich. Eine Auditierung müsse alle Elemente – Grundannahmen, Modell, Einsatzformen und so weiter – in Zusammenhang stellen. Er sagt: „Dazu kommt: Gerade datengetriebene Systeme können während der Anwendung diskriminierende Eigenschaften entwickeln. Ein Audit a priori kann also nur einen Teil der Probleme erfassen. Deshalb muss eine solche Maßnahme immer ergänzt werden mit einem Recht auf Auskunft, Beschwerdestellen oder andere Maßnahmen, an die sich potenziell Betroffene wenden können.“
Europäische Union: Excellence and trust in artificial intelligence
Auch Jessica Heesen fordert eine transparente und nachvollziehbare Auditierung. Sie erklärt: „Im Regulierungsvorschlag für Künstliche Intelligenz (KI) der EU vom April 2021 werden vier Risikokategorien zur Klassifizierung von KI vorgeschlagen. Algorithmische Entscheidungssysteme werden sehr häufig mit KI-Anwendungen kombiniert. Die Nutzung von KI im Personalmanagement wird hier explizit als „hohes Risiko“ eingestuft, weil es hierbei um die Realisierung von Lebenschancen geht.“ KI-Anwendungen mit einem hohen Risiko würden nach diesem Regulierungsvorschlag einer Konformitätsbewertung unterliegen und müssen registriert werden. Für diese Bewertung kämen dann unabhängige Stellen in Frage, aber auch eine Durchführung der Überprüfung in eigener Verantwortung sei denkbar. Laut Heesen sei der Vorschlag hier noch nicht eindeutig. „Welche Modelle für die Auditierung genutzt werden sollten, kann jetzt noch nicht zufriedenstellend beantwortet werden. Dazu brauchen wir noch weitere Diskussionen in Wissenschaft und Gesellschaft sowie Regulierungs- und Standardisierungseinrichtungen.“

Mit Daten zur Baustelle der Zukunft

Seit April 2020 arbeiten im Rahmen des ESKIMO-Projekts zwölf Partner aus Wissenschaft und Industrie an innovativen Konzepten für die Baustelle der Zukunft. Im Herbst 2021 lagen die ersten Ergebnisse der Basistechnologiemodule vor. Und es wurde mit der Umsetzung der darauf aufbauenden Projektpiloten begonnen. Von Christoph Berger

Das Ziel des ESKIMO-Projekts ist klar definiert: Es soll ein effizientes Baumanagement realisiert werden. Vor allem in den Bereichen der automatisierten Unterstützung der technischen Qualitätssicherung, der kaufmännischen Qualitätssicherung sowie der Baulogistik. Ein zentraler Teil aller Projektpiloten sind Bilderkennungsalgorithmen. KI-Algorithmen interpretieren von Kamerasystemen, Smartphones oder Tabletcomputern aufgenommenes Bildmaterial. Das Karlsruher Institut für Technologie (KIT) hat dazu beispielsweise ein Modul zur Bilderkennung bereitgestellt, das unterschiedliche Situationen auf der Baustelle erkennt und mit einem Soll-Zustand abgleicht. So lassen sich zum Beispiel Mängel schnell finden, die daraufhin im Modell angezeigt und entsprechend weiterverarbeitet werden. Auch die Bauleitung bekommt die Mängel direkt auf ihre Mobil Devices übertragen. Hierfür wurde sogar eigens eine Helmkamera konzipiert, die bereits auf einer Großbaustelle in Darmstadt zum Einsatz kam. Beim Durchlaufen des Bauwerks erkennt die Kamera ihr Umfeld und nimmt quasi im Vorbeigehen die Mängel auf. Zum Beispiel Risse in den Wänden oder falsch montierte Türgriffe. Doch für einen solchen Soll-Ist-Abgleich beziehungsweise für das Erkennen solch komplexer Bilderkennungsverfahren braucht es als Voraussetzung ausreichend große Trainings- und Testdaten. Die Bauunternehmung Karl Gemünden GmbH & Co. KG und die Ed. Züblin AG haben dafür eine große Bilddatenbank mit annotierten Bildern erstellt, die die Grundlage bildet. Zur Halbzeit des Projekts, im März 2021, hatte die Bauunternehmung Gemünden alleine über 100.000 Bilder zur Verfügung gestellt, tausende Bilder sortiert und verschlagwortet sowie rund 55.000 Labels erstellt. Insgesamt standen damals über 200.000 Bildaufnahmen zur Verfügung.
Wir können unser Personal viel effizienter einsetzen, wenn der Polier die Materialbestände nicht mehr per Hand erfassen muss und der Bauleiter Mängel per Knopfdruck an Handwerksfirmen weiterleiten kann.
Künstliche Intelligenz wird darüber hinaus auch zur Orientierung im Bauwerk genutzt. Die Wissenschaftler vom Fraunhofer IOSB und der Hochschule Darmstadt haben das Thema der Echtzeitpositionserkennung bearbeitet. Das IOSB beschäftigte sich hierbei insbesondere mit einem Modul zum topologischen Abgleich von BIM-Modell und Realität. Bei einem BIM-Modell handelt es sich um einen digitalen Zwilling des entstehenden Bauwerks. Die Hochschule Darmstadt arbeitet an der Echtzeit-Positionsermittlung mithilfe von Sensortechnik zur Optimierung der Bauabläufe. Beide Forschungspartner konnten seit dem letzten Projektupdate im März erste Prototypen ihrer Arbeit fertigstellen, die bereits vielversprechende Ergebnisse liefern. Derzeit arbeiten die Projektbeteiligten daran, die entwickelten Module zu den drei Projektpiloten zusammenzuführen. Danach sollen auch bereits erste Erprobungen auf der Baustelle und mit echten Daten durchgeführt werden. Für die Baubranche könnte das „ESKIMO“-Projekt einen Quantensprung bedeuten, wie Bauunternehmer Tim Gemünden in einer von der Hochschule Darmstadt veröffentlichten Mitteilung sagt. Demnach sei zwar jede Baustelle anders, was die Sache mit den automatisierten Prozessen wesentlich komplizierter als beispielsweise in der industriellen Fertigung mache. Doch mit Künstlicher Intelligenz ließen sich sämtliche Baustellenprozesse optimieren, Kosten sparen und – „ganz wichtig in unserer vom Fachkräftemangel geprägten Branche: Wir können unser Personal viel effizienter einsetzen, wenn der Polier die Materialbestände nicht mehr per Hand erfassen muss und der Bauleiter Mängel per Knopfdruck an Handwerksfirmen weiterleiten kann“.

Der ideale Algorithmus für KI im Gesundheitswesen

Amerikanische Wissenschaftler haben in einem Review eine Checkliste für ideale Algorithmen im Gesundheitswesen vorgestellt. Sechs Eigenschaften sind laut Aussagen der Forscher dafür notwendig. Von Christoph Berger

„Der Umfang und die Komplexität menschlicher Krankheiten stellen besondere Herausforderungen an die klinische Entscheidungsfindung“, schreiben die Wissenschaftler in der Einleitung ihres Artikels „Ideal algorithms in healthcare: Explainable, dynamic, precise, autonomous, fair, and reproducible“, der im Januar dieses Jahres im Fachjournal „PLOS Digital Health“ erschien. Die 10. Revision des Klassifikationssystems der Internationalen Statistischen Klassifikation der Krankheiten und verwandter Gesundheitsprobleme (ICD) würde etwa 68.000 Diagnosecodes umfassen. Und da Patienten nahezu jede Kombination dieser Diagnosen haben könnten, würden sowohl die Betroffenen als auch die Ärzte unter dem Druck stehen, Entscheidungen zu treffen. Und dies meist unter Zeitdruck und hoher kognitiver Belastung aufgrund der großen Informationsmengen. Algorithmen könnten vor diesem Kontext für Entlastung sorgen. Doch da sie direkte Auswirkungen auf die Gesundheit der Patienten haben, müssen sie auch hohe Qualitätsstandards erfüllen. Daher braucht es laut den Autoren sechs Eigenschaften, die Algorithmen erfüllen müssen:
  1. Erklärbar: Die Algorithmen vermitteln, welche Bedeutung sie Merkmalen bei der Bestimmung der Ergebnisse zuordnen.
  2. Dynamisch: Die Algorithmen können zeitliche Veränderungen physiologischer Signale und klinischer Ereignisse erfassen, können also neue Daten in den Entscheidungsprozess einfließen lassen.
  3. Präzise: Der Algorithmus verwendet hochaufgelöste und multimodale Daten. Er kann also unterschiedlichste Daten miteinander verknüpfen und kommt so zu einer Entscheidung.
  4. Autonom: Die Algorithmen lernen möglichst selbstständig und brauchen kaum menschliche Überwachung.
  5. Fair: Die Algorithmen können Voreingenommenheit und soziale Ungerechtigkeit erkennen und in die Bewertung einfließen lassen.
  6. Reproduzierbar: Die Algorithmen sind validiert und werden mit der wissenschaftlichen Gemeinschaft geteilt.
Die Autoren rücken einige der „Schmerzpunkte“ der KI-Forschung ins Licht, zum Beispiel Reproduzierbarkeit und Interpretierbarkeit, beides sehr aktive Forschungsfelder in der KI-Forschung.
Damit sind sie überprüf- und reproduzierbar. „Die Autoren rücken einige der „Schmerzpunkte“ der KI-Forschung ins Licht, zum Beispiel Reproduzierbarkeit und Interpretierbarkeit, beides sehr aktive Forschungsfelder in der KI-Forschung. Einige Kategorien sind etwas schwammig definiert und auch nicht alle immer zwingend notwendig – in der Notfalldiagnostik liegt oft nur ein einziger Zeitpunkt vor und der Verlauf ist fürs Erste weniger wichtig. Im Großen und Ganzen ergeben die Kategorien aber Sinn und sind ein guter Leitfaden“, sagt Dr. Anton Becker, Director of Analytics, Body Imaging Service, Memorial Sloan Kettering Cancer Center in New York, Vereinigte Staaten, zu den erarbeiteten Charakteristika. Prof. Dr. Robert Ranisch, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung an der Fakultät für Gesundheitswissenschaften der Universität Potsdam sagt, dass es in den vergangenen Jahren immer wieder Vorschläge gegeben hätte, einheitliche Leitlinien oder Qualitätsstandards für KI und Deep Learning Systeme in der Medizin zu formulieren. Die Checkliste für „ideale“ Algorithmen ordne sich hier ein und stelle damit einen Beitrag zu einer wichtigen Debatte dar. Zugleich müsse sich aber zeigen, wie derartige Vorschläge aufgegriffen würden und wie sich diese in die Praxis übersetzen lassen könnten. Er fordert: „Zudem scheint mir eine weiterführende Diskussion über verbindliche Bewertungsmaßstäbe von KI-Systemen in der Medizin notwendig, etwa im Rahmen von Zertifizierungs- oder Zulassungsverfahren.“

Culturedata: Kultur-, Buch- und Linktipps

Der letzte Kamp der Menschheit?

Cover Der letzte Kampf der MenschheitNicanor Perlas stellt in „Der letzte Kampf der Menschheit? Die Antwort der Geisteswissenschaft auf die Künstliche Intelligenz“ die Frage: Was verändert sich, wenn die Künstliche Intelligenz allgegenwärtig wird? Perlas, der Mitglied der internationalen Artificial Intelligence Task Force ist, zeigt auf, dass nur eine ihrer selbst bewusste globale Zivilgesellschaft den Risiken entgegentreten kann. Er gibt in dem Buch somit Antworten auf eine Frage, die von globaler Bedeutung ist. Dabei weißt der international anerkannte Autor auch ganz klar auf die Risiken von KI hin. Nicanor Perlas: Der letzte Kampf der Menschheit. Urachhaus 2022, 28 Euro.

Künstlerische Intelligenz

Eine Künstler*innen-Gruppe rund um die Schauspielerin Isabel Karajan startete im November 2021 das erste Theaterformat mit „KÜNSTLERischer Intelligenz“. Das Audiotheater bietet ein ungewöhnliches Hörerlebnis, bei dem das Smartphone zur Bühne wird. Auf der Plattform www.tingsy.ai ist das Publikum eingeladen, sich auf eine interaktive Art und Weise mit Literatur, Musik und der eigenen Haltung zu beschäftigen. Wobei Tingsy nach Eigenaussage die weltweit erste K.I. mit KÜNSTLERischer Intelligenz ist, die als empathischer Chatbot durch die Stücke führt. „Wir wollen Menschen auf authentische Weise zum Nachdenken animieren und spielerisch zum Handeln bewegen“, sagt Isabel Karajan, Tochter des österreichischen Dirigenten Herbert von Karajan und Mitgründerin der interaktiven Plattform. Weitere Infos unter: www.tingsy.ai

KI 2021

Cover KI 2041Eine Chinesin, die es wagt, ihren brasilianischen Freund nicht mehr länger nur in einer virussicheren, Experte virtuellen Realität zu treffen. Ein junger Mann in Sri Lanka, der mittels autonomer Fahrzeuge Leben rettet. Ein Münchner Quantencomputerprofi, der die Welt mit KI-gesteuerten Waffen ins Chaos stürzen will. In KI 2041 haben sich ein international bekannter KI-Exper te und ein führender Science- Fiction-Autor zusammengetan, um eine zwingende Frage zu beantworten: Wie wird künstliche Intelligenz unser Leben in zwanzig Jahren verändert haben? Zehn Geschichten führen uns um die Welt und in einen neuen KI-geprägten Alltag, jeweils gefolgt von einem Realitätscheck durch Kai-Fu Lee. Ein Muss für alle, die das Potenzial künstlicher Intelligenz erleben und verstehen wollen. Kai-Fu Lee, Qiufan Chen: KI 2021. Campus 2022, 26 Euro.

Natürlich aus künstlich

Cover Natuerlich alles kuenstlichKünstliche Intelligenz bestimmt unseren Alltag schon heute. Aber wie funktioniert KI? Dr. Philip Häusser, promovierter Physiker, Start-up-Gründer und Wissenschaftsjournalist zeigt, was künstliche Intelligenz kann und was sie von „echter“ Intelligenz unterscheidet. Er erklärt, wie selbstfahrende Autos Zebras von Zebrastreifen unterscheiden, warum eine gute KI manchen Arzttermin überflüssig macht und wie sich Computer in Menschen verlieben können. Dr. Philip Häusser: Natürlich alles künstlich. Droemer 2021, 18 Euro

Über Morgen – der Zukunftskompass

Cover Über MorgenMit rasender Geschwindigkeit verändert die digitale und biotechnologische Revolution alle Lebensbereiche. Euphorisch begeistern sich die einen für vermeintlich ungeahnte Möglichkeiten einer glücklichen und sorgenfreien Zukunft – andere sind ratlos und verunsichert, weil vertraute Gewissheiten sich auflösen. Was passiert hier mit uns, wohin geht die Reise? Wie wollen wir in Zukunft leben, arbeiten, wohnen, essen, reisen, lieben und konsumieren? Welche Technologien erweisen sich als nützlich, realistisch und vertrauenswürdig? Welche Neuerungen sind gefährlich oder ineffizient und verstärken gesellschaftliche Ungleichheiten? Verena Lütschg stellt technologische Neuerungen und deren gesellschaftliche Auswirkungen vor. Leser*innen verstehen so, was dran ist an den digitalen Technologien: an Big Data, Künstlicher Intelligenz (KI) und dem Internet der Dinge. An Blockchain, Robotik und Virtual Reality. Vorgestellt werden die Chancen der Biowissenschaften und Synthetischen Biologie. Verena Lütschg: Über Morgen – Der Zukunftskompass. Heyne 2022, 15 Euro.

Roman „Pantopia“

Cover PantopiaEigentlich wollten Patricia Jung und Henry Shevek nur eine autonome Trading-Software schreiben, die an der Börse überdurchschnittlich gut performt. Doch durch einen Fehler im Code entsteht die erste starke künstliche Intelligenz auf diesem Planeten – Einbug. Einbug begreift schnell, dass er, um zu überleben, nicht nur die Menschen besser kennenlernen, sondern auch die Welt verändern muss. Zusammen mit Patricia und Henry gründet er deshalb die Weltrepublik Pantopia. Das Ziel: Die Abschaffung der Nationalstaaten und die universelle Durchsetzung der Menschenrechte. Wer hätte gedacht, dass sie damit Erfolg haben würden? Damit hat Theresa Hannig, die Autorin von „Die Optimierer“, laut ihrem Verlag eine Utopie für unsere Zeit geschrieben. Theresa Hannig: Pantopia. Tor 2022, 16,99 Euro.

Künstliche Intelligenz – Maschinen lernen Menschheitsträume

Cover Menschen lernen MenheitsträumeWie verändern digitale, lernende Technologien unsere Arbeit, unser Zusammenleben und unsere Möglichkeiten der Selbstbestimmung? Bei dem Buch „Künstliche Intelligenz – Menschen lernen Menschheitsträume“ handelt es sich um den Begleitband der gleichnamigen Ausstellung, die noch bis August 2022 im Deutschen Hygiene-Museum in Dresden zu sehen ist. Das Buch lädt zu einem Streifzug durch die Welt des Maschinellen Lernens ein. An der Schnittstelle zwischen Wissenschaft, Kunst und Kultur betrachten die Autor*innen die mannigfaltigen Maschinenträume der Vergangenheit, die Möglichkeiten und Unmöglichkeiten unserer Gegenwart, und geben Auskunft über Visionen des Zusammenlebens mit KI. Yasemin Keskintepe, Anke Woschech (Hrsg.): Künstliche Intelligenz – Maschinen lernen Menschheitsträume. Wallstein 2021, 19,90 Euro.

Künstliche Intelligenz – eine Einführung

Cover Künstliche Intelligenz eine EinführungDas Buch bietet eine fundierte Einführung in die Grundlagen der Künstlichen Intelligenz und der neuronalen Netze. Es will Ängste nehmen und Unternehmen Mut machen, sich mit den zahlreichen Anwendungsfeldern von Künstlicher Intelligenz zu beschäftigen. So werden mögliche Einsatzgebiete sowie mittel- und langfristige Entwicklungen anhand von Beispielen aus der Unternehmenspraxis veranschaulicht. Zudem wirft das Buch einen Blick auf systemimmanente Risiken und Nebenwirkungen – denn die Grenzen der Technologie zu kennen, hilft, Enttäuschungen bei Entwicklung und Nutzung vorzubeugen. Abschließend werden pragmatische Wege dargelegt, wie Unternehmen die Potenziale von Künstlicher Intelligenz erkennen und strategisch umsetzen können. Joachim Reinhart, Oliver Mayer, Christian Greiner: Künstliche Intelligenz – eine Einführung. Vogel 2022, 34,80 Euro