karriereführer künstliche intelligenz 2021.2022 – KI ohne Bias? Transparenz schafft Vertrauen

0

cover karrierefuehrer kuenstliche intelligenz 2021-2022

KI ohne Bias? Transparenz schafft Vertrauen

Künstliche Intelligenz (KI) wird von Menschen für Menschen gemacht. In den Unternehmen gehört sie immer häufiger zum Alltag. Das führt zu ethischen Fragestellungen. Wie zum Beispiel kann verhindert werden, dass einer KI die gleichen Vorurteile und Diskriminierungen eingepflanzt werden, gegen die wir in der Gesellschaft kämpfen? Und kann die KI dabei helfen, diese Ungerechtigkeiten aufzudecken?

Verantwortung mit System

Künstliche Intelligenz (KI) wird von Menschen für Menschen gemacht. In den Unternehmen gehört sie immer häufiger zum Alltag. Das führt zu ethischen Fragestellungen. Wie zum Beispiel kann verhindert werden, dass einer KI die gleichen Vorurteile und Diskriminierungen eingepflanzt werden, gegen die wir in der Gesellschaft kämpfen? Und kann die KI dabei helfen, diese Ungerechtigkeiten aufzudecken? Ein Essay von André Boße

Das Zeitalter der Künstlichen Intelligenz hat begonnen – und es lässt sich auch durch die Pandemie nicht aufhalten. Und das internationale Marktforschungsunternehmen Gartner hat in einer Untersuchung herausgefunden, dass fast die Hälfte der befragten Unternehmen trotz Corona an den Investitionen im Bereich KI festhalten wird, drei von zehn wollen diese sogar noch erhöhen. Wohlwissend, dass die Pandemie die Herausforderungen von morgen noch verschärft und es sich auszahlen wird, jetzt in die Zukunft zu investieren. Denn in dieser wird KI eine immens große Rolle spielen, da sind sich die Unternehmen ziemlich einig: Laut einer Analyse der Beratungsgesellschaft PwC glauben 85 Prozent der Befragten, dass die KI das Business in den kommenden fünf Jahren signifikant verändern wird. Und zwar – und diese Aussage hat es in sich – stärker noch als seinerzeit der Wandel durch das Internet. Worauf es nun ankomme? Den „Skills Gap“ zu füllen, wie die Experten bei PwC in ihrem Report schreiben. Dabei gehe es nicht nur darum, KI- und Daten-Spezialisten zu finden. „Genau so wichtig ist es, die Mitarbeitenden zu qualifizieren, damit sie KI-Systeme anwenden können“, heißt es im Report. Die KI ist also bald überall zu finden, auf den Shopfloors und im Office, im Vertrieb und in der Abteilung Human Ressources. Sie ist überall dort, wo Menschen im Unternehmen tätig sind. Nicht um sie zu ersetzen, sondern um sie bei ihrer Arbeit zu unterstützen, sie zu entlasten, ihnen Freiräume zu geben. Was dazu führt, dass man sich genau anschauen muss, welche Wechselwirkungen zwischen KI und Mensch entstehen. Denn klar ist: Es ist der Mensch, der die KI mithilfe des Maschinellen Lernens intelligent macht. Der Mensch mit seinen Vorurteilen. Seinem Weltbild. Angenommen also, eine von weißen Männern dominierte Tech-Company entwickelt ein KI-System, zum Beispiel eines zur Gesichtserkennung: Muss man dann nicht davon ausgehen, dass dieses System den Bias der Entwickler – also die einseitige und damit verfälschte Sicht auf die Welt – übernimmt? Zum Beispiel auch rassistische Vorurteile, die, wenn auch unterbewusst, in die Künstliche Intelligenz eingetragen werden?

KI per se ungerecht?

Wenn Menschen eine KI programmieren – besitzt diese dann automatisch einen rassistischen Bias? Lorena Jaume-Palasí stimmt zu. Die Politikwissenschaftlerin bewegt sich als Beraterin und Wissenschaftlerin im Spannungsfeld zwischen digitaler Technik und Ethik, als Sachverständige ist sie für das Europäische Parlament und die Europäische Kommission tätig. Ihre These: „Die Programme sind automatisch rassistisch, weil die Gesellschaft, in der wir leben rassistisch ist.“ Rassismus sei ein strukturelles Problem unserer westlichen Gesellschaft. „Die Künstliche Intelligenz spiegelt die Ausgangslagen, Selbstverständlichkeiten und Regeln der Kultur, aus der heraus sie entsteht.“

Deutsche vertrauen KI in High-Tech

Laut des Reports „KI-Zukunftskompass“ von Bosch befürworten mehr als zwei Drittel der Deutschen KI-basierte Lösungen bei der Fehlerdiagnose von Maschinen, bei der industriellen Produktion von Waren und Maschinen sowie in der Raumfahrt und anderen High-Tech-Bereichen. Hier sei das Vertrauen in die Möglichkeiten der KI vonseiten der Bevölkerung bereits groß. In Einsatzgebieten, die eher mit Menschenkontakten zu tun haben, etwa in der Krankenpflege oder bei der finanziellen Anlageberatung, seien die Zustimmungsraten für den KI-Einsatz laut Studie mit 40 Prozent bzw. 31 Prozent deutlich geringer.
KI ist also nie neutral, alle ethischen Probleme der Gesellschaft finden sich in ihr wieder. Auch Rassismus und Diskriminierung. Was aber nicht heißt, dass die KI nicht helfen kann, dagegen anzukämpfen. „Wenn wir Künstliche Intelligenz dazu bringen, das, was passiert, zu beschreiben, dann kann sie für uns Diskriminierungsmuster offenlegen, die sich unserem Auge entziehen“, sagt Lorena Jaume-Palasí. Wenn die Menschen die Daten richtig interpretieren, dann könnten mit ihrer Hilfe Asymmetrien gezeigt werden, „von denen wir gar nicht wussten, dass sie existieren. Wir sollten daher davon ausgehen, dass Künstliche Intelligenz tatsächlich weniger Antworten gibt, als dass sie uns dabei hilft, neue Fragen zu stellen.“

Transparenz schafft Vertrauen

Wenn heute also verstärkt KI-Systeme in der Praxis in den Unternehmen oder auch im gesellschaftlichen Leben eingesetzt werden, dann ist es wichtig, transparent zu machen, wie das Maschinelle Lernen vonstatten geht. Studien zeigen, dass die Menschen bislang durchaus Vertrauen in KI-Lösungen haben. Der „KI-Zukunftskompass“ des Technologiekonzerns Bosch zum Beispiel hat bei einer Befragung festgestellt, dass 53 Prozent der Deutschen den Einsatz von KI positiv, 36 Prozent eher negativ einschätzten. Dabei gelte: Je mehr die Menschen über diese Technik und ihre Methoden wissen, desto größer ist das Vertrauen. „So bewerten 81 Prozent aller Befragten, die sich selbst als technologieaffin und informiert einschätzen, Künstliche Intelligenz als grundsätzlich positiv. In der Gruppe derjenigen, die sich selbst für weniger techniknah und eher weniger informiert halten, sind es 27 Prozent.“ Der Einsatz von Künstlicher Intelligenz wird umso positiver bewertet, je größer Vorwissen und Vertrautheit sind. Entsprechend wichtig sind Informationen und Transparenz, gerade mit Blick auf die ethischen Grundprinzipien.

KI-Ethik-Label soll Orientierung geben

Woran jedoch lässt sich erkennen, ob und welche Standards bei der Programmierung eingesetzt wurden? Die AI Ethics Impact Group, ein 2019 gegründetes interdisziplinäres Konsortium unter Leitung des Verbands der Elektrotechnik, Elektronik, Informationstechnik (VDE) und der Bertelsmann Stiftung, hat dazu das Konzept eines KI-Ethik-Labels entwickelt, das optisch bewusst Bezug auf die Energieeffizienz-Label nimmt. Die Gruppe hat für den Report „From Principles to Practice“ sechs ethisch relevante Eigenschaften von KI-Systemen definiert: von der Transparenz über die Gerechtigkeit bis hin zur umweltbezogenen Nachhaltigkeit. Ob und welches KI-Ethik-Label ein Produkt oder eine Dienstleistung erhält, entscheidet sich anhand eines Modells, das die ethischen Werte messbar machen soll.

Nur wenige fürchten den Arbeitsplatzverlust durch Einsatz Künstlicher Intelligenz

Im November 2020 ging es im Rahmen des Meinungsmonitors Künstliche Intelligenz [MeMo:KI] um die Frage: Wie nimmt die Bevölkerung den Einfluss von Künstlicher Intelligenz auf die Arbeitswelt wahr? Demnach erwarten die Bürger*innen mittelfristig nur wenig Veränderung im eigenen Arbeitsumfeld. Diejenigen, die Veränderungen erwarten, unterscheiden deutlich zwischen verschiedenen Aspekten des Arbeitslebens: Während hinsichtlich des Arbeitsschutzes, Anforderungen an notwendige Kompetenzen und Arbeitsbelastung der KI gute Chancen eingeräumt werden, erwarten die meisten Schwierigkeiten bei der Pflege sozialer Kontakte, der Einkommensentwicklung oder der Mitbestimmung am Arbeitsplatz. „Besonders große Befürchtungen gibt es hinsichtlich des Umgangs mit Daten und des Überwachungspotenzials am Arbeitsplatz. Einen Arbeitsplatzverlust für sich und Personen aus dem privaten Umfeld oder gar Massenarbeitslosigkeit befürchten aber nur die wenigsten“, so Studienleiter Prof. Dr. Frank Marcinkowski.
Eine weitere Entwicklung der AI Ethics Impact Group ist eine Risikomatrix, die zusätzlich differenziert, in welchen Bereichen ein KI-System welche potenziell gefährdende Wirkung erzeugen kann. Als Beispiel wird ein auf KI basierendes Online-Empfehlungssystem für Konsumenten genommen: Geht es hier um personalisierte Empfehlungen für Kleidung, sind kaum schwerwiegende ethische Implikationen für den Nutzer zu erwarten. Das ändert sich, wenn der Nutzer über das System Job-Angebote oder politische Werbung erhält. Bei Empfehlungen von medizinischen Produkten oder Therapien erreicht die Risikobewertung ein noch höheres Level: „Es ist klar, dass diese Systeme unterschiedlich behandelt werden müssen“, heißt es im Report.

KI-Roll-Out als Führungsaufgabe von morgen

Wer beim Thema der Künstlichen Intelligenz über Verantwortung und Ethik spricht, darf eines nicht vergessen: In den Unternehmen findet ein Roll-Out dieser Systeme gerade auf den unteren Ebenen statt. Zum Bespiel dort, wo die KI im Zusammenspiel mit dem „Industry Internet of Things“ für eine ganz andere Art der Arbeit sorgen wird. Es wird für Führungskräfte und KI-Spezialisten in den Unternehmen darauf ankommen, diese Systeme so in Anwendung zu bringen, dass die Menschen, die dort arbeiten, das Gefühl der Teilhabe erhalten. Diese Integration der KI in die bestehenden Arbeitsstrukturen wird eine zentrale Leadership-Aufgabe für den Führungsnachwuchs sein. „KI-Debatten, die ausschließlich im Elfenbeinturm stattfinden, sind nutzlos“, heißt es dazu in einem Report des sozialpartnerschaftlichen Forschungsprojekts „Künstliche Intelligenz“, das in Kooperation von IBM, der Gewerkschaft Verdi sowie dem Bundesministerium für Arbeit und Soziales entstanden ist. „Wenn KI-Anwendungen heute in Betrieben zum Einsatz kommen sollen, geht es um eine Vielzahl sehr realer Fragen und um den konkreten Anwendungskontext: Wie werden die Mitarbeiter*innen, die mit einer KI-Anwendung arbeiten werden, bei deren Implementierung einbezogen? Wie wirkt sich die KI-Anwendung auf die Arbeitssicherheit und den Arbeitsschutz aus? Welchen Effekt hat die KI-Anwendung auf die Arbeitszufriedenheit?“ Will die KI das Ziel erreichen, Menschen zu unterstützen, zu entlasten und für sie neue Freiräume zu erschaffen, dann müssen diese Leute von Beginn an Teil der Debatte sein. In den Unternehmen, wo Führungskräfte diese Diskussionsräume zur Verfügung stellen müssen. Aber natürlich auch in der Gesellschaft, wo KI-Systeme dafür sorgen können, dass Menschen besser mit Behörden interagieren, dass Unternehmen neue Geschäftsmodelle entwickeln, dass die Forschung unterstützt wird – und nicht zuletzt, dass die Künstliche Intelligenz dabei hilft, Diskriminierungen aufzudecken.

Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“

Welche Chancen bietet KI? Wo liegen Risiken? Und vor allem: Was bedeuten neue Technologien für die Gesellschaft – und für jeden Einzelnen? Zur Beantwortung dieser Fragen, die neben den technischen auch die ethischen, moralischen und normativen Folgen der Entwicklungen betrachten, muss auch die Wissenschaft beitragen. Damit Technik- und Gesellschaftswissenschaften hierfür ihre Kompetenzen bündeln, schafft die VolkswagenStiftung mit ihrer Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“ den Rahmen für interdisziplinäre Forschungsverbünde und ermöglicht durch die fachübergreifende Zusammenarbeit Perspektivwechsel, die neue Einsichten und Lösungsansätze eröffnen.

KI und die Zukunft der Arbeit

Wohin die Reise für KI gehen könnte, darüber sprach auch Dr. Kai-Fu Lee, CEO von Sinovation Ventures und Präsident des Artificial Intelligence Institute, im Februar 2021 im Rahmen der Digitalkonferenz DLD in seinem Vortrag „AI and the Post Work World“ – sein Beitrag wurde auf Youtube veröffentlicht. Darin zählt er vier KI-Wellen auf, die sämtliche Sektoren verändern werden. Stichwort: Disruption. Und alle vier Wellen – Internet AI, Business AI, Perception AI, also auf Wahrnehmung basierende KI, sowie Autonomous AI – wurden bereits ausgelöst. Sie werden in den kommenden Dekaden nicht nur die Unternehmen, sondern auch die Arbeit der Menschen verändern. So prophezeit Kai-Fu Lee, dass sämtliche Jobs in den „Händen“ von Maschinen landen werden, in denen Standardaufgaben zu erledigen sind, die mit Routine zu tun haben und die auf Optimierung ausgelegt sind. Letzteres könnte beispielsweise Radiologen betreffen, da entsprechende Programme beispielsweise Röntgenbilder besser auswerten werden können als Menschen. Einzig jene Jobs, in denen es um die Kombination verschiedener Bereiche und Kreativität gehe, seien vorerst vor KI „sicher“. Was also tun? Abwarten sei keine Lösung, so Kai-Fu Lee. Sein Rat, der allerdings nicht neu ist, ist das lebenslange Lernen. Wir Menschen müssen uns, um auf die Zukunft vorbereitet zu sein, die Frage stellen: Was kann KI nicht? KI kann nicht kreativ sein und sie kann keine Konzepte entwickeln, KI kann weder Empathie noch Mitgefühl empfinden und sie kann keine komplexen physikalischen Arbeiten ausführen. Anpassung wird also für den Menschen laut seinen Ausführungen das Gebot der Gegenwart sein.

Buchtipp: Die Simulation

Cover Die SimulationUnter den vielen Romanen und Sachbüchern über die Künstliche Intelligenz gehört „Die Simulation“ von Matthias Clostermann zu den besonders interessanten: Der Autor lässt seinen Protagonisten eine KI erfinden, die in der Lage ist, die wirkliche Welt lebensecht zu simulieren. Ist das endlich der Ausweg aus dem harten wahren Leben? Schon bald merkt der Held, dass diese Simulation erstens süchtig macht und zweitens nicht dazu führt, dass die wirklichen Probleme verschwinden. Im Gegenteil … Matthias Clostermann: „Die Simulation: Die perfekte Illusion. Die perfekte Droge.“ Books on Demand 2020, 11,99 Euro.

Der KI-Praktiker Prof. Dr. Philipp Hennig im Interview

Dr. Philipp Hennig ist Professor für die Methoden des Maschinellen Lernens an der Universität Tübingen sowie Co-Sprecher von Cyber Valley, Europas größtem Forschungskonsortium im Bereich der KI mit Partnern aus Wissenschaft und Industrie. Im Interview erzählt er, warum sich die KI-Forschung für andere Wissenschaften öffnet und was uns die künstliche über die menschliche Intelligenz verrät. Zudem mahnt er davor, die weitere Entwicklung zu negativ zu betrachten: Ein wenig Vorfreude auf das, was KI leisten kann, täte Europa gut. Die Fragen stellte André Boße.

Zur Person

Philipp Hennig studierte ab 2001 in Heidelberg Physik, wo er das Studium 2007 mit dem Diplom abschloss. Danach ging er nach Cambridge, wo er am Lehrstuhl des Naturphilosophen und Universalgelehrten Sir David MacKay promovierte. Seine berufliche Karriere begann 2011 beim Max-Planck-Institut für Intelligente Systeme in Tübingen, wo er vom Research Scientist zum Gruppenleiter aufstieg – und zwischendrin eine sechsmonatige Elternzeit einlegte. Seine Stelle als Professor der Uni Tübingen trat er 2018 an. Philipp Hennig ist darüber hinaus Co-Sprecher der Cyber Valley Initiative. Seine Lieblings-KI in der Science- Fiction ist Marvin, der „paranoide Androide“ aus Douglas Adams’ „Hitchhiker’s Guide to the Galaxy“: „Er ist nach eigenen Angaben fünfzigtausendmal schlauer als ein Mensch. Das macht ihn aber nicht zu einer Bedrohung für die Menschen. Im Gegenteil: Man muss ihn von anderen Computern fernhalten, weil sie bei Herstellung einer Verbindung mit ihm ob der offensichtlich tiefgründigen Erkenntnis in Depression verfallen.“
Herr Dr. Hennig, können Sie sich noch an Ihren „Erstkontakt“ mit der Künstlichen Intelligenz erinnern? Für meine Physik-Diplomarbeit musste ich eine Simulation eines Elektronen-Mikroskops programmieren. Dabei stieß ich auf eine faszinierende Forschungsgemeinschaft, die sich damit beschäftigte, wie Computer-Modelle die Welt aus Daten lernen können. Damals war das noch eine Nische. Auf der ersten KI-Konferenz, die ich dann als Doktorand besuchte, waren 500 Leute – die meisten davon Doktoranden wie ich. Eine Gruppe von ihnen hatte eine Ferienwohnung gemietet und dort eine spontane Party organisiert. Danach kannte ich die halbe Konferenz. Zu derselben Veranstaltung fuhren vor der Pandemie übrigens zuletzt zehntausende Menschen. Welches landläufige Vorurteil über Künstliche Intelligenz stört Sie am meisten? Es gibt eine Vorstellung, bei KI-Systemen handele es sich um magische, unkontrollierbare Automaten, die man irgendwo in die Steckdose stöpselt – und die dann so lange mit wachsendem Hunger Daten verschlingen, bis sie mehr wissen, als sie wissen sollen. In Wahrheit funktioniert die Künstliche Intelligenz aber ja nur, wenn ein intelligenter Mensch vor dem Computer sitzt. Lernende Maschinen sind Computerprogramme, die von Menschen geschrieben werden. Es ist zwar richtig, dass wir zum Erfolg dieser Maschinen auch Infrastruktur, Rechenkapazitäten und Zugang zu Daten brauchen. Mehr als alles andere jedoch brauchen wir gut ausgebildete junge Menschen, die nicht nur den jüngsten Hype mitbekommen, sondern die grundlegenden mathematischen Zusammenhänge verstanden haben. Sie sind von Hause aus diplomierter Physiker. Warum ist eine klassische naturwissenschaftliche Ausbildung ein Vorteil, wenn man später tief in die KI einsteigen will? Ich beschreibe maschinelles Lernen, also die zeitgenössische Form der KI, gerne als die Mechanisierung der naturwissenschaftlichen Methode. Die klassische Rolle des theoretischen Physikers ist es ja, sich Reihen an Messdaten anzuschauen und darin Ordnung, Gesetze und Prinzipien zu erkennen, die sich dann auf eine Formel reduzieren lassen, mit der man die Ergebnisse zukünftiger Experimente vorhersagen kann. Lernende Maschinen machen genau das – nur, dass sie nicht auf eine Formel, sondern auf ein Computerprogramm reduzieren. Sie machen das nicht nur mit präzisen Labormessungen, sondern mit allen Daten, die unsere Gesellschaft beschreiben. Ändert sich durch diesen Blick auf die KI die Informatik? Ja, sehr grundlegend. Die Informatik war früher das Feld der formalen Sprachen und abstrakten Muster. Mit KI sind die Daten zu einem zentralen Objekt geworden. Mit ihnen ist die ganze Komplexität, aber auch alles Wunderbare des Menschlichen in diesem technischen Feld angekommen. Ich rede heute mit den Studierenden in meinen Vorlesungen genauso über algorithmische Fairness, gesellschaftliche Verantwortung und Datenschutz wie über stochastische Prozesse und Funktionsräume. Und ich sehe mit Freude, dass diese neue Rolle der Informatik auch eine neue Generation an Studierenden anzieht, die sich nicht nur mit den althergebrachten Klischees des Computernerds identifizieren, sondern auch eine soziale Verantwortung verspüren. Auch deshalb würde ich heute vielleicht das Informatikstudium der Physik vorziehen.
In Bereichen wie Bild- und Spracherkennung ist der Durchbruch im Prinzip geschafft. In anderen Bereichen, wie dem autonomen Fahren, hat so mancher die Dynamik des Möglichen überschätzt.
Ihr Standort Tübingen wird im Rahmen des „AI Breakthrough Hub“ eine hohe Fördersumme erhalten. Warum ist Geld Geld ist vor allem wichtig, weil wir in Deutschland und Europa in einer enorm dynamischen internationalen Entwicklung große Anstrengungen unternehmen müssen, um überhaupt den Anschluss zu halten und unsere eigenen Chancen zu nutzen. Natürlich sind dazu auch Investitionen in Hardware nötig. Vor allem aber geht es darum, Orte zu schaffen, an denen motivierte junge Menschen eine Chance für sich und ihre Ideen sehen. Es geht da auch um die Erreichung einer kritischen Masse: Für die Promovierenden in meiner Gruppe ist es enorm wertvoll, auf unserem Campus zu fast jedem Teilund Anwendungsbereich der KI einen Experten zu finden, mit dem sie Fragen und Ideen schnell und kompetent diskutieren können. Übrigens gehören dazu nicht nur Informatiker, sondern auch Philosophen, Ethiker sowie Partner aus den angewandten Wissenschaften, die teils mit uns im selben Gebäude arbeiten. Kurze Wege und gebündeltes, breites Fachwissen – das sind die Zündfunken, aus denen eine Kettenreaktion entstehen kann. Bezogen auf den Titel „AI Breakthrough Hub“, wie ist denn der Stand der Dinge, wann „bricht die KI denn durch“? In Bereichen wie Bild- und Spracherkennung ist der Durchbruch im Prinzip geschafft. In anderen Bereichen, wie dem autonomen Fahren, hat so mancher die Dynamik des Möglichen überschätzt. Da wird es wohl länger dauern als man zunächst erwartet hatte. Aber vielleicht eben auch nicht. Mit revolutionären Technologien scheint es ja oft so, dass Vorhersagen erst lange viel zu optimistisch – und dann ganz plötzlich veraltet sind. In jedem Fall aber liegen die wirklich umwälzenden Effekte dieser Technologie noch vor uns. Sie werden dabei aus Fortschritten bestehen, in denen KI als Katalysator im Hintergrund wirkt. Zum Beispiel mit einer Vielfalt an neuen aus großen Datenmengen gewonnenen medizinischen Erkenntnissen. Oder an neuen, mit KI-Suchverfahren entdeckten Materialien mit ungeahnten physikalischen Eigenschaften. Viele Menschen werden diese Fortschritte gar nicht als direkte Ergebnisse der KI wahrnehmen. Dennoch werden sie eher dort erzielt werden, wo Expertise in Datenanalyse und Modellierung leicht zu finden ist.
Vielleicht sollten wir uns weniger Gedanken darüber machen, ob uns die Maschinen irgendwann überlegen sein könnten, sondern uns darauf vorbereiten, dass sie uns die Banalität unserer eigenen „Intelligenz“ aufzeigen.
KI nimmt sich, grob gesagt, das menschliche Gehirn als Vorbild. Was haben Sie in diesem Feld zuletzt gelernt, was Sie wirklich nachhaltig erstaunt hat? In der jüngeren Vergangenheit sind vermehrt KI-Systeme wie der Textgenerator GPT-3 und der Bildgenerator DALL-E aufgetaucht, die mich, wie viele meiner Kolleginnen und Kollegen, mit einer vermeintlichen „Kreativität“ überrascht haben. Bei genauerer Untersuchung kommt dann oft die Vermutung auf, dass diese Systeme, etwas herablassend gesagt, „nur“ zwischen unglaublichen Mengen an Trainingsdaten interpolieren. Aber wer sagt, dass menschliche Gehirne das nicht auch so machen? Manchmal habe ich die leise Ahnung, dass uns eine Art kopernikanische Wende in unserem Selbstbild bevorstehen könnte: Vielleicht sollten wir uns weniger Gedanken darüber machen, ob uns die Maschinen irgendwann überlegen sein könnten, sondern uns darauf vorbereiten, dass sie uns die Banalität unserer eigenen „Intelligenz“ aufzeigen. Denken Sie, dass die künftigen Generationen bei Krisen wie der aktuellen Pandemie oder auch der Klimakrise auf die Hilfe von KI-Lösungen bauen können? Bislang hat die Pandemie der KI-Community vor allem eine Lektion in Demut erteilt. Zu Beginn gab es viel Selbstbewusstsein, Tatendrang – und durchaus auch gute Ideen. Hochdetaillierte Echtzeitmodelle von Infektionsketten in etwa, oder automatisierte Infektions-Diagnosen auf Basis eines Husters ins Telefon. Dass daraus weniger geworden ist als erhofft, sollte aber kein Grund zur Häme sein, sondern vielmehr Anlass zu fragen, woran diese Ideen gescheitert sind. Was ist Ihre Vermutung? Oft lag es wohl nicht an den Möglichkeiten der Technik, sondern daran, dass die nötigen Trainingsdaten aus Datenschutzgründen unzugänglich blieben oder die Anwendung der neuen Methoden nicht in die Prozesse unseres Gesundheits- und Verwaltungssystems passen. Wenn eine Gesellschaft bewusst und konkret entscheidet, dass bestimmte Verwendungen von Daten unerwünscht sind, dann ist das okay. Mir fällt aber auch auf, dass wir in Europa vor allem darüber sprechen, welche KI-Anwendungen verboten werden sollten. Wir sprechen zu wenig darüber, welche Verwendung von Daten wir im Interesse der Allgemeinheit, nach umfangreicher gesellschaftlicher Debatte und mit klaren Regeln und Zielen konkret angehen sollten.

KI-Forschung für Künstliche Faulheit

Mit seiner Forschungsgruppe arbeitet Philipp Hennig daran, Rechenalgorithmen für die KI zu entwickeln, die lernende Maschinen effizienter, zuverlässiger und einfacher zu bedienen machen. „Maschinelles Lernen ist noch sehr energiehungrig“, sagt er zum Hintergrund. „KI-Systeme mögen zwar Go spielen wie ein Großmeister, sie verbrauchen dabei aber mindestens tausendmal so viel Energie wie ihr menschlicher Gegner.“ Stark vereinfacht liege das daran, dass die Informatik noch nicht gut verstanden habe, was die internen Rechenaufgaben einer KI schwer oder leicht macht. „Wir suchen also nach Konzepten, mit denen die Maschine selbst besser erkennen kann, wie gut sie ihre Aufgabe erfüllt – um dann auch mal früher damit aufzuhören.“ Anders gesagt: Der KI soll beigebracht werden, auch mal faul zu sein.

Künftig gefragt: der Chief AI and Data Officer

Künstliche Intelligenz (KI) beschäftigt mittlerweile die meisten Unternehmen in Deutschland. Allerdings berichten sieben von zehn renommierten deutschen Firmen, dass sie bisher kaum einen oder keinen Einfluss von KI auf ihr Geschäft verzeichnen. Das ist das Ergebnis einer Studie der Personalberatung Odgers Berndtson und appliedAI. von Sabine Olschner

Die künstliche Intelligenz konnte bisher nur in wenigen Fällen die hohen Erwartungen der Unternehmen erfüllen. Das liegt vor allem daran, dass KI – anders als bisherige Technologien wie „Mobile“ oder „Big Data“ – kein fertiges Produkt ist, sondern eine Basistechnologie, die sich auf alle Geschäftsprozesse auswirkt und an eigenen Unternehmensdaten trainiert werden muss. Um KI erfolgreich einzusetzen, müssen sich vor allem Vorstände und Aufsichtsräte selbst damit befassen, so das Ergebnis der Studie „Artificial Intelligence for Boards“. Die KI-Technologie soll in den kommenden Jahren weit verbreitet zum Einsatz kommen. Doch viele Unternehmen bleiben bisher bei Pilotanwendungen stecken, fand die Studie heraus. Ursache hierfür seien oft falsche Erwartungen und fehlendes Know-how. Für die Nutzung von KI sei noch wichtiger als bei der Integration anderer Technologien, dass die verschiedenen Bereiche in einem Unternehmen zusammenarbeiten. Eingespeiste Unternehmensdaten verändern die Lernprozesse der KI. Daten und Software sind dann nicht mehr voneinander trennbar, was die Skalierbarkeit von KI zu einer Herausforderung macht. Darüber hinaus bringt KI völlig neue Risiken mit sich: Befindet sich in den Daten, die der Lösung zugrunde liegen, ein Fehler, zieht sich dieser durch die gesamte Lösung hindurch. Um den Transformationsprozess von KI im Unternehmen voranzutreiben, brauchen alle Vorstandsmitglieder Grundwissen über die Technologie. Maschinelles Lernen, „Deep Learning“, Datenmengen und -strukturen sowie die Interpretation von Ergebnissen dürfen keine Fremdwörter für den Vorstand sein. Jedes Vorstandsmitglied sollte seinen Verantwortungsbereich auf dessen Status und Ziele hin überprüfen. Aus diesen Einzelsichten ergibt sich ein Gesamtbild, das die Auswirkungen der KI auf das Unternehmen zeigt. Angesichts der Vielzahl an neuen Aufgaben und Herausforderungen kann es für Unternehmen sinnvoll sein, eine neue Rolle auf Vorstandsebene zu definieren, die den Vorstand bei der KI-Transformation unterstützt, empfiehlt die Studie. Der Chief AI and Data Officer (CAIDO) kann Initiativen vorantreiben und als Sparringspartner für die übrigen Vorstandsmitglieder fungieren. Seine Aufgaben: den Reifegrad bezüglich KI im Unternehmen untersuchen und Prioritäten setzen, als Role Model den Wandel vorantreiben und sicherstellen, dass die notwendigen Voraussetzungen in Bezug auf Daten, der Infrastruktur für Maschinelles Lernen, Talent und Organisation erfüllt sind.

appliedAI

ist aktuell die größte Initiative ihrer Art in Europa mit mehr als 50 Partnerschaften aus Wissenschaft, Technologie und Industrie, dem öffentlichen Sektor und ausgewählten Start-ups. Ihre Mission: Fachkenntnis miteinander teilen, um Unternehmen und die Gesellschaft für das KI-Zeitalter zu qualifizieren und die Anwendung von Künstlicher Intelligenz in Deutschland zu beschleunigen. www.appliedai.de

Künstliche Intelligenz: (Un)kontrollierbar

Wäre es grundsätzlich möglich, eine superintelligente Künstliche Intelligenz (KI) zu kontrollieren? Mit dieser Frage beschäftigten sich Computerwissenschaftler und Philosophen in der Studie „Superintelligence cannot be contained: Lessons from Computability Theory“. Dabei nimmt der Studientitel schon die Antwort vorweg: Nein. von Christoph Berger

Zugegeben: Das Szenario ist konstruiert. Und (noch) existiert es nur in der Theorie. Die Wissenschaftler gehen in ihrer Annahme von einer KI aus, deren Intelligenz dem Menschen überlegen ist und die selbstständig alles lernen kann. Zudem ist sie an das Internet angeschlossen und hat Zugriff auf alle Daten der Menschheit: Sie kann alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Würde sich eine solche KI für das „Gute“ einsetzen oder die Menschheit vernichten und die Erde übernehmen? „Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science- Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbstständig erledigen, ohne dass Programmier*innen komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, sagt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie. Bisher wurden weltweit zwei Ideen entwickelt, wie sich eine superintelligente KI beherrschen lassen könnte. Entweder werden die der KI zur Verfügung stehenden Ressourcen eingeschränkt. Das würde bedeuten, dass man sie vom Internet und anderen technischen Geräten abschottet, also den Kontakt zur Außenwelt blockiert. Dies hätte allerdings auch zur Folge, dass die Fähigkeiten der KI deutlich geringer wären und sich die großen Probleme der Menschheit nicht lösen lassen. Die zweite Option besteht darin, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen. Zum Beispiel könnten ethische Regeln einprogrammiert werden. Die an der Studie beteiligten Forscher zeigen jedoch, dass all diese Ideen ihre Grenzen haben. Auch sie versuchten einen theoretischen Algorithmus zu konzipieren, der sicherstellen sollte, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Eine genaue Analyse dieses Algorithmus zeigte jedoch, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann. „Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar“, sagt Iyad Rahwan, Direktor des Forschungsbereichs Mensch und Maschine. Auf Basis dieser Berechnungen sei es somit nicht möglich, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Hinzu komme, dass möglicherweise nicht einmal erkennbar sei, ob eine Maschine superintelligent ist. Denn, ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lasse sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen, so die Forscher.
Cover Menschliches Denken und künstliche Intelligenz

Buchtipp:

Matthias Pfeffer: Menschliches Denken und Künstliche Intelligenz. Dietz 2021, 18 Euro.

BIM kombiniert mit KI

Wenn in der Baubranche von Digitalisierung die Rede ist, denn geht es derzeit meist um Building Information Modeling, kurz BIM – den digitalen Zwilling von Bauwerken. Und BIM ist auch die Voraussetzung für den KI-Einsatz am Bau in einigen Forschungsprojekten. Von Christoph Berger

Wie kann die Baustelle von morgen mit Künstlicher Intelligenz unterstützt werden? Dieser Frage gehen mehrere Unternehmen und Forschungseinrichtungen im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt mit dem recht sperrigen Titel „Entwicklung von Systembausteinen der Künstlichen Intelligenz für eine digitale mobile Wertschöpfungskette für die Bauausführung“ nach. Bekannt ist das 2020 gestartete Projekt daher eher unter dem Akronym ESKIMO. Im Rahmen von drei Pilotprojekten soll es um die automatisierte Unterstützung der technischen und kaufmännischen Qualitätssicherung sowie eine Anwendung von Algorithmik im Bereich der Baulogistik gehen. Bei der technischen Qualitätssicherung zum Beispiel soll eine KI optische Abweichungen zum Soll-Zustand, also Oberflächenmerkmale wie Beschädigungen, Flecken, Verfärbungen etc. mithilfe von Bilderkennungsalgorithmen erfassen und zudem strukturelle Unterschiede zum BIMModell, wie fehlende oder falsch eingebaute Bauelemente, automatisch erfassen. Dazu werden während der Ausführung erfasste Bilddaten aus Kamera – systemen, Smartphones oder Tabletcomputern durch KI-Algorithmen interpretiert, Bauobjekte und deren Merkmale automatisiert erkannt sowie die so generierten Ergebnisse mit der standardgestützten Gebäudedatenmodellierung BIM abgeglichen. An der Technischen Universität München wurde im November 2020 das „TUM Georg Nemetschek Institute Artificial Intelligence for the Built World“ gegründet, ein weltweit einmaliges Forschungs- und Lehrinstitut zur Künstlichen Intelligenz im Bauwesen. Hintergrund der Gründung ist, dass der Einsatz von modernster Computer – technologie, KI und Maschinellem Lernen völlig neue Möglichkeiten bietet, einer der großen Herausforderungen des 21. Jahrhunderts zu begegnen: das Entwerfen, Gestalten und Erhalten der gebauten Umwelt. Und im am Lehrstuhl für Informatik im Bauwesen der Ruhr-Universität Bochum (RUB) sowie an der Worldfactory der RUB angesiedelten Projekt „Bestandsmodellierung von Gebäuden und Infrastrukturbauwerken mittels KI zur Generierung von Digital Twins – BIMKIT“ will man ein Verfahren entwickeln, mithilfe dessen KI Bauwerksdokumente wie zweidimensionale Pläne, Bilder, Punktwolken oder Textdokumente in digitale 3D-Modelle überführt. Die Technik soll sich auch eignen, um bereits vorhandene Modelle automatisiert gemäß dem Baufortschritt zu aktualisieren: Das KI-Verfahren soll basierend auf Bauwerksdokumenten digitale 3D-Modelle für bereits bestehende Bauwerke erzeugen und bei Umbaumaßnahmen bestehende digitale Bauwerksmodelle aufgrund von Baudokumenten automatisiert aktualisieren. Welche Potenziale in Künstlicher Intelligenz für das Bauwesen stecken, wurde in einem Bericht von Reports and Data ermittelt: Demnach wird der globale Markt für KI in der Baubranche 2026 voraussichtlich 4,51 Milliarden US-Dollar erreichen.

KI und Klimaschutz: Optimismus angebracht?

Die Digitalisierung inklusive der Künstlichen Intelligenz (KI), gilt als Hoffnungsträger, um den globalen Energiebedarf zu verringern und damit einen Beitrag zum Klimaschutz zu leisten. Doch diese Zuversicht ist laut einer aktuellen Studie unbegründet. Von Christoph Berger

Laut der von Microsoft beauftragten und durch PwC durchgeführten Studie „How AI can able a Sustainable Future“ könnte die Anwendung von KI-Hebeln die weltweiten Treibhausgas Emissionen bis 2030 um vier Prozent reduzieren. Das wären insgesamt 2,4 Gigatonnen CO2-Emissionen – diese Menge entspreche der gesamten erwarteten Emissionsmenge von Australien, Kanada und Japan im Jahr 2030, heißt es darin. Unter anderem könnten Lieferketten nachhaltig organsiert, saubere Energienetze durch KI gesteuert und die Umwelt überwacht werden. All das ist durch KI-Einsatz mit Sicherheit möglich. Doch, wie so oft, es gibt auch eine Kehrseite der Medaille. In dem fünfjährigen Forschungsprojekt „Digitalisierung und sozial ökologische Transformation“ entstand der Artikel „Digitalization and energy consumption. Does ICT reduce energy demand?”. In ihm ziehen die Digitalisierungsexperten des Instituts für ökologische Wirtschaftsforschung (IÖW) und der Technischen Universität Berlin das Fazit: Steigende Energieverbräuche des Informations- und Kommunikationstechnologie- Sektors (IKT) und höheres Wirtschaftswachstum konterkarieren eine Reduktion des Energiebedarfs. Wirtschaftsforscher Steffen Lange vom IÖW erläutert: „Zwar kann durch die Digitalisierung Energie eingespart werden – durch Effizienzsteigerungen in verschiedenen Wirtschaftssektoren, aber auch bei technischen Geräten des täglichen Gebrauchs. Legt man diese Einsparungen in die eine Waagschale und vergleicht sie mit den Effekten des wachsenden IKT-Sektors und den Auswirkungen des durch gesteigerte Produktivität ausgelösten Wirtschaftswachstums, wiegen die letzteren deutlich schwerer. Die Hoffnung, dass die Digitalisierung den Gesamtenergieverbrauch senkt, erfüllt sich derzeit nicht.“ Kurz: Energieeinsparungen würden an anderer Stelle zu mehr Nachfrage führen. Doch wie kann die Digitalisierung vor diesem Hintergrund nachhaltiger werden? Dies gehe laut den Wissenschaftlern des IÖW nur dann, wenn sie gezielt für Energieeffizienzsteigerungen eingesetzt wird oder um Sektoren energiesparend zu verändern. Gleichzeitig müssten aber auch Maßnahmen greifen, die den Energiebedarf des Sektors selbst eindämmen und Rebound- und Wachstumseffekten entgegensteuern. „Aber selbst dann würden die Energiespareffekte der Digitalisierung nicht ausreichen, um die Klimaschutzziele zu erreichen. Wir müssen noch einen Schritt weitergehen und daran arbeiten, die digitalen Möglichkeiten in den Dienst einer ökologischen Transformation der Ökonomie zu stellen“, sagt Steffen Lange. Er plädiert dafür, nicht die Nebenwirkungen der Digitalisierung zu bekämpfen, sondern alle ökonomischen Sektoren zu transformieren – insbesondere Industrie, Landwirtschaft, Energie, Bau und Verkehr. Bei dieser Transformation könnten digitale Technologien eine wichtige Rolle spielen. Sofern sie richtig eingesetzt werden.

Culturedata: Kultur-, Buch- und Linktipps

Künstliche Intelligenz – die große Verheißung

Cover KI die große VerheißungWas stellt die Künstliche Intelligenz der Menschheit in Aussicht? Was macht sie als zunächst nur technische Möglichkeit zur vielfach gepriesenen Hoffnung? In welcher Hinsicht sind solche Hoffnungen überhaupt erfüllbar und nicht vielmehr die ersten Zeichen einer bevorstehenden Apokalypse? Die in diesem Band versammelten Betrachtungen treffen den Nerv einer Zeit, die im globalen Kontext gegen vielfach sich aufdrängende politische Verzweiflung und drohende soziale Verwirrung ankämpfen muss, und dies nicht zuletzt durch die Versprechen Künstlicher Intelligenz. Strasser, Anna; Sohst, Wolfgang; Stepec, Katja; Stapelfeldt, Ralf: Künstliche Intelligenz – Die große Verheißung. Xenomoi 2021, 29,80 Euro

Der Creativity-Code

Cover Creativity CodeWerden Computer schon bald Musik komponieren, Bücher schreiben, Bilder malen und mathematische Sätze beweisen? Und wenn ja, werden wir den Unterschied zu von Menschen gemachten Werken überhaupt bemerken? Der preisgekrönte Autor von „Die Musik der Primzahlen“ erforscht die Zukunft der Kreativität und untersucht, wie maschinelles Lernen unser Verständnis davon, was Menschen können, sprengen, bereichern und verändern wird. „Der Creativity-Code“ ist eine Studie über Kreativität und zugleich ein Leitfaden durch den Dschungel von Algorithmen und den Regeln, die ihnen zugrunde liegen. Der Oxforder Mathematiker und Erzähler Marcus du Sautoy untersucht, wie Gefühl und Gehirn in unseren Reaktionsweisen auf Kunst zusammenspielen und was es genau bedeutet, in Mathematik, Kunst, Sprache und Musik kreativ zu sein. Er erklärt, wovon es abhängt, ob Maschinen wirklich etwas Neues hervorbringen, und fragt, ob ihre Funktion nicht darin bestehen könnte, uns Menschen kreativer zu machen. Das Ergebnis ist ein Buch über künstliche Intelligenz. Marcus du Sautoy: Der Creativity-Code. C.H. Beck 2021, 26,95 Euro.

KI.Robotik.Design

Vom 16. Juli 2021 bis zum 18. September 2022 zeigt die Pinakothek der Moderne in München die Ausstellung „KI.ROBOTIK.DESIGN“. Die Neue Sammlung – The Design Museum hat den Leiter der Munich School of Robotics and Machine Intelligence (MSRM), Herrn Prof. Dr. Sami Haddadin, und sein Team eingeladen, eine Ausstellung zu konzipieren, um beispielhaft ihre Entwicklungen zur Zukunft der Gesundheit, der Arbeit und der Mobilität in einer Zeit von Robotik und Künstlicher Intelligenz zu präsentieren. Geplant ist ein interaktives Laboratorium, in dem Prozesse wachsender künstlicher Intelligenz für die Besucher erlebbar gemacht werden. Neben der Sichtbarmachung des Entstehens Künstlicher Intelligenz fokussiert die Ausstellung auch Fragen nach den hiermit verbundenen Designformen.

Die Antwort der Geisteswissenschaft auf die Künstliche Intelligenz

Cover Der letzte Kampf der MenscheitWas verändert sich, wenn die Künstliche Intelligenz allgegenwärtig wird? Nicanor Perlas, Mitglied der internationalen Artificial Intelligence Task Force, zeigt auf, dass nur eine ihrer selbst bewusste globale Zivilgesellschaft den Risiken entgegentreten kann. Nicanor Perlas: Der letzte Kampf der Menschheit? Urachhaus 2021, 28 Euro.

Künstliche Intelligenz und Empathie

Cover KI und EmpathieEmotionale künstliche Intelligenz gilt als Schlüsseltechnologie der Zukunft. Künstliche Systeme sollen empathisch sein und Empathie in uns auslösen. Doch wie erkennen und verarbeiten künstliche Systeme menschliche Emotionen? Können sie echte Gefühle und Empathie empfinden? Führt die Entwicklung schmerzempfindlicher Roboter in der Biorobotik zur Auflösung der Grenze hin zu biologischen Organismen? Haben wir auch moralische Pflichten gegenüber Robotern, die unser Mitgefühl rühren? Und was ist von Roboterliebe und Sexrobotern zu halten? Die Expertin für Maschinenethik Catrin Misselhorn diskutiert die ethischen und technischen Aspekte dieser Fragen an anschaulichen Beispielen aus der Praxis und gibt einen Überblick über neue Tendenzen der emotionalen Künstlichen Intelligenz, sozialen Robotik und Biorobotik. Catrin Misselhorn: Künstliche Intelligenz und Empathie. Reclam 2021, 6 Euro.

Singularity

Cover SingularityDas Setting des SF-Romans „Singularity“ sieht folgendermaßen aus: Ende des 21. Jahrhunderts. Mittlerweile ist die gesamte Menschheit in zwei Gruppen gespalten: Während die einen mit bester medizinischer Versorgung ein langes Leben führen, sind die anderen schlicht überflüssig. Als billige Arbeitskräfte fristen die meisten Menschen ein mieses Dasein. Einer dieser Überflüssigen ist James, ein Hausdiener bei der Elite. Sein neuer Herr gibt ihm einen rätselhaften Auftrag: Er soll dessen verschollene Tochter wiederfinden – in einer virtuellen Simulation. Schon bald erkennt James, dass nicht bloß die Grenzen von Wirklichkeit und VR verschwimmen, sondern auch die von Mensch und Maschine. Und ihm offenbart sich ein schreckliches Geheimnis, das die Zukunft und Vergangenheit der Menschheit in Frage stellt. Joshua Tree: Singularity. Fischer Tor 2021, 16,99 Euro.

Ausstellung „Künstliche Intelligenz?“ in Wien

Foto: Technikmuseum Wien
Foto: Technikmuseum Wien
Noch bis Sommer 2020 zeigt das Technische Museum Wien die Sonderausstellung „Künstliche Intelligenz?“. Beleuchtet und reflektiert werden darin Fakten und Mythen rund „autonome Systeme“ eigentlich steckt. Weitere Infos unter: um eines der größten Innovationsthemen des 21. Jahrhunderts. Die Ausstellung präsentiert die derzeitigen technologischen Entwicklungen und will zeigen, woran mit welchen Zielen geforscht wird, welche gesellschaftlichen Auswirkungen von den Ergebnissen zu erwarten sind und was hinter Trend-Schlagworten wie „maschinelles Lernen“, „Algorithmus“ oder www.technischesmuseum.at

The AI Toolbook

Cover AI Tool-BookSchnell und kompakt umsetzbar. Ohne Künstliche Intelligenz ist bahnbrechende Innovation heute kaum noch möglich. Zu komplex sind die heutigen Herausforderungen von Klimawandel bis Marsbesiedelung. Das Wissen, wie man KI im Unternehmen sinnvoll einsetzt, haben jedoch die wenigsten. Das Buch schließt diese Lücke. Im Zentrum steht der AI Planner; er ist eine einzigartige Schritt-für-Schritt-Anleitung, um Anwendungskonzepte aus dem Gebiet der Künstlichen Intelligenz für die Geschäfts-, Produkt- und Serviceentwicklung zu erarbeiten. Alessandro Brandolisio, Michael Leitl, Karel Golta: The AI Toolbook. Mit Künstlicher Intelligenz die Zukunft sichern. Murmann 2021, 48 Euro.

Das letzte Wort hat: Informatiker Prof. Dr. Jörn Müller-Quade

Künstliche Intelligenz (KI) kann unseren Alltag erleichtern, den Verkehr sicherer machen und unsere Gesundheitsversorgung verbessern. Doch um dieses Potenzial ausschöpfen zu können, bedarf es vertrauenswürdiger KI-Systeme, die die Menschen gerne nutzen. Eine Zertifizierung von KI kann das Vertrauen in die Technologie stärken. Welche Besonderheiten bei der Zertifizierung von KI beachtet werden müssen und warum nicht alle KI-Systeme einer Prüfung unterzogen werden müssen, erklärt Jörn Müller-Quade. Der Professor forscht am Karlsruher Institut für Technologie im Bereich Kryptographie und Lernende Systeme. Zudem ist er Leiter der Arbeitsgruppe „IT-Sicherheit“ der Plattform Lernende Systeme.

Zur Person

Prof. Dr. Jörn Müller-Quade, Foto: Andreas Drollinger
Prof. Dr. Jörn Müller-Quade, Foto: Andreas Drollinger
Dr. Jörn Müller-Quade, 1967 in Darmstadt geboren, studierte in Erlangen und Karlsruhe Informatik. Heute ist er Professor am Karlsruher Institut für Technologie und Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme
Herr Müller-Quade, warum ist es wichtig, Künstliche Intelligenz zu zertifizieren? Wie KI-Systeme zu ihren Entscheidungen kommen, ist häufig selbst für Experten nicht verständlich. Man spricht hier auch von Black-Box-Systemen. Ein Kunde kann also selbst nicht beurteilen, ob der Einsatz eines KI-Systems in einem bestimmten Kontext unbedenklich ist. Hier kann ein Zertifikat Orientierung geben und am Markt den gewissenhaften Herstellern einen Vorteil bieten. Was unterscheidet die Zertifizierung von Künstlicher Intelligenz von der Zertifizierung anderer IT-Systeme? Entscheidungen von KI-Systemen sind häufig nicht einfach nachvollziehbar, insbesondere bei Lernenden Systemen. Eine Zertifizierung wird aber sehr viel schwieriger, wenn man das System nicht verstehen kann. In manchen Fällen wird man wohl gut verstandene Schutzmechanismen mit KI kombinieren müssen. Zusätzlich können KI-Systeme dazulernen, sich also dynamisch verändern, weswegen eine einmalige, statische Zertifizierung nicht ausreicht. Zertifizierung muss ein offener Prozess werden. Wie gelingt eine Zertifizierung, die die Qualität von KI-Systemen sicherstellt, ohne Innovationen zu hemmen? Da Zertifizierung aufwendig sein kann und Zeit kostet, sollte man nur solche KI-Systeme zertifizieren, die eine erhöhte Kritikalität haben. Irrt sich etwa ein Algorithmus, der mir Musikstücke vorschlagen soll, ist das sicher kein Drama und eine Zertifizierung nicht notwendig. Eine Zertifizierung ist eher nötig für autonomes Fahren, oder für KI-Systeme in der Medizintechnik. Whitepaper „Zertifizierung von KI-Systemen

karriereführer recht 1.2021 – Update jetzt! Die Kanzlei der Zukunft

0

Update jetzt! Die Kanzlei der Zukunft

Der Rechtsmarkt wandelt sich, die Digitalisierung schreitet voran, Legal-Tech wird in bestimmten Bereichen zum Standard. Die Transformation des juristischen Berufs ist in vollem Gange. Kanzleien zeigen, welche neuen Geschäftsmodelle, Strukturen, Arbeitsteilungen und Vorgänge sich daraus entwickeln.

E-Paper karriereführer recht 1.2021 – Update jetzt! Die Kanzlei der Zukunft

0
Ausgabe als PDF downloaden

Digitalisierung im Rechtsmarkt: Update jetzt!

Der Rechtsmarkt wandelt sich, die Digitalisierung schreitet voran, Legal-Tech wird in bestimmten Bereichen zum Standard. Die Transformation des juristischen Berufs ist in vollem Gange. Kanzleien zeigen, welche neuen Geschäftsmodelle, Strukturen, Arbeitsteilungen und Vorgänge sich daraus entwickeln. Ein Essay von André Boße

Wie sieht sie aus, die Kanzlei der Zukunft? Wie arbeiten dort die Anwältinnen und Anwälte – und wer ist dort neben den Juristen noch tätig? Welche Formen der Kommunikation mit den Mandanten gibt es? Wie hoch ist der Grad der Digitalisierung – und welche Aufgaben werden von vollautomatischen Systemen übernommen, die mit Hilfe von Methoden der Künstlichen Intelligenz und Big Data die juristische Arbeit vereinfachen und den Service für die Mandanten erhöhen? Die digitale Transformation macht vor dem Rechtsmarkt nicht halt. Die Pandemie hat den Wandel zusätzlich verschärft, wobei sich die Branche einig ist: Ist Corona vorbei, gerät die Transformation nicht ins Stocken. Im Gegenteil: Die Dynamik bleibt hoch. Gespräche mit Verantwortlichen aus Kanzleien mit verschiedenen Schwerpunkten und Ansätzen zeigen: Die Branche ist bereit, den Veränderungen gerecht zu werden. Eine Kanzlei, die beim Wandel voranschreitet, ist Chevalier Rechtsanwälte in Berlin. Das Geschäftsmodell fokussiert sich auf das Arbeitsrecht. Die Ansprache gilt Arbeitnehmern, die rechtliche Unterstützung bei einem drohenden Jobverlust suchen. Dabei hat sich die Kanzlei intern in verschiedene Bereiche aufgeteilt: Für die IT, die Kunden-Akquise oder auch die Kommunikation mit den Mandanten sind jeweils Fachkräfte verantwortlich. Die zehn anwaltlich Tätigen kümmern sich um die rein juristischen Aufgaben. Markus Hartung ist Gründer und Geschäftsführer der Kanzlei. Als Rechtsanwalt blickt er auf Stationen als Einzelanwalt, Anwalt und Partner in einer internationalen Großkanzlei, Rechtswissenschaftler sowie Strategieberater zurück. Für den Aufbau der ungewöhnlichen Struktur bei Chevalier hat er mit einer Regelannahme gebrochen – nämlich mit jener, nach der „Anwälte alles können – und alles besser. Die Erfahrung und ungezählte Mandantenzufriedenheitsstudien belegen das Gegenteil.“

Fehlerkultur statt Hierarchien

Beim Aufbau der Kanzlei habe man daher als Team verschiedene Bereiche identifiziert und deren Zuständigkeiten anders geregelt. Dazu zählen: Kommunikation, Workflows, Technologie, Innovation, Produktentwicklung, Personalangelegenheiten sowie die allgemeine Organisation. „Unser Modell erlaubt es, dass jeder das machen kann, was er am besten kann“, sagt Markus Hartung. „Das erhöht die Qualität der Arbeit und die Arbeitszufriedenheit.“ Positiver Nebeneffekt für die Juristen „Die Zusammenarbeit mit anderen Experten wirkt sehr beflügelnd.“ Was die Führungsstruktur betrifft, setzt Chevalier auf das Prinzip New Work: Flache Hierarchien, viel Eigenverantwortung, offene Raumkonzepte und informelle Umgangsformen.

Richterbund: Mehr Tempo bei Digitalisierung

Im Zuge des von der Pandemie ausgelösten Schubs bei der Digitalisierung fordert der Deutsche Richterbund (DRB) einen schnelleren Wandel der Justiz. „Die Ausnahmesituation der Corona-Pandemie hat Lücken in der IT-Ausstattung der Gerichte offengelegt, die es zu beheben gilt“, sagt DRB-Bundesgeschäftsführer Sven Rebehn. Das Verfahrensrecht lasse es bereits seit Jahren zu, dass Zivilprozesse online verhandelt werden können. Das komme insbesondere in einfacher gelagerten Standardfällen in Frage, doch ein Ausweichen darauf sei bislang häufig an fehlender Technik gescheitert.
Diesen kulturellen Wandel spüren auch die potenziellen Mandanten, wenn sie die Homepage der Kanzlei besuchen: Die Juristen verzichten bei ihren Vorstellungen auf die Doktor- oder Professorentitel, stattdessen stellen sie sich mit ihren Vornamen vor. „Es gibt keine Hierarchien, aber eine Fehlerkultur“, sagt Markus Hartung. „Wir sehen diesen neuen Weg als einen Dauerversuch der Balance zwischen Individualität und Rücksicht auf andere.“ Gearbeitet wird – wenn die Pandemie kein Home-Office nahelegt – in offenen Bürostrukturen. „Dadurch, dass wir unsere Anwälte nicht in Einzel- oder Doppelzimmern einsperren, entstehen automatisch Teams und Gruppenarbeit, sodass Neuankömmlinge sich schnell integrieren können“, sagt Markus Hartung. Wer für ein bestimmtes Projekt in Ruhe und alleine arbeiten will, der kann das tun. „Dass man sich diese Rückzugsmöglichkeiten aber suchen muss, ist etwas anderes und Neues, als in einem traditionellen Büro zurückgezogen zu sein – und sich die Kontakte suchen zu müssen.“ Der Grundzustand ist also die Offenheit, nicht die Verschlossenheit.

No-Code-Tools: weitreichend, aber anwenderfreundlich

Eng verbunden mit der Chevalier Rechtsanwaltsgesellschaft ist die Chevalier GmbH, eine Tochter des Fluggast-Entschädigungsdienstleisters Flightright. Als Technologieunternehmen entwickelt die Firma Legal-Tech-Anwendungen, die dann direkt auch der Anwaltsgesellschaft zur Verfügung stehen. So lassen sich zum Beispiel über Schnell-Checks auf der Homepage Kündigungen und Aufhebungsverträge prüfen sowie Abfindungen kalkulieren. Im Düsseldorfer Büro der internationalen Kanzlei McDermott Will & Emery wenden die Juristen Legal Tech Tools vor allem in den Bereichen Dokumentenautomatisierung und -analyse sowie Entscheidungsautomatisierung an. „Dokumente, die im Kanzleialltag immer wieder erstellt werden müssen, werden durch geeignete Software automatisiert, zentral gemanagt und sodann in kürzester Zeit generiert“, sagt Jens Ortmanns, Partner sowie Leiter der europäischen Praxisgruppe Immobilienwirtschaftsrecht. Dadurch ergebe sich eine klar erkennbare Effizienz- und Qualitätssteigerung.

Legal-Tech ohne Anwaltschaft?

Bereits 2019 hat das Justizministerium festgestellt, dass Legal-Tech-Portale, die Rechtsdienstleistungen anbieten oder erbringen, von einer Anwaltschaft betrieben werden müssen. Dies begrüßt der Deutsche Anwaltverein (DAV), der diese Positionierung seit jeher vertritt. „Sobald eine individuelle rechtliche Prüfung und Beratung stattfindet, muss dies der Anwaltschaft vorbehalten sein – allein aus Gründen der Qualitätssicherung und damit des Verbraucherschutzes“, heißt es in einer Mitteilung des DAV. Verbraucher könnten meist weder die Qualifikation eines selbsternannten Rechtsberaters noch die Qualität von dessen Leistung richtig einschätzen. Die Forderung des DAV: „Es darf keinen Rechtsdienstleistungsberuf unterhalb der Schwelle der Anwaltschaft geben.“
Im Bereich der Dokumentenanalyse lasse sich eine solche insbesondere im Bereich der Due-Diligence-Prüfung erreichen. Zum Einsatz kommen hier Programme, die mit Elementen der Künstlichen Intelligenz arbeiten. Die Mitarbeiter nutzen dabei so genannte No-Code-Tools, „also durchaus weitreichende Anwendungen, für die jedoch keine Programmierkenntnisse notwendig sind“, wie Ortmanns sagt. Beispiele hierfür seien Programme wie Lawlift und Bryter: „Mit ihnen lassen sich schnell erhebliche Umsetzungserfolge erreichen, was den Vorteil hat, dass wir niedrigschwellig eine Verknüpfung anwaltlichen Wissens und anwaltlicher Erfahrung mit der eigentlichen Programmierung erreichen.“ So war es der Kanzlei gelungen, zu Beginn der Corona-Krise innerhalb weniger Tage ein Tool für Förderhilfen- Anträge zu entwickeln, mit dessen Hilfe Unternehmen das für sie geeignete staatliche Förderprogramm ausfindig machen konnten. Wann sich Legal-Tech anbietet? „Vor allem dann, wenn es um eine große Zahl gleichgelagerter oder regelmäßig wiederkehrender Arbeitsaufträge geht und man auf einen gewissen Erfahrungswert aus vergangenen Aufträgen zurückgreifen kann. Sprich: im Bereich der ‚commodity work‘“, sagt der Partner – und ergänzt: „Die spezialisierte Individualberatung kann dadurch unterstützt aber nicht ersetzt werden.“

Wirtschaftsrecht: Trends erkennen bleibt Anwaltsaufgabe

Für den juristischen Nachwuchs werde es daher darauf ankommen, einerseits die persönliche Expertise in sich wandelnden Umfeldern zu nutzen, andererseits ein Know-how für ein effizientes Management großer Datenmengen aufzubauen.
Hier komme es auf die gewachsene individuelle Erfahrung sowie das persönliche juristische Urteilsvermögen an. „Das sind Themen, die im Vertrauensbereich liegen und die Rechtsberatung der Anwältin oder des Anwalts als ‚trusted advisor‘ erfordern.“ Auch das Erschließen neuer Rechtsthemen sowie Trends bleibe eine Sache der persönlichen Arbeit – „gerade im dynamischen Bereich des Wirtschaftsrechts treten solche stetig auf“. Für den juristischen Nachwuchs werde es daher darauf ankommen, einerseits die persönliche Expertise in sich wandelnden Umfeldern zu nutzen, andererseits ein Know-how für ein effizientes Management großer Datenmengen aufzubauen. Wer das zusammenbringt, dem gelingt es auch, eine Kompetenz zu erhalten, die in Zukunft weiter an Bedeutung gewinnen wird, wie Jens Ortmanns sagt: „die Erstellung besser kalkulierbarer Kostenstrukturen“. Wie aber gelingt es den Kanzleien, die neuen Werkzeuge im laufenden Betrieb zu implementieren? „Vor dem Einsatz von Legal Tech-Tools stand die Erfassung der Ist-Situation“, beschreibt Lars Kuchenbecker, Fachanwalt für Arbeitsrecht und Partner bei der auf Mandanten aus dem Mittelstand fokussierten Stuttgarter Kanzlei Menold Bezler. Die Kanzlei habe bestehende Prozesse analysiert, strategische Aufgaben von operativen abgegrenzt. „Erst danach haben wir uns für eine Legal Tech-Lösung entschieden. Wichtig dabei war und ist, die Lösung auf die Kanzlei- und Arbeitsabläufe abzustimmen, damit alle in der Lage sind, diese Produkte auch tatsächlich in ihren individuellen Workflow einzubauen.“

Rolle als Sparringspartner

Die Aufgabe des Anwalts sei es dabei, den seit Jahren steigenden Erwartungen an „schnelle, pragmatische und auf das Unternehmen zugeschnittene“ Beratung gerecht zu werden. „Um Entscheidungsprozesse zu begleiten und Lösungen für oftmals rechtliches Neuland zu entwickeln, bedarf es mehr als einer Software zur Dokumentenprüfung oder Vertragsgestaltung“, sagt Kuchenbecker. Hier sei der Anwalt als Berater gefragt: „Er ist in der Lage, komplexe Projekte in verschiedenen Lösungsszenarien gemeinsam mit der Geschäftsleitung zu durchdenken und die Entscheidung am Ende mitzutragen.“ Dazu zählte auch die Kompetenz, die geplante Strategie im Vorfeld kritisch zu hinterfragen und gegebenenfalls Alternativen vorzuschlagen. Lars Kuchenbecker versteht seine Arbeit hier auch als jemand, der neben seiner Rolle als Rechtsberater auch als „Sparringspartner und Manager vor allem bei komplexen Projekten“ auftritt. Digitale Methoden kommen auch hier ins Spiel: „Wir optimieren Prozesse durch technische Unterstützungen, etwa mit FTAPILösungen für einen absolut sicheren Datentransfer oder elektronische Vergabeverfahren.“ Worauf es bei dieser Balance aus Rechtsberatung und digitaler Anwendung besonders ankomme, sei Flexibilität: „Die Dinge drehen sich immer schneller“, sagt Lars Kuchenbecker, „das gilt für uns, den Rechtsdienstleistungsmarkt, aber auch für unsere Mandanten und deren Geschäftsbereiche.“ Sich immer wieder neu einzustellen, dabei auf sich ändernde rechtliche Rahmenbedingungen zu reagieren, darauf komme es an. Was zu großen Herausforderungen für juristische Nachwuchskräfte im Jahre 2021 führt: Sich ständig neu einem Update zu unterziehen, ohne dabei in Sachen Kernkompetenz Kompromisse einzugehen.

Buchtipp

Cover Legal-techLegal Tech-Strategien für Rechtsanwälte Das Fachbuch „Legal Tech-Strategien für Rechtsanwälte“ behandelt die berufsrechtlichen Möglichkeiten und Grenzen sowie den regulatorischen Rahmen (wie datenschutz-, haftungs-, versicherungs- und steuerrechtliche Fragen) anwaltlicher Legal Tech-Strategien und regt seine Nutzer*innen an, berufsrechtskonforme Legal Tech-Strategien zu entwickeln und damit rechtssicher Chancen am lukrativen Markt für digitale Rechtsdienstleistungen für sich zu nutzen. Behandelt werden unter anderem die Möglichkeiten und Grenzen nach anwaltlichem Berufsrecht, die Zusammenarbeit mit Legal Tech-Anbietern, datenschutzrechtliche Anforderungen, haftungsund versicherungsrechtliche Aspekte, Sanktionen sowie steuerrechtliche Aspekte. Außerdem zeigen die Autor*innen einen Ausblick auf. Remmertz: Legal Tech-Strategien für Rechtsanwälte. C.H.Beck 2020, 89 Euro.   Justiz und Algorithmen Cover Justiz und AlgorithmenRichterliche Rechtsfindung ist fehleranfällig. Was unspektakulär klingt, belegen neuere empirische Daten eindrucksvoll. Durch Rationalitätsschwächen kann es zu Verzerrungen und jedenfalls dazu kommen, dass sachfremde Aspekte einfließen. Können Algorithmen und „Künstliche Intelligenz“ dazu beitragen, dass gerichtliche Entscheidungen „rationaler“ werden? Überlegungen zur Automatisierung im Recht sind nicht neu, müssen aber aufgrund neuer technischer Möglichkeiten und Erkenntnisse zur Entscheidungsfindung neu gedacht werden. Eine vollständige Automatisierung scheidet allerdings aus. Einzelfallgerechtigkeit zu gewährleisten, ist in vollautomatisierten Verfahren nicht möglich. Neben technischen sind es zuvorderst verfassungsrechtliche Hürden, die einem solchen Vorhaben Grenzen setzten. Ein Verbot algorithmenbasierter Unterstützungssysteme ist dem Grundgesetz indes nicht zu entnehmen. Sofern es gelingt, den Systemen rechtsstaatliche Funktionsweisen einzuhauchen, können neue Technologien die richterliche Rechtsfindung sinnvoll unterstützen. David Nink: Justiz und Algorithmen. Duncker & Humblot 2021, 119,90 Euro