KI und Big Data: Den Wandel ethisch gestalten

Digitales Bauchgefühl

Foto: Fotolia/Sergey Nivens/RobinLee
Foto: Fotolia/Sergey Nivens/RobinLee

Die Dynamik von Themen wie Künstliche Intelligenz und Big Data befeuert die Notwendigkeit einer Debatte über eine digitale Ethik. Diese betrifft auch die Unternehmen und ihre IT-Experten: Sie stehen in der Verantwortung und damit vor der Aufgabe, ein Gespür für die Auswirkungen der Digitalisierung auf die Gesellschaft zu entwickeln. Denn klar ist: Eine ethische Schieflage bremst die Innovationskraft ab. Von André Boße.

Anfang September nahm eine Gruppe ihre Arbeit auf, die einen komplizierten Namen trägt: Datenethikkommission. Man braucht ein paar Anläufe, um diesen Begriff richtig zu schreiben, doch dahinter steckt eine bedeutsame Mission: 16 Expertinnen und Experten aus den Fachrichtungen Medizin, Recht, Informatik, Statistik, Volks- und Betriebswirtschaft, Theologie, Ethik und Journalismus beraten in diesem Gremium, wie es gelingen kann, Digitalisierung und Ethik zusammenzubringen.

Dass dies nötig ist, hat auch die Politik erkannt: Eingesetzt wurde die Kommission von der Bundesregierung, bei der ersten Sitzung waren Innenminister Horst Seehofer und Justizministein Katharina Barley dabei. Worum es bei der Arbeit dieses Gremiums gehen soll, erklärt die Kölner Medizin-Ethikerin Prof. Dr. Christiane Woppen, eine der Sprecherinnen der Kommission:

„Algorithmen und künstliche Intelligenz durchformen alle Bereiche unseres Lebens. Es liegt in unserer Verantwortung, diesen technologischen Wandel zu gestalten.“ Dabei werde der Umgang mit Daten eine Schlüsselfrage auf dem Weg zu einer digitalen Ethik werden, wie die die Wiener Juristin Prof. Dr. Christiane Wendehorst verdeutlicht, auch sie ist Sprecherin des Gremiums: „Daten geben Aufschluss über das Innerste einer Person und über jede soziale Interaktion. Zugleich stehen Daten am Ausgangspunkt ganz neuer Wertschöpfungsketten und Technologien, deren Kontrolle über die Welt- und Wirtschaftsordnung dieses Jahrhunderts entscheiden wird. Deutschland und Europa stehen hier in der Verantwortung, ethische Maßstäbe zu formulieren, die den Menschen in den Mittelpunkt stellen.“

KI in der Medizin

Die AG Ethik der Initiative D21 hat einen Denkimpuls zum Einsatz von künstlicher Intelligenz in der Medizin veröffentlicht. Darin beschreiben die Autoren einen Konflikt, der auch in anderen Bereichen wichtig werden kann: „Die Behandlung durch Ärzte darf nicht zu einem Luxusgut werden, während der Mehrheit lediglich die Interaktion mit KI und Maschine zur Verfügung gestellt wird.“ Sprich: Es darf nicht soweit kommen, dass KI-Lösungen zur Massenabfertigung dienen, während der menschliche Mehrwert der medizinischen oder sonstigen (auch behördlichen oder öffentlichrechtlichen) Dienstleistung nur noch gegen Aufpreis möglich ist.
Quelle: https://initiatived21.de/arbeitsgruppen/ag-ethik

Schon zuvor hatte die Bundesregierung drei Leitfragen gestellt, deren Beantwortung nun Aufgabe der Datenethikkommission sein soll: Erstens, welche ethischen Grundsätze gelten für auf Algorithmen basierende Prognose- und Entscheidungsprozesse? Zweitens, wo verlaufen die ethischen Grenzen bei der Entwicklung, Nutzung und Programmierung von künstlicher Intelligenz? Drittens, welche Grenzen gelten bei der ökonomischen Nutzung von Daten?

Konzernleitlinie: Verantwortung und Transparenz

Nicht nur die Politik stellt sich diese Fragen. Auch in den Unternehmen spielen diese Aspekte eine große Rolle. Spät – aber noch nicht zu spät – entdeckt der Prozess der digitalen Transformation das Thema Ethik, angetrieben von offensichtlichen Fällen von Datenmissbrauch. Aber auch davon, dass die Nutzung künstlicher Intelligenz kein Zukunftsszenario ist, sondern kurz bevorsteht. Interessant sind hier die Leitlinien zur Nutzung von künstlicher Intelligenz, die der Telekom-Konzern im April dieses Jahres veröffentlicht hat. Dort heißt es an zentraler Stelle: „Der Mensch bleibt immer in der Verantwortung.

Für unsere Lösungen ist klar definiert, wer für welches KI-System und welche KI-Funktion verantwortlich ist. Wir tragen die Verantwortung für unsere Produkte und Dienste – und wir wissen, wer seitens unserer Partner und Dienstleister die Verantwortung für die KI-Systeme trägt.“ Heißt: Sätze wie „Die KI war’s“ oder „Da hat die KI eines Kollegen gesponnen“ soll es bei der Telekom nicht geben – ein Umstand, der schon jetzt darauf hindeutet, dass technische Unternehmen eine Art Verantwortungsmanagement etablieren, damit zu jeder Zeit klar ist, welcher Mitarbeiter für welchen Prozess die Verantwortung trägt. Denn künstliche Intelligenz nimmt dem Menschen zwar Arbeit ab, sie entlässt ihn aber nicht aus der Verantwortung.

Auch erklärt die Telekom in diesen Leitlinien ihren Willen „zu teilen und zu erklären“: „Wir leben unsere digitale Verantwortung, indem wir unser Wissen teilen und die Möglichkeiten der neuen Technologie aufzeigen, ohne ihre Risiken zu vernachlässigen. Daher wollen wir Partnerschaften mit anderen Unternehmen eingehen und unser Know-how politischen Entscheidungsträgern und Bildungsanbietern zur Verfügung stellen, um die anstehenden Herausforderungen gemeinsam zu bewältigen.“

Auch das ist interessant, weil die digitalen Konzerne bislang nicht durchgängig dafür bekannt sind, besonders transparent zu sein. Das Papier zeigt also durchaus die Bereitschaft, einen Paradigmenwechsel einzuleiten: Schluss mit der Geheimniskrämerei und dem Sammeln von Daten im Dunkeln. Mit dem Schritt in Richtung KI und damit der wirklichen Arbeit mit Big Data soll die Digitalisierung öffentlicher und kooperativer vonstattengehen.

Humanismus ist der Maßstab

Für Nicolai Andersen wird es höchste Zeit, dass die ethische Debatte endlich mit der Entwicklung digitaler Techniken Schritt hält. Der Partner bei der Unternehmensberatung Deloitte ist Präsidiumsmitglied der Initiative D21, einem gemeinnützigen Netzwerk, das die digitale Transformation kritisch begleitet und durchleuchtet. Mitglieder bei D21 sind Akteure aus Wirtschaft, Politik, Wissenschaft und Zivilgesellschaft.

Zivilcourage gefordert: Leitlinien der Gesellschaft für Informatik

Die Gesellschaft für Informatik mit ihren rund 20.000 Mitgliedern hat im Sommer 2018 neue ethische Leitlinien verabschiedet. Unter den zwölf Punkten findet sich unter anderem der Aspekt „Zivilcourage“: „Das GI-Mitglied tritt mit Mut für den Schutz und die Wahrung der Menschenwürde ein, selbst wenn Gesetze, Verträge oder andere Normen dies nicht explizit fordern oder dem gar entgegenstehen.“ Unter dem Punkt „Soziale Verantwortung“ heißt es: „Das GI-Mitglied soll mit Entwurf, Herstellung, Betrieb und Verwendung von IT-Systemen zur Verbesserung der lokalen und globalen Lebensbedingungen beitragen. Das GI-Mitglied trägt Verantwortung für die sozialen und gesellschaftlichen Auswirkungen seiner Arbeit.“

Quelle: https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien

Andersen ist innerhalb der Initiative Leiter der AG Ethik, in der sich Mitglieder Gedanken darüber machen, wie sich ethische Grundsätze in die digitalisierte Welt übersetzen lassen. Aber gilt in der analogen Welt überhaupt die gleiche Ethik wie in der digitalen? „Der Kern der ethischen Fragen und Antworten unterscheidet sich in der digitalen Gesellschaft nicht von der analogen“, sagt Andersen. Es sei nicht so, dass durch die künstliche Intelligenz der Humanismus auf dem Prüfstand stehe. „Der Humanismus ist der Prüfstand. Und wenn wir künstliche Intelligenz so einsetzen, dass wir Verantwortung für die Gesellschaft tragen, dann müssen wir uns auch keine Sorgen vor KI machen.“

Was sich jedoch verändere und die ethische Debatte herausfordere, sei die hohe Frequenz, in der man sich diese Fragen stellen müsse. „Der digitale Fortschritt bietet uns Handlungsoptionen, die es vorher nicht gab. Somit entstehen Situation, die wir vorher nicht kannten.“ Zudem habe sich das Tempo erhöht: Während sich der technische Fortschritt früher über viele Jahre hinzog und man entsprechend viel Zeit hatte, sich die Entwicklungen anzuschauen und zu bewerten, sind die Innovationszyklen in der vernetzten, digitalen Welt sehr viel kürzer.

Andersen sagt: „Sie können heute eine App entwickeln, die innerhalb weniger Wochen oder Monate weltweit von Millionen Menschen genutzt wird und eine bislang noch nicht geführte ethische Debatte öffnet.“ Das Problem ist nur: Die Technik ist schon da, wird bereits genutzt, stellt – wie beim Beispiel Uber – vielleicht ganze Branchen auf den Kopf. Da hinkt die ethische Diskussion beinahe zwangsläufig hinterher.

Wer Ethik ignoriert, bremst die Innovation

Der Leiter der AG Ethik stellt daher in vielen Bereichen eine Ungleichheit in der Debatte fest. „Wir diskutieren in einigen Bereichen Fragestellungen, die in anderen Bereichen bereits Standard sind. Man denke nur an das Thema ‚Diskriminierung durch Algorithmen’: Dieses taucht beispielsweise im Bereich Human Ressources auf, als wäre es etwas komplett Neues – dabei gibt es das gleiche etwa mit dem Credit Scoring bei der Kreditvergabe schon seit Jahrzehnten.“ Zudem stellt Andersen eine starke Diskrepanz zwischen „Ergebnis-Wissen“ und „Ursachen-Wissen“ fest: „Die Menschen entwickeln viel Fantasie, welche Auswirkungen der Einsatz digitaler Techniken haben könnte und wie diese ihr Leben beeinflussen könnten. Gleichzeitig aber ist das Fachwissen wenig verbreitet, wie diese Techniken funktionieren.“ So komme es, dass Vorschläge zur Regulierung entstünden, die in der Realität nicht sinnvoll oder nicht umsetzbar seien. „Das wiederum kann zu Innovationsbremsen führen, wenn seitens der Innovationstreiber Unsicherheiten entstehen und sie nicht abschätzen können, ob oder wie eine Regulierung auf ihre Entwicklungen Einfluss haben könnte“, so Andersen.

Er setzt daher beim Thema der digitalen Ethik auf die Fort- und Weiterbildung – auch in den Unternehmen. „Wir neigen dazu, das zu fürchten, was wir nicht kennen. Technologie bringt eine neue Dynamik und Geschwindigkeit in eine Entwicklung. Aber erst mit Wissen und Verständnis, können wir deren Entwicklungen steuern. Daher brauchen wir Verständnis und Know-how, um die Weichen richtig zu stellen.“ Sonst sei es, als würde man nachts sehr schnell in einem Auto fahren, ohne etwas zu sehen. „Natürlich entsteht da Panik und es wird auf die Bremse gedrückt.“ Umso wichtiger seien Entscheidungsträger und Führungskräfte, die die Weitsicht besitzen, das Auto auch in dieser Nacht- und Nebelaktion Digitalisierung sicher zu steuern. Entscheidend seien hier Digitalkompetenzen, die aber weit über fachliches IT-Know-how hinausgehen.

Für Andersen geht es darum, „Situationen im Kontext ihrer allgemeinen Lebenserfahrung einordnen zu können.“ Also um eine Art „digitales Bauchgefühl“. Dieses hat natürlich mit Fachwissen zu tun. Aber es bedingt auch eine gewisse emotionale Intelligenz, um abseits der IT-Expertenzirkel einschätzen zu können, welche Auswirkungen eine digitale Entwicklung auf die Mitarbeiter im Unternehmen, die Kunden und die gesamte Gesellschaft hat.

Bei ihren Leitfragen an die Datenethikkommission verweist die Bundesregierung auf eine wichtige Prämisse der Menschenwürde, die auch Teil von Artikel 1 des Grundgesetzes ist: „Ein Mensch darf nicht zum bloßen Objekt werden.“ Etwas weiter gedacht: Ein Mensch ist immer mehr als die Daten, die man über ihn gesammelt hat. Eine künstliche Intelligenz – also eine Maschine – kann mit dieser normativen Bedingung nur wenig anfangen. Es wird daher eine der Kernaufgaben der IT-Experten sein, diesen ethischen Anspruch zu jeder Zeit mitzudenken.

Buchtipps

3TH1CS

Cover EthicsDie digitale Transformation stellt unsere Moralvorstellungen auf die Probe und führt zu neuen Fragen in allen Bereichen des Lebens: Politik, Wirtschaft, soziales Zusammenleben, Kommunikation, Unterhaltung. In zwanzig Beiträgen stellen sich Expertinnen und Experten aus Europa, Amerika und Asien der Herausforderung, Antworten auf die Fragen zu finden, die auf uns zukommen.

Philipp Otto und Eike Gräf (Hrsg.): 3TH1CS – Die Ethik der digitalen Zeit. iRights 2017, 29,99 Euro.Jetzt kaufen bei Amazon

Digitaler Humanismus

Cover Digitaler HumanismusDie Bestseller-Autorin Dr. Nathalie Weidenfeld und ihr Mann, der Philosoph und ehemalige Staatsminister Prof. Dr. Julian Nida- Rümelin, zeigen mit dem Buch „Digitaler Humanismus“ eine, so der Untertitel, „Ethik für das Zeitalter der Künstlichen Intelligenz“. Mit einem Brückenschlag zwischen philosophischen Gedanken und Zukunftsszenarien legen die beiden Autoren einen Gegenentwurf zur Ideologie im Silicon Valley vor, wo die Künstliche Intelligenz zu einem Manna der Fortschrittsgläubigen zu werden droht – zumal bei einem reinen Blick auf die Nutzbarkeit fürs Business. Ingenieuren bietet das Buch Impulse, wie es gelingen kann, den technischen Fortschritt im ethischen Kontext zu betrachten.

Julian Nida-Rümelin/Nathalie Weidenfeld: Digitaler Humanismus: Eine Ethik für das Zeitalter der Künstlichen Intelligenz. Piper Verlag 2018. 24 EuroJetzt kaufen bei Amazon