karriereführer informationstechnologie 2020.2021 – Cyber-Sicherheit 4.0: IT-Sicherheits-Know-how dringend gesucht

0

Cover karriereführer informationstechnologie 2020-2021

Cyber-Sicherheit 4.0: IT-Sicherheits-Know-how dringend gesucht

Die Zahl der Hacker-Attacken steigt, auch mittelständische Unternehmen oder kleinere Organisationen werden zum Ziel der Angreifer. Ein aussichtloses Rennen? Nicht, wenn in die Sicherheitsarchitektur investiert wird. Was hilft, sind automatisierte Verfahren auf KI-Basis und Fachkräfte, die Themen wie AI und Security ganzheitlich denken. Auf diese Art entsteht eine Cyber-Sicherheit der nächsten Generation.

Cyber-Sicherheit 4.0

Die Zahl der Hacker-Attacken steigt, auch mittelständische Unternehmen oder kleinere Organisationen werden zum Ziel der Angreifer. Ein aussichtloses Rennen? Nicht, wenn in die Sicherheitsarchitektur investiert wird. Was hilft, sind automatisierte Verfahren auf KI-Basis und Fachkräfte, die Themen wie AI und Security ganzheitlich denken. Auf diese Art entsteht eine Cyber-Sicherheit der nächsten Generation. Ein Essay von André Boße

Ein kurzer Check der Nachrichtenlage Ende September 2020: Wer den Begriff „Cyber-Angriff“ in die News-Suchmaschine eingibt, erhält eine Reihe von Treffern, die Riege der Opfer ist gemischt: Sie kommen aus unterschiedlichsten Branchen, betroffen sind Unternehmen unterschiedlichster Größe – vom Kleinunternehmen über den Mittelstand bis hin zum Konzern, Institutionen, Organisationen und Behörden aus aller Herren Länder. Und nicht selten tauchten im Nachhinein sensible Daten nach derartigen Cyber-Angriffen frei einsehbar im Netz auf. Der mutmaßliche Hintergrund: Die Hacker wollten vier Millionen Dollar erpressen.

Unsicherheitsfaktor Mensch

Laut der Deloitte-Studie spielt menschliches Fehlverhalten eine große Rolle, wenn sich in Organisationen und Unternehmen große Sicherheitslücken ergeben. Bei den Verursachern stehen ungeschulte Mitarbeiter an erster Stelle, sie sind für 51 Prozent der von Menschen innerhalb des Betriebs verursachten Vorfälle verantwortlich. Mit Abstand folgen die Nutzung mobiler Endgeräte (37 %) sowie Social-Media-Aktivitäten (26 %). Die Unternehmen selbst wissen um diese Schwachstellen: Alle Studienteilnehmer schätzten den Informationsgrad der eigenen Mitarbeiter zu sicherheitsrelevanten Cyber-Themen als mittel bis niedrig ein. Fort- und Weiterbildungen sind also dringend notwendig.

Unklar ist dagegen weiterhin, wer hinter dem Cyber-Angriff auf die Düsseldorfer Uniklinik steckt. Diese Attacke ist ein besonders problematischer Fall, weil Krankenhäuser ein Teil der Kritischen Infrastrukturen (KRITIS) darstellen. Als die Hacker das IT-System der Uniklinik lahmgelegt hatten, funktionierten dort die Prozesse nicht mehr; die Notaufnahme konnte nicht mehr angefahren werden, eine Patientin verstarb, mutmaßlich, weil ihr nicht früh genug geholfen werden konnte. Als „ein Desaster“ bezeichnete Lothar Kratz, Sprecher des Verbandes Krankenhausgesellschaft NRW, die Folgen der Hacker-Attacke in einem Interview mit der Deutschen Presse- Agentur (dpa). Aber hätte man diesen Angriff nicht verhindern können, gerade in einer Klinik, für die in Sachen Cyber-Sicherheit die harten KRITIS-Kriterien gelten?

IT-Sicherheit zu erreichen, sei ein ständiger „Wettlauf mit den Hackern“, erklärt Lother Kratz der dpa. Wobei sich dieser Wettlauf in diesem Fall offenbar an der bekannten Geschichte vom Hasen und dem Igel orientiert: Egal, was die Verteidiger auch machen, die Angreifer sind schon weiter. Um mit ihnen mithalten zu können, brauche man sehr gutes IT-Security-Personal, sagt Kratz. Doch Fachkräfte seien rar. Es sei daher auch „eine Frage des Geldes“.

Altbackene Security macht es Hackern leicht

Wer heute als Nachwuchstalent mit Schwerpunkt IT-Sicherheit seine Karriere startet, darf sich also sicher sein: Die Nachfrage nach dem Know-how ist enorm. Jedoch sind solche Jobs undankbar, bei denen man eben die Rolle des Hasen einnimmt, der kaum eine Chance hat, den Igel zu erwischen. Das liegt jedoch nicht daran, dass Hacker besser sind als die Security-Spezialisten: Lutz Meyer, Partner bei der Beratungsgesellschaft Deloitte und dort Leiter des Bereichs Deloitte Private, der sich auf mittelständische Unternehmen fokussiert, nennt als Grund für den Rückstand der Verteidiger, dass „lange Zeit Sicherheitsaspekte im Kontext des Internets und der Digitalisierung zu sehr vernachlässigt worden sind“. „Cyber Security im Mittelstand“ heißt die von ihm verantwortete Studie, und sie zeigt, wo bei den mittelständischen Unternehmen – „den wahren Erfolgsträgern der deutschen Wirtschaft“, wie Meyer schreibt – die Probleme liegen. So hätten die mittelgroßen und kleineren Unternehmen bisher bei Cyber-Attacken nicht so sehr im Mittelpunkt gestanden wie die großen Konzerne.

Damit aus der Corona-Krise keine Security-Krise wird

Für viele Sicherheitsstrategen ist es ein Albtraum, wenn immer mehr Mitarbeiter nicht mehr an ihrem Böroarbeitsplatz tätig sind, der an das interne IT-System angedockt ist, sondern von zu Hause mit eigenen Devices und eigenen Netzwerken arbeiten. Die Initiative Cyber Security Cluster hat einen Leitfaden veröffentlicht, der Unternehmen, IT-Abteilungen und Mitarbeitern Orientierung gibt, wie sich Daheim ein sicherer Home-Office- Platz einrichten lässt und welche Fehler dabei unbedingt vermieden werden sollten.

„Daraus“, so Meyer, „sollte man jedoch nicht folgern, dass sich Mittelständler zurücklehnen und allzu sicher fühlen dürfen.“ Ein Blick auf die IT-Security-Architektur zeige häufig schnell, dass dieses Sicherheitsgefühl trügt. Meyer erläutert: „Veraltete Systeme, unzureichende Sicherheitsstandards und nicht zuletzt menschliche Fehler können auch im Mittelstand zu enormen, teilweise existenzbedrohenden Situationen während eines Cyber-Angriffs oder in unmittelbarer Folgezeit führen.“ Dennoch werde, so zeigt es eine Umfrage zur Studie, das Risiko bei vielen mittelständischen Unternehmen weiterhin unterschätzt: Für 48 Prozent der befragten Unternehmen stellen Cyber-Risiken kein zentrales Thema dar, mehr als ein Drittel verfügt im Fall der Fälle nicht einmal über einen Notfallplan. Dabei, so wird es in der Studie klargestellt, „ist die Reaktionsgeschwindigkeit eine der größten Herausforderungen bei der Abwehr einer Cyber-Attacke.“

Bedrohung von morgen ist längst heute aktuell

Viele millionenschwere Unternehmen schützen sich also nicht nennenswert mehr, als es auch private Nutzer tun. Das ist eine dramatische Schieflage.

Wer weder das Risiko richtig einschätzt noch eine Idee hat, wie und mit welchem Expertenwissen man diese abwehren könnte, wird für Hacker zum leichten Opfer. „Ein Großteil der Abwehrmaßnahmen, die die befragten Unternehmen im Bereich Cyber-Security ergreifen, geht selten über die klassischen Rahmenwerke für IT-Sicherheit wie Virenscanner oder Firewalls hinaus“, fasst Studien-Autor Lutz Meyer im Summary zusammen. Viele millionenschwere Unternehmen schützen sich also nicht nennenswert mehr, als es auch private Nutzer tun. Das ist eine dramatische Schieflage. Interessant ist, dass diese heute noch „sicherheitsblinden“ Unternehmen das Security-Thema in der Zukunft deutlich höher bewerten: Während aktuell rund 50 Prozent der Befragten die Relevanz des Themas als „hoch“ oder „sehr hoch“ einschätzten, liegt der Anteil dieser Nennungen „in der Zukunft“ bei 83 Prozent. Viele Unternehmen erkennen also nicht, dass die Bedrohung von morgen schon heute aktuell ist.

Wie aktuell die Gefahr ist, zeigt die internationale „Cost of a Data Breach“-Studie, die IBM zusammen mit dem Ponemon Institut durchgeführt hat. Kommt es in Deutschland zu Datenvorfällen, also zum Verlust oder ungewollten Offenlegung von Daten, stecken in 57 Prozent der Fälle böswillige Angriffe dahinter. Der Anteil von Systemfehlern liegt nur bei 24 Prozent. Wie aber gelangen die Hacker in die Netzwerke der Unternehmen? Laut der IBM-Studie nutzen „fast 40 Prozent der Angreifer die Zugangsdaten von Mitarbeitern oder fehlerhafte Cloud-Konfigurationen aus“. Verschärft wird das Problem durch die deutliche Zunahme von Home-Office-Zeiten im Zuge der Corona-Krise: 70 Prozent der befragten Unternehmen, die während der Covid-19-Pandemie Home-Office eingeführt haben, rechneten mit mehr Datenpannen und überdenken deswegen ihre Sicherheitsstrategie. Als „Markt für gehackte Daten“ nimmt das Darknet weiter in seiner Bedeutung zu: Hier finden Cyber-Angreifer die „digitalen Generalschlüssel“, die sie für ihre Attacken benötigen: „Immer mehr Daten in Form von E-Mailadressen, Usernamen und Passwörtern werden gestohlen. Allein 2019 waren es über 8,5 Milliarden gestohlene Datensätze“, heißt es in der „Cost of a Data Breach“-Studie. Zum Vergleich: Von 2016 bis 2018 wurden in einem dreimal so langen Zeitraum insgesamt 11,3 Milliarden Daten geraubt.

Dringende Empfehlung: Mehr Budget für Cyber-Sicherheit

Ist der Kampf gegen die Angreifer also hoffnungslos? Nicht, wenn sich die Unternehmen und Organisatoren endlich ernsthaft wappnen. Und zwar mit Hilfe von genügend großen Investitionen in die Sicherheit, also in Personal und Strukturen. Die Deloitte-Umfrage zeigt, dass beim Budget, das den Cyber-Security-Verantwortlichen zur Verfügung steht, noch eine Menge Luft nach oben ist: So gaben 81 Prozent der Teilnehmer an, weniger als 50.000 Euro pro Jahr auszugeben, davon 43 Prozent sogar weniger als 10.000 Euro. „Aus Expertensicht ist dies nicht genug“, heißt es in der Studie: Gemessen an der Empfehlung, dass rund 0,5 bis 2 Promille des Umsatzes für Cyber-Sicherheit aufgewendet werden sollten, erfüllten 89 Prozent der Unternehmen diese Maßgabe.

Gesetzliche Vorgaben für IT-Sicherheit

Fast jedes zweite Unternehmen in Deutschland (47 %) fordert höhere gesetzliche Anforderungen an die IT-Sicherheit in der Wirtschaft. Das hat die repräsentative Ipsos-Umfrage im Auftrag des TÜV-Verbands „TÜV Cybersecurity Studie“ unter 503 Unternehmen ab zehn Mitarbeitern ergeben. Befragt wurden IT-Sicherheitsverantwortliche, IT-Leiter und Mitglieder der Geschäftsleitung. Demnach stimmen zudem 59 Prozent der Aussage zu, dass Regulierung durch den Gesetzgeber wichtig ist und zu einer besseren IT-Sicherheit ihres Unternehmens beiträgt. „Die Unternehmen geben ein überraschend starkes Votum für eine stärkere gesetzliche Regulierung der IT-Sicherheit in der Wirtschaft ab“, sagte Dr. Michael Fübi, Präsident des TÜV-Verbands (VdTÜV), bei Vorstellung der Studie. Die wichtigsten Gründe für den Wunsch nach strengeren staatlichen Vorgaben seien eigene Erfahrungen mit Cyberkriminalität und die digitale Transformation.

Wenn Unternehmen in die Daten-Sicherheit investieren, geht der weltweite Trend verstärkt dahin, auf automatisierte Security-Verfahren zu setzen. Dass sich das rechnet, hat die IBM-Studie auf globaler Ebene herausgefunden: „Für nichtautomatisierte Unternehmen waren Datenpannen 2019 mit sechs Millionen US-Dollar mehr als zwei Mal so teuer wie für Unternehmen, die auf Künstliche Intelligenz und Machine Learning setzen.“ Hier beziffert der Report die Kosten der Datenvorfälle bei nur 2,45 Millionen US-Dollar. Der große Vorteil der Security-Automatisierung: Sie ist bei der Reaktion und Eindämmung eines Vorfalles laut Studien-Berechnung 74 Tage schneller als Verfahren ohne Smart-Tech. Eine erfreuliche und überraschende Erkenntnis der Studie: Beim Thema Security-Automatisierung liegen die deutschen Unternehmen weltweit an der Spitze. Es scheint also der Fall zu sein, dass diejenigen Unternehmen, die Cyber-Security bereits jetzt ernst nehmen, mehr als die Firmen aus anderen Ländern die Potenziale neuer Sicherheitstechnologien erkennen. Und das zahlt sich aus: „Deutsche Unternehmen reagieren mit nur 160 Tagen am schnellsten auf Datenpannen, im globalen Vergleich sind es 280 Tage.“ Das spart Geld: Vorfälle, für deren Identifizierung und Eindämmung die Unternehmen mehr als 200 Tage benötigen, seien im Durchschnitt mehr als eine Million US-Dollar teurer als Pannen, die in weniger als 200 Tagen behoben werden, haben die Studienautoren kalkuliert.

KI ermöglicht automatisierte Security

Technische Fortschritte der AI können maßgeblich zur Verbesserung der Cyber-Sicherheit beitragen.

Ein Grund, den Einsatz von KI im Bereich der Sicherheits- Architektur skeptisch zu betrachten, ist für viele Unternehmen und Organisationen die schwer zu beurteilende Leistungsfähigkeit dieser Systeme. Dieses Problem war Grundlage eines Workshops am Fraunhofer-Institut für Sichere Informationstechnologie SIT, in dessen Rahmen Experten aus Wissenschaft und Wirtschaft Empfehlungen zum Thema „AI, Security & Privacy“ erarbeitet haben. Die Spezialisten sind sich sicher: „Technische Fortschritte der AI können maßgeblich zur Verbesserung der Cyber-Sicherheit beitragen.“ Wobei es zu bedenken gilt, dass die Angreifer ebenfalls auf KI-Methoden setzen. Noch betrachten viele Unternehmen die Künstliche Intelligenz daher eher als potenziellen Gefährder denn als Komponente der eigenen Sicherheitsstrategie.

Die Autoren fordern daher Mindeststandards, Qualitätskriterien sowie einen „Code of Conduct“, um Vertrauen zu schaffen. Dazu würden die technische Möglichkeit, die AI abzuschalten, zählen, aber auch Richtlinien für die Themen Ethik und Datenschutz, die diskutiert werden müssten, „um das Verhältnis von Mensch und Maschine wertekonform zu gestalten“. Das zu bewerkstelligen, funktioniert nicht ohne KI-Fachkräfte mit Expertise für Cyber-Sicherheit und Datenschutz. Wobei die Experten vom Fraunhofer SIT das Feld des notwendigen Know-hows noch deutlich erweitern: „Es braucht neben Informatikern auch Philosophen, Juristen, Ingenieure, Betriebswirte und viele weitere Experten, die AI ausreichend verstehen und anwenden können.“ So entstehe Schritt für Schritt eine Cyber-Sicherheit der nächsten Generation. Ihre Basis: KI- und IT-Kompetenz in allen relevanten Disziplinen und Sektoren. Nur, wenn Unternehmen und Organisationen durchdrungen sind von Methoden-Security und einer allgegenwärtigen Achtsamkeit, lassen sich Attacken abwenden. Mit dem Ziel, dass Hase und Igel die Rollen tauschen.

Buchtipp

Cover Security AwarenessSecurity Awareness

Die Awareness für Informationssicherheit gewinnt aufgrund einer steigenden Bedrohungslage und immer strengerer Compliance-Anforderungen zunehmend an Bedeutung. Das Buch „Security Awareness“ von Stefan Beißel, Leiter für Informationssicherheit und Risikomanagement bei einem führenden europäischen Dienstleister für Straßenbenutzungsgebühren, bietet eine fundierte Einführung in die Awareness und eine Handlungshilfe für die Gestaltung und Umsetzung von geeigneten Maßnahmen. Es vermittelt auch Wissen darüber, welche Verknüpfungen die Awareness zu anderen Fachbereichen besitzt. Unter anderem werden Risikomanagement, Wirtschaftlichkeit, Governance, Compliance und Lernpsychologie betrachtet. Stefan Beißel: Security Awareness. De Gruyter Oldenbourg 2019, 44,95 Euro.

Kritischer Informatiker: Dr. Stefan Ulrich im Interview

Als Sprecher der Fachgruppe „Informatik und Ethik“ der „Gesellschaft für Informatik“ beschäftigt sich Dr. Stefan Ullrich intensiv mit den moralischen Fragen der Digitalisierung. Diese knüpfen daran an, worüber schon die alten Griechen oder Hannah Arendt nachgedacht haben: Für eine digitale Ethik benötigt man gesellschaftlich anerkannte Werte und Menschen, die sich dafür einsetzen, diese zu schützen. Klar ist: IT-Experten nehmen hierbei im digitalen Zeitalter Schlüsselpositionen ein. Die Fragen stellte André Boße.

Zur Person

Stefan Ullrich ist promovierter Informatiker und Philosoph, der sich kritisch mit den Auswirkungen der IT-Systeme in der Gesellschaft beschäftigt. Er ist Leiter der Forschungsgruppe „Verantwortung und das Internet der Dinge“ am Weizenbaum-Institut für die vernetzte Gesellschaft. Seit 2019 ist Stefan Ullrich Mitglied der Sachverständigenkommission für den Dritten Gleichstellungsbericht der Bundesregierung. Er ist stellvertretender Sprecher der Fachgruppe „Informatik und Ethik“ der deutschen Gesellschaft für Informatik, zudem Mitglied des Forums Informatikerinnen und Informatiker für Frieden und gesellschaftliche Verantwortung (FIfF e.V.) sowie des Arbeitskreises Ethik der Initiative D21.

Herr Ullrich, wann haben Sie auf Ihrem Karriereweg zum ersten Mal die Erkenntnis gehabt, dass Informatik und Ethik zusammengedacht werden müssen?
Während der ersten Semester an der Humboldt-Uni zu Berlin habe ich die Vorlesung „Informatik und Gesellschaft“ bei Wolfgang Coy besucht, der die Informatik im Kontext betrachtet hat – und eben nicht als von der Gesellschaft losgelöste Ingenieurwissenschaft. In einer Vorlesung las er uns das „Bekenntnis des Ingenieurs“ vor, das unmittelbar nach dem Zweiten Weltkrieg entstanden war, in Anbetracht der entscheidenden Rolle der Technik für das Wohl und Wehe der Person. Darin heißt es, dass sich alle Technikberufe mit den Werten beschäftigen müssen, die jenseits von Wissen und Erkennen liegen. Als „Techie“ erschien mir das zunächst sehr schwammig: Was sollen denn Werte sein, die wir nicht wissen und erkennen können? Dann wurde mir klar, dass es die Beschäftigung mit moralischen Fragen ist, die damit gefordert wurde.

Sie bezeichnen sich selbst als „Kritischen Informatiker“. Sollte dieser kritische Blick auf das eigene berufliche Tun nicht bei jedem dazugehören?
Die „kritikē téchnē“ der alten Griechen bezeichnete die Kunst, Sachverhalte voneinander zu unterscheiden und klar zu definieren. Insofern sind eigentlich alle Wissenschaften kritisch, allein etymologisch, da haben Sie Recht. In Bezug auf die Informatik soll es deutlich machen, dass wir Informatiker*innen uns bewusst sind, dass informationstechnische Systeme zur Verstärkung von Herrschafts- und Unterdrückungsmechanismen der bürgerlichen Gesellschaft verwendet werden können und auch werden. Wir wissen, dass dieses einzigartige Werkzeug für die Mündigkeit des Menschen pervertiert werden kann – und auch wird. Und zwar, um einen Großteil der Bevölkerung unmündig zu halten. Dagegen wehren sich die sogenannten Kritischen Informatiker.

Sie sind Diplom-Informatiker und Magister-Philosoph. Nun kannten die klassischen Philosophen größtenteils die Informatik noch nicht. Welche ihrer Erkenntnisse sind dennoch wichtig, um heute Informatik und Ethik zusammenzudenken?
Im Platonischen Mythos ist der ägyptische Gott Theuth nicht nur der Erfinder der Buchstaben, sondern auch der der Zahl, der Rechnung, der Messkunst und des Würfelspiels. Das macht Theuth zum Erfinder zentraler Bausteine der Digitalisierung! Die klassischen Philosophen kämen also mit der Informatik gut klar. Ein wiederkehrendes Thema ist seit jeher die Ambivalenz der Technik: Sie kann zum Guten wie zum Schlechten eingesetzt werden. Nehmen wir große Datensammlungen: Daten sind ein wunderbares Werkzeug der Aufklärung, schauen Sie sich im Netz einmal die Vorträge von Hans Rosling an, der mit Hilfe von Daten mit dem Mythos der sogenannten unterentwickelten Länder aufräumt. Daten werden jedoch auch dazu genutzt, Menschen besser zu manipulieren, sie dazu zu bringen, bestimmte Produkte zu kaufen oder bestimmte Personen zu wählen. Daten können sogar Existenzen zerstören, als „Weapons of Math Destruction“, wie es Cathy O‘Neil formuliert. Der ungeheuerliche Charakter großer Datensammlungen sollte uns zur moralischen Reflexion zwingen, denn letztendlich bestimmen wir, ob und wie wir die Technik einsetzen.

Der ungeheuerliche Charakter großer Datensammlungen sollte uns zur moralischen Reflexion zwingen, denn letztendlich bestimmen wir, ob und wie wir die Technik einsetzen.

Im Zuge der Pandemie erhält man häufig den Eindruck, eine stärkere Digitalisierung sei in der Lage, viele der Probleme zu lösen, zum Beispiel mit Blick auf Kontaktverfolgung, Bildung oder New Work. Überschätzt die Gesellschaft das Lösungspotenzial von IT-Techniken?
Die Frage ist, ob die sogenannte Digitale Revolution wirklich so progressiv ist, wie wir gern annehmen wollen. Die Digitalisierung, so es sie denn gibt, ist heutzutage untrennbar mit dem Leitmotiv „Effizienz“ verbunden. Alle Probleme, die sich mit einer Effizienzsteigerung lösen lassen, können durchaus von der Digitalisierung profitieren. Die vielleicht wichtigsten Aufgaben der Menschheit gehören jedoch nicht dazu: Gleichberechtigung, gesellschaftliche Teilhabe, Demokratie, Bildung, Pflege, Freundschaft, Liebe – all das sind Dinge, die wir eben nicht „effizienter“ gestalten sollten, sondern vielleicht „inklusiver“, „intensiver“ und „nachhaltiger“.

Die Regeln, Normen und Gesetze im öffentlichen Raum sind gelernt, wir halten sie ein – und wissen, was uns blüht, wenn wir es nicht tun. Im digitalen Raum ist das noch anders. Entwickelt sich endlich eine Art Regel-Kodex für diesen digitalen Raum?
Ich glaube, ich weiß, worauf Sie mit dieser Frage hinauswollen. Aber die Erklärung für ein Phänomen wie „hate speech“ liegt nicht in einer vermeintlichen Gesetzeslosigkeit im digitalen Raum. Es gibt schlicht keine rechtsoder regelfreien Räume im Digitalen. Mehr noch, es gibt diesen einen digitalen Raum nicht, schon gar nicht losgelöst von der uns umgebenden physikalisch- haptischen Welt. Was es jedoch sehr wohl gibt, sind Gesetzmäßigkeiten, die bestimmte Verhaltensweisen unterstützen und andere bremsen. Provozierende Texte und Memes werden häufiger kommentiert und geteilt als Inhalte, die man einfach nur mag. Das gefällt dem Troll ebenso wie dem Werbenetzwerk, auf dem diese menschenverachtenden Inhalte gepostet werden.

Also keine Chance für einen funktionierenden digitalen Kodex?
Für wen sollte der funktionieren? Auch eine rassistische oder sexistische Gesellschaft würde ja für diejenigen „funktionieren“, die zum Beispiel allein das Bruttoinlandsprodukt als Maßstab nehmen. Nein, wir müssen über die Bedingungen sprechen, wie dieser Kodex gefunden wird und welche Rolle er für die Menschen einnehmen soll. Sie sehen, wir sind wieder bei der Diskussion über die Werte einer Gesellschaft.

Forschungsgruppe „Verantwortung und das Internet der Dinge“

Anspruch der von Stefan Ullrich geleiteten Forschungsgruppe ist es, das Feld „Verantwortung und das Internet der Dinge“ umfassend zu kartieren und neue Beiträge zu ungeklärten Fragen rund um die ubiquitäre (also allgegenwärtige) Verantwortung zu leisten. Die Verantwortung der technisch Handelnden sei seit der Antike ein wiederkehrendes Thema in der Wissenschaft und Politik, heißt es in der Beschreibung des Forschungsauftrags. „Mit wachsenden Gestaltungsoptionen erweitert sich nun auch der Umfang der Verantwortung. Im Rahmen unserer Forschung betrachten wir den Begriff sowohl aus ethisch-moralischer und juristischer Sicht als auch im Hinblick auf technische Umsetzbarkeit.“

Welche Rolle können Informatiker dabei spielen?
Wir sollten für die Diskussion über einen solchen Kodex eine digitale Öffentlichkeit schaffen. Eine solche entsteht aber nur, wenn wir nicht nur als Konsumenten oder Wählerstimme wahrgenommen werden, sondern diesen Raum mitgestalten. Wir sprechen heute zwar von Nutzer*innen der Online-Dienste, es wäre aber richtiger, von Genutzten oder Benutzten zu sprechen. Die eigentlichen Kunden großer Dienste-Anbieter sind ja nicht wir, sondern Werbefirmen, Parteien oder andere Organisationen. Wir, die Leute mit dem Profilbild, sind eigentlich das „target“, die Zielgruppe der Werbung. Das Flanieren auf diesem Boulevard Digital muss also gelehrt werden, und die Informatiker*innen könnten sich viel stärker in diese politische Grundbildung einbringen. In der Gesellschaft für Informatik haben wir seit Mitte der 90er-Jahre ethische Leitlinien, mit denen wir uns an die Informatiker*innen richten, die eine besondere Verantwortung durch die Gestaltung der „ungeheuren“ Technik besitzen. Dazu gehört eben auch die Aufklärung über die Funktionsweisen und Mechanismen des Digitalen.

Die Fragen der IT-Ethik stehen uns noch bevor, wenn die KI mehr noch als heute Einzug in Alltagstechniken hält, insbesondere in die Mobilität? Welche Möglichkeiten gibt es für Informatiker, schon jetzt die ethische Dimension mitzudenken?
Wir brauchen dafür dringend ein Denken, das man durchaus lernen kann, etwa durch die Lektüre der Werke von Hannah Arendt. Ich persönlich mag es sehr, mich an den von Joseph Weizenbaum aufgeworfenen Leitfragen zu orientieren: Erstens, wer ist die oder der Nutznießende unseres technischen Fortschritts und wer sind dessen Opfer? Zweitens, welche menschlichen Angelegenheiten sollten wir überhaupt dem Computer übertragen und welche prinzipiell nicht? Drittens, was ist der Mensch und welche Auswirkungen hat der Computer auf die Vorstellung von Menschenwürde? An der Beantwortung sollten wir alle inklusiv und gemeinsam arbeiten – dann haben wir übrigens auch unseren Verhaltenskodex: Habe Mut, den eigenen Verstand zu gebrauchen, auch und gerade im Digitalen!

Elektronen und Qubits

Mit den Quantencomputern stehen wir am Anfang einer vollkommen neuen Computergeneration. Durch sie verspricht man sich schneller zu Lösungen zu kommen und bisher nicht erreichbare Potenziale in Industrie und Gesellschaft zu erschließen. Von Christoph Berger

Quanteninformatiker Jun.-Prof. Dr. Sevag Gharibian von der Universität Paderborn möchte mit einem neuen Forschungsprojekt einen Beitrag zum besseren Verständnis der Quantencomputer leisten, den neuen Superrechnern. Dieser auf uns zukommenden Computergeneration wird prophezeit, dass sie herkömmliche PCs alt aussehen lässt und Probleme lösen wird, an denen selbst die besten Superrechner bislang scheitern. Nicht umsonst leisten sich die großen Tech-Unternehmen aktuell einen Wettkampf um die Entwicklung der Megarechner. Diese Aufgabe ist herausfordernd, sind Quantencomputer doch schwer zu bauen und zu programmieren.

Gharibian will untersuchen, wie sich mithilfe von Quantensystemen die physikalischen Eigenschaften und Prozesse der Natur berechnen lassen. „In der Quanteninformatik arbeiten wir daran, die nächste Computergeneration zu bauen. Heutige Rechner basieren auf der klassischen Mechanik und rechnen mit Bits. Quantencomputer dagegen funktionieren auf Basis der Quantenmechanik und rechnen mit Quanten-Bits, meist Qubits genannt“, erklärt er.

Während die klassische Mechanik mathematisch beschreibt, wie groß oder makroskopisch sich Objekte verhalten, widmet sich die Quantenmechanik der Welt des Allerkleinsten: Sie untersucht die mathematischen Gesetze, die bestimmen, wie klein oder subatomar Objekte wie Photonen, also winzige Lichtteilchen, agieren. Als bildhaften Vergleich wählt Gharibian einen Tennisball in Bewegung: Er kann nur an einem Ort sein und einen Zustand annehmen; kleine Objekte wie Elektronen dagegen können gleichzeitig an verschiedenen Orten und in verschiedenen Zuständen existieren. Übertragen auf die Welt der Computer bedeutet das, dass im Chip eines normalen PCs ein Bit durch einen Prozessor, ein klassisches Objekt, modelliert wird. Durch den Prozessor fließt entweder Strom oder nicht. Bei „Strom an“ nimmt das Bit den Zustand 1 an, bei „Strom aus“ den Zustand 0. Im Quantencomputer dagegen ist der Prozessor durch beispielsweise ein Elektron, ein subatomares Objekt, ersetzt. Das Bit wird dann durch das Elektron modelliert, Teil des Elektrons und zum Qubit. Das Qubit kann wie das Bit den Zustand 1 oder 0 annehmen – aber auch gleichzeitig im Zustand 1 und 0 sein sowie in theoretisch unendlichen Zuständen dazwischen. Genau diese auf den ersten Blick schwer greifbare Fähigkeit der Qubits macht Quantencomputer schneller und leistungsfähiger als bisherige Rechner.

Quantencomputer sind derzeit zum einen für die Verarbeitung großer Datenmengen und im Bereich der Kryptographie, der Wissenschaft der Verschlüsselung von Informationen, interessant.

„Quantencomputer nutzen außerdem das quantenphysikalische Phänomen der Verschränkung“, erzählt der Informatiker. So können Qubits quantenverschränkt, also miteinander verknüpft sein. Wird ein Qubit in einen bestimmten Zustand gebracht, ändert sich auch der Zustand der anderen mit ihm verbundenen Qubits. Das geschieht mit Überlichtgeschwindigkeit. Wenn mehrere Qubits miteinander quantenverschränkt sind, kann auch der Quantencomputer mit Überlichtgeschwindigkeit und damit deutlich schneller als aktuelle Computer rechnen. „Quantencomputer sind derzeit zum einen für die Verarbeitung großer Datenmengen und im Bereich der Kryptographie, der Wissenschaft der Verschlüsselung von Informationen, interessant – beispielsweise mit dem sogenannten Shor-Algorithmus, der Mittel der Quanteninformatik nutzt. Zum anderen könnten uns Quantencomputer dabei unterstützen, die Eigenschaften der Materie besser zu verstehen. Dadurch ließen sich etwa neue Medikamente entwickeln und neuartige Nanomaterialien designen“, erklärt der Wissenschaftler.

Allerdings ist vieles davon laut Gharibian noch Zukunftsmusik, denn die Entwicklung der Quantencomputer steckt noch in den Kinderschuhen. Forschern in Bristol ist es allerdings in Kooperation mit der Österreichischen Akademie der Wissenschaften (ÖAW) im Bereich der absolut abhörsicheren und nicht entschlüsselbaren Kommunikation gelungen, ein Netzwerk aufzubauen, das quantenverschlüsselte Kommunikation zwischen acht Teilnehmern erlaubt.

„Wir nutzen eine zentrale Quelle für verschränkte Photonen, mit der die acht Netzwerkteilnehmer über Glasfasern verbunden werden. Die Detektoren der einzelnen Teilnehmer waren für das Experiment alle im selben Raum, aber die Glasfasern, über die die Photonen ausgetauscht werden, verliefen über mehrere Kilometer durch ganz Bristol“, sagt Sören Wengerowsky, der für das Institut für Quantenoptik und Quanteninformation der ÖAW am Experiment beteiligt war. Die Quantenverschlüsselung im Netzwerk funktioniert, indem die zentrale Quelle verschränkte Photonenpaare erzeugt und dann separiert an die Netzwerkteilnehmer verteilt. Diese messen, wann Photonen eintreffen und veröffentlichen die Ankunftszeiten. Doch auch dieses Beispiel zeigt, dass die Quanteninformatik noch am Anfang steht. Ebenso die Bekanntgabe einer Kooperation zwischen der Fraunhofer- Gesellschaft und IBM aus dem März dieses Jahres, die den Zugriff der hiesigen Wirtschaft und Wissenschaft auf einen IBM-Quantencomputer zum Inhalt hat. So sollen die Technologie, Anwendungsszenarien und Algorithmen erforscht und der Kompetenzaufbau sowie Wettbewerbsvorteile generiert werden.

Europa und im Speziellen Deutschland befindet sich derzeit im weltweiten Forschungswettlauf auf Augenhöhe mit den USA und China.

Im Rahmen der Zusammenarbeit wird ein IBM Q System One Quantencomputer in einem Rechenzentrum von IBM Deutschland bei Stuttgart installiert. Das System soll zu Jahresbeginn 2021 in Betrieb gehen und wird das erste seiner Art in Europa sein. Fraunhofer plant, etablierte Partner aus Forschung und Industrie unter dem Dach einer Forschungsinfrastruktur von Fraunhofer-Instituten zusammenzubringen, die als Kompetenzzentren in einem zentral koordinierten nationalen Fraunhofer- Kompetenznetzwerk für Quantencomputing zusammenarbeiten. Dieses hat sich die Weiterentwicklung und den Transfer anwendungsorientierter Quantencomputerstrategien unter vollständiger Datenhoheit nach europäischem Recht zum Ziel gesetzt und wird zunächst mit Kompetenzzentren in voraussichtlich sechs Bundesländern vertreten sein – Baden-Württemberg, Bayern, Rheinland-Pfalz, Berlin, Hessen und Nordrhein-Westfalen.

Immerhin: „Europa und im Speziellen Deutschland befindet sich derzeit im weltweiten Forschungswettlauf auf Augenhöhe mit den USA und China. Das dynamische Wachstum und die vielen offenen Forschungsfragen bedeuten jedoch auch, dass es einer kontinuierlichen Forschungsförderung dieses Gebietes bedarf, um die im internationalen Vergleich gute Ausgangsposition zu halten und auszubauen“, sagt Prof. Dr. Christian Bauckhage, wissenschaftlicher Direktor des Fraunhofer-Forschungszentrums Maschinelles Lernen. Und was bedeutet das für Absolventen, stellt das Thema doch ein Zusammenspiel der Fächer Physik, Mathematik und Informatik dar? Klar ist, dass die Quantentechnologie die Zukunft entscheidend mitgestalten wird. Und da das Bundesministerium für Bildung und Forschung gezielt daran arbeitet, das Bildungsangebot mit der -nachfrage im Bereich der Quantentechnologie in Deutschland enger aufeinander abzustimmen, verheißt das hohe Bedarfe – vor allem um die Technologie von der Wissenschaft in die Praxis zu überführen.

Studiengänge zur Quantentechnologie:

Das Sprachverständnis ist entscheidend beim Programmieren

Was geht in den Köpfen von Programmierern vor, wenn sie Software schreiben? Diese Frage stellten sich Dr. Janet Siegmund, Professorin für Software Engineering an der TU Chemnitz, Dr. Sven Apel, Informatikprofessor am Lehrstuhl für Software Engineering der Universität des Saarlandes, und Dr. André Brechmann, Leiter des Speziallabors für nicht-invasive Bildgebung am Leibniz-Institut für Neurobiologie in Magdeburg.

Während Brechmann als versierter Neurowissenschaftler seine Erfahrung für Experimente in der Funktionellen Magnetresonanztomographie (fMRI) und Apel als erfahrener Forscher seine Expertise im Bereich Softwareentwicklung in die Untersuchungen einbrachte, fungierte Siegmund mit ihrer interdisziplinären Expertise in Psychologie und Informatik als Bindeglied.

Um eine Antwort auf die Frage zu finden, verwendeten die Wissenschaftler bildgebende Verfahren aus den Neurowissenschaften. Genauer gesagt: Das Team nutzte für die Studie die in der Neurowissenschaft bewährte Subtraktionsmethode: Dabei bearbeiten die Probanden im Magnetresonanztomographen zuerst eine Aufgabe, zu deren Lösung sie einen Programmcode-Auszug verstehen müssen. Nach einer kurzen Ruhepause sollten sie einen Code-Schnipsel auf einfache Syntaxfehler überprüfen, was für Programmierer eine Routineaufgabe darstellt, also keine Verständnisfrage war. Dieser Ablauf wurde mehrfach wiederholt. Im Anschluss wurden die Bilder der Hirnaktivität während des Bearbeitens der Routineaufgabe von den Bildern des Verständnistests subtrahiert – was übrig blieb, waren die Hirnregionen, die für den Prozess des Programmverstehens von besonderer Bedeutung sind.

Die Ergebnisse stellen eine Überraschung dar, denn es konnte keine Aktivität in Richtung mathematischen oder logischen Denkens erkannt werden. Die Bilddaten zeigen dagegen deutlich, dass bei den Versuchspersonen die Areale der linken Hirnhälfte aktiviert wurden, welche vor allem mit Sprachverständnis assoziiert sind. „Unsere Forschung legt nahe, dass das Sprachverständnis eine zentrale Rolle beim Programmieren spielt. Diese Vermutung äußerte der renommierte niederländische Informatiker Edsger W. Dijkstra bereits in den 1980er-Jahren“; sagt Sven Apel. Die Ergebnisse ihrer Grundlagenforschung konnten die Wissenschaftler in der renommierten Fachzeitschrift „Communications of the ACM“ veröffentlichen, die von der weltgrößten Informatikervereinigung, der Association for Computing Machinery, herausgegeben wird.

Die Erkenntnisse des interdisziplinären Teams könnten weitreichende Folgen für das Programmieren haben, etwa beim Design von Programmiersprachen, in der Programmierausbildung oder bei der Beantwortung grundlegender Fragen, etwa, was komplizierten oder einfachen Programmcode ausmacht. Das Team will jetzt herausfinden, worin sich das Programmverständnis bei Experten und Anfängern unterscheidet, also ob sie Programmcode auf verschiedene Weise lesen und interpretieren.

IT und ihre Klima-Doppelrolle

Informations- und Kommunikationstechnologien (IKT) sowie die Digitalisierung können bei der Erreichung der Klimaziele helfen. Fakt ist aber auch, dass der Energieverbrauch der IKT jedes Jahr steigt. Daher besteht Handlungsbedarf. Von Christoph Berger

Im Februar 2020 hatte sich der Energiekonzern Eon in einem Video auf die Suche nach dem grünsten Rechenzentrum der Welt gemacht. Gefunden wurde es im bayerischen Dorf Grotach. Allerdings ist dort keine Rechentechnik angesiedelt, in dem fiktiven Rechenzentrum werden vielmehr Holzrechen hergestellt, ganz natürlich aus Buchenholz und zum Harken von Laub. Mit dem Clip will der Konzern über die Zusammenhänge von Internetnutzung und Klimaschutz informieren. Wie folgenreich dieser Zusammenhang ist, zeigt ein Ergebnis des im 2019 vom Think- Tank The Shift Project veröffentlichten Reports „Lean ICT: Towards digital sobriety“. Für diesen wurden die Auswirkungen der IKT auf die Umwelt untersucht. So nimmt der direkte Energie-Fußabdruck, der den Energieaufwand für die Produktion und Nutzung von IKT-Ausrüstung (Server, Netzwerke, Terminals) beschreibt, jährlich um neun Prozent zu. Die Informations- und Kommunikationstechnologie verursacht weltweit 3,7 Prozent aller Treibhausgasemissionen. Die Krux: Einerseits erscheint Ländern und Unternehmen die Digitalisierung als eine absolute Notwendigkeit – auch, um den Energieverbrauch in vielen Sektoren zu reduzieren. Andererseits werden sowohl die direkten als auch die indirekten Umweltauswirkungen, die sogenannten Rebound-Effekte, im Zusammenhang mit der wachsenden Nutzung von IKT ständig unterschätzt.

Nutzung der Abwärme

Diese beiden Seiten der Digitalisierungsmedaille spiegeln sich auch in den Antworten in einer vom eco – Verband der Internetwirtschaft durchgeführten repräsentativen Umfrage wider. Demnach gehen 56 Prozent der in Deutschland Befragten davon aus, dass digitale Technologien und Anwendungen die Klimabilanz in Zukunft positiv beeinflussen können. Die größten Klimaschutz-Potenziale sehen die Befragten vor allem in den Bereichen Mobilität (32,8 %), Industrie 4.0 (20,5 %) und dem Arbeiten im Home Office (17,3 %). „Mithilfe energieeffizienter und vernetzter Maschinen, Telematik und Mobilitätskonzepten sowie smarten Tools fürs Home Office und Schooling kann die Internetwirtschaft einen entscheidenden Schritt zu mehr Nachhaltigkeit beitragen“, sagt demnach auch Oliver Süme, Vorstandsvorsitzender des Verbands.

Dr. Béla Waldhauser, Sprecher der unter dem Dach des eco Verbands gegründeten Allianz zur Stärkung digitaler Infrastrukturen in Deutschland, ging im Rahmen der Vorstellung der Umfrageergebnisse zudem auf die von Bundesumweltministerin Svenja Schulze vorgestellten Pläne für mehr Energie- und Ressourceneffizienz digitaler Infrastrukturen ein. Er sagte: „Natürlich verbrauchen Rechenzentren Energie, aber man muss eben auch die enormen Einsparpotenziale, die digitale Dienste bieten, miteinbeziehen.“ Vor allem aber müsse jetzt die Energiewende in Deutschland beschleunigt und ein höherer Anteil an regenerativen Quellen verfügbar sein, wenn es tatsächlich das Ziel sei, bis 2030 den flächendeckenden klimaneutralen Betrieb von Rechenzentren in Europa zu ermöglichen. Waldhauser weiter: „Ein schnellerer, politisch gesteuerter Ausstieg aus fossilen Energieträgern in Deutschland wird zu einem wesentlich schnelleren Absinken der CO2-Emissionen der durch Rechenzentren verwendeten Energie führen.“ Schon heute würden deutsche Rechenzentren im internationalen Vergleich zu den energieeffizientesten zählen. Er fügte aber an, dass es gerade in puncto Breitbandausbau sowie der Abwärmenutzung von Rechenzentren noch Luft nach oben gebe.

Beachtung des Rohstoffeinsatzes

Wie etwa der Energieverbrauch von Rechenzentren nachhaltiger gestaltet werden kann, zeigte die diesjährige Bergung eines im Juni 2018 vor den schottischen Orkney-Inseln von Microsoft versenkten Rechenzentrums. Das Versuchsfeld im Nordatlantik wurde auch deshalb ausgesucht, weil der Strom dort zu 100 Prozent aus Wind- und Sonnenenergie sowie weiteren ökologischen Quellen erzeugt wird. Ben Cutler, Leiter des Projekts mit dem Namen Natick, denkt nun darüber nach, Unterwasser-Rechenzentren in Offshore-Windparks zu versenken, weil dort selbst bei schwachem Wind genug Elektrizität für solche Zwecke produziert wird. Für den Notfall könne man auch eine Stromleitung vom Land mit den Glasfaserkabeln bündeln, die für den Transport der Daten nötig sind. Daneben brachte die Positionierung auf dem Meeresboden noch andere Vorteile zum Vorschein: Der Meeresboden biete eine stabile und zuverlässige Betriebsumgebung, unter Wasser wären die Komponenten von Rechenzentren keiner Korrosion durch Sauerstoff und Feuchtigkeit ausgesetzt und sie müssten auch keine Temperaturschwankungen oder Erschütterungen durch Personen verkraften, die vielleicht zum Austausch von defekten Komponenten vorbeikommen, heißt es. Insgesamt sei die Ausfallrate laut Unternehmensangaben achtmal geringer als an Land gewesen.

Auch ein Konsortium aus Forschung, Industrie und Wirtschaft unter der Leitung des Instituts für Energiewirtschaft und Rationelle Energieanwendung (IER) der Universität Stuttgart hatte es sich zur Aufgabe gemacht, Antworten auf die Frage „Wie können Rechenzentren nachhaltiger gemacht werden?“ zu suchen. Im Forschungsprojekt „EcoRZ“ wurden Rechenzentren in Baden-Württemberg unter die Lupe genommen und der Stand der Infrastruktur erfasst sowie Potenziale zur Steigerung der Energieeffizienz, zum Einsatz erneuerbarer Energien und des sparsamen Rohstoffeinsatzes ermittelt. Parallel dazu wurden die möglichen Beiträge von Rechenzentren zur Flexibilisierung des Energiesystems analysiert und Indikatoren für die ökologische, soziale und wirtschaftliche Bewertung der Nachhaltigkeit von Rechenzentren entwickelt.

Heraus kam dabei, dass das Setzen auf erneuerbare Energien zum Betreiben von Rechenzentren nur ein Mosaikstein ist. Da Rechenzentren vielmehr jedes Kilowatt an verbrauchtem Strom als Wärme wieder in die Umwelt abgeben würden, komme der Nutzung der Abwärme auf dem Weg zum nachhaltigen Rechenzentrum eine Schlüsselrolle zu. Aufseiten der Betreiber sei es wichtig, dass sie bei der Hardware konsequent auf Nachhaltigkeit achten, so die Empfehlung. Dies umfasse nicht nur den Einsatz erneuerbarer Energien, sondern auch die Materialien und Rohstoffe über die gesamte Produktionskette hinweg, also zum Beispiel einen ressourcensparenden Umgang mit seltenen Erden. Sinnvoll sei es, Nachhaltigkeit in den Leitlinien für die IT-Beschaffung zu verankern. Und auch die Wahl des Standorts könne dazu beitragen, Rechenzentren umweltfreundlicher zu machen: Geeignet seien Regionen mit vergleichsweise niedrigen Durchschnittstemperaturen. Die IKT-Branche kann also selbst noch einiges tun, um nicht nur andere Branchen auf dem Weg zu mehr Klimaschutz zu unterstützen, sondern auch, um selbst „grüner“ zu werden.

InformierT: Kultur-, Buch- und Linktipps

Die App

Cover Die App

Es klingt fast zu gut, um wahr zu sein. Hamburg-Winterhude, ein Haus mit Smart Home, alles ganz einfach per App steuerbar, jederzeit, von überall. Und dazu absolut sicher. Hendrik und Linda sind begeistert, als sie einziehen. So haben sie sich ihr gemeinsames Zuhause immer vorgestellt. Aber dann verschwindet Linda eines Nachts. Es gibt keine Nachricht, keinen Hinweis, nicht die geringste Spur. Die Polizei ist ratlos, Hendrik kurz vor dem Durchdrehen. Konnte sich in jener Nacht jemand Zutritt zum Haus verschaffen? Und wenn ja, warum hat die App nicht sofort den Alarm ausgelöst? Hendrik fühlt sich mehr und mehr beobachtet. Zu Recht, denn nicht nur die App weiß, wo er wohnt. Arno Strobel: Die App. S. Fischer 2020, 15,99 Euro.

Future Museum

Ein Museumsbesuch kann durch den intelligenten Einsatz innovativer Technologien und Smart Services deutlich aufgewertet werden und den Besuchern einen neuen Zugang zu Kunst, Wissen und Geschichte ermöglichen. Das zeigen die neuesten Forschungsergebnisse des Verbundprojekts „Future Museum“, das vom Fraunhofer IAO gemeinsam mit der Museum Booster GmbH ins Leben gerufen wurde. Ein eindimensionales Besuchererlebnis reicht dazu mittlerweile nicht mehr aus. Stattdessen rücken mediale Kommunikation, Besuchereinbindung und die Wissensvermittlung bzw. die Lernerfahrung in den Mittelpunkt. Um das Besuchererlebnis über alle vier Phasen der Visitor Journey möglichst komfortabel zu gestalten, ist der Einsatz von Technologie wie KI und Smart Services ein erfolgversprechender Lösungsansatz.

Standart Skill – Voll Verglitcht!

Cover Standart SkillFür Stanni ist es ein guter Tag. Er spielt ein paar Runden in seinem Lieblingsgame, stellt sogar fast einen Rekord auf. Doch dann verändert sich plötzlich die Spielwelt: Probleme treten auf. Er will sich ausloggen, doch es geht nicht. Stanni steckt fest – mitten in einem Videospiel! Mit einem Mal verspürt er Hunger und Durst, kann schmecken und riechen. Und sich verletzen. Was wie ein ganz normaler Tag begann, wird zum größten Abenteuer seines Lebens. Er ist gefangen im Tal Royal. Um wieder in die echte Welt zurückzukehren, muss Stanni herausfinden, was es mit den Fehlern im Spiel auf sich hat. Und er muss sich beeilen. Autor des Buchs „Voll verglitcht!“ ist Standart Skill, einer von Deutschlands bekanntesten Youtubern. Standart Skill: Voll verglitcht! Riva 2020, 14 Euro.

Das neue Land

Ein neues Land – das klingt wie eine Verheißung. Tatsächlich ist es längst da, dieses neue Land, nur muss es endlich sichtbar werden. Verena Pausder entwirft in ihrem Buch eine faszinierende Skizze der Zukunft, mutig und konsequent. Es ist der Entwurf eines Landes, das nicht mehr auf den Wohlstand der Vergangenheit setzt, sondern mit neuen Technologien, neuen Lebensentwürfen – und vor allem neuen Ideen – das Leben von uns allen verändern wird. „Das Neue Land“ ist so etwas wie die Grundsatzerklärung einer Generation, die endlich Verantwortung übernehmen und den gesellschaftlichen, politischen und ökologischen Umbau weiter vorantreiben will. Dass wir etwas ändern müssen, dass wir digitaler, innovativer, flexibler, neugieriger, mutiger und menschlicher werden müssen, ist bekannt – es mangelt nur an der Umsetzung. Verena Pausder: Das neue Land. Murmann 2020, 20 Euro.

Die digitale Seele

Cover digitale SeeleDank der atemberaubenden Fortschritte maschinellen Lernens scheint die Überwindung des Todes zum Greifen nah zu sein. Weltweit arbeiten Unternehmen daran, aus einer Fülle von Nutzerdaten digitale Doppelgänger*innen entstehen zu lassen. Während sich mehr und mehr Menschen von den Religionen abwenden und die Neurowissenschaften die Idee der Seele für erledigt erklären, erfährt der Glaube an ein Leben nach dem Tod im Digitalzeitalter eine überraschende Renaissance. In ihrem ersten gemeinsamen Buch begeben sich die preisgekrönten Filmemacher Moritz Riesewieck und Hans Block auf eine hochspannende Reise ins digitale Jenseits. Was sie dort vorfinden, ist mal berührend, mal verstörend und oft auch überraschend witzig. Immer aber schwingt die eine große Frage mit: Was passiert mit dem Menschen, wenn ihm seine letzte große Gewissheit genommen wird – die der eigenen Sterblichkeit? Moritz Riesewieck, Hans Block: Die digitale Seele. Goldmann 2020, 20 Euro.

Postdigital

Digitalisierung ist der revolutionäre, quasireligiöse Mythos unserer Zeit. Eine von künstlicher Intelligenz übernommene, in Nullen und Einsen pulverisierte Welt ist das dominante Narrativ. Es fokussiert vor allem auf technische und ökonomische Effizienzsteigerung. Es betrachtet hauptsächlich Märkte, Wettbewerbsdynamiken und den technischen Fortschritt. Doch welche Auswirkungen hat die Digitalisierung für den einzelnen Menschen, für die Gesellschaft? Wie viel Digitalisierung wollen wir in unserem Leben? Oder besser gesagt: wie wollen wir eigentlich leben? Antworten liefert das neue Buch von Andreas Philipp und David Christ. Es lotet die Digitalisierung in einem breiten gesellschaftlichen und sozialethischen Kontext aus und untermauert diesen mit interdisziplinären wissenschaftlichen Erkenntnissen. Anschaulich zeigt es konkrete und attraktive Möglichkeiten für das eigene Handeln und Entscheiden. Andreas Philipp, David Christ: Postdigital. BusinessVillage 2020, 36,95 Euro.

poesie.exe

cover poesie.exeKünstliche Intelligenz ist heute überall. Sie steckt im Smartphone, in medizinischen Geräten oder im Kühlschrank. Sie säubert unseren Haushalt und überwacht Aktienkurse. Auch künstlerische Prozesse werden immer häufiger automatisiert: Maschinen erschaffen Skulpturen, komponieren Musikstücke oder malen Bilder, die für viel Geld versteigert werden. Und natürlich schreiben sie auch Texte. Aber was heißt es, wenn wir sagen, dass eine Maschine kreativ ist? Dadurch, dass in poesie.exe zunächst die Hinweise auf die Urheberschaft des jeweiligen Textes fehlen, kommt es zu einer Art literarischem Turing-Test. Lässt sich noch unterscheiden, ob ein Text von einem Computerprogramm oder einem Menschen verfasst wurde? Und: Spielt das am Ende überhaupt eine Rolle? Dieses Buch enthält Texte von menschlichen Autorinnen und Autoren sowie von Maschinen. Fabian Navarro (Hrsg.): poesie.exe – Texte von Menschen und Maschinen. Satyr 2020, 14 Euro.

Roboter „Solo 8“

Foto: MPI für Intelligente Systeme / W. Scheible
Der vierbeinige Roboter Solo 8 springt aus einer Höhe
von 24 cm auf 65 cm hoch.. Foto: MPI für Intelligente Systeme / W. Scheible

Solo 8 ist ein neuer Forschungsroboter, der als Open-Source-Projekt in Tübingen und Stuttgart entwickelt wurde. Der hundeähnliche, drehmomentgesteuerte Vierbeiner ist zu dynamischen Bewegungen fähig. Er besteht fast ausschließlich aus 3D-gedruckten Bauteilen und kann leicht nachgebaut werden – ideal für die Grundlagenforschung in der Robotik und der Schulung junger Forscher*innen. Ziel des Projekts ist es, Robotik-Laboren auf der ganzen Welt einen leicht zu montierenden Bausatz anzubieten.

Das letzte Wort hat: Dr. Judith Rommel, Chemie-Informatikerin und Zukunftsmacherin

Selbstbestimmung ist ein hoch einzuschätzendes Gut. Und Vielfalt bereichert unsere Gesellschaft. Wegen dieser Gründe bauten Informatikstudierende der Dualen Hochschule Baden-Württemberg im Rahmen eines Forschungsprojekts eine Vermittlungsplattform für neuroatypische Menschen auf. Die Fragen stellte Christoph Berger

Zur Person

Dr. Judith Rommel, Foto: privat
Dr. Judith Rommel, Foto: privat

Dr. Judith Rommel ist innovationsfreudige Zukunftsmacherin. Sie hat in Chemieinformatik promoviert und anschließend mehrere Jahre an der Universität Cambridge in England geforscht. In dieser Zeit wurde sie unter anderem mit einem Feodor Lynen- Stipendium der Alexander von Humboldt- Stiftung ausgezeichnet. Vor kurzem ist sie, unterstützt durch die Leadership Academy der German Scholar Organisation (GSO), nach Deutschland zurückgekehrt und arbeitet momentan an der Dualen Hochschule Baden-Württemberg Stuttgart (DHBW).

Frau Dr. Rommel, zusammen mit Studierenden des Studiengangs Informatik und in Kooperation mit dem Zentrum für Empirische Forschung bauen Sie eine Online-Vermittlungsplattform für Menschen mit außergewöhnlichen Qualitäten, Talenten und Bedürfnissen auf. Worum geht es dabei?
Vereinfacht könnte man sagen, dass wir eine Plattform bauen, deren Ziel es ist, Menschen mit besonderen Bedürfnissen und sehr seltenen Qualitäten auf unkomplizierte Weise mit Arbeitgebern und Vermietern zusammenzubringen. Die Talente und Bedürfnisse fallen dabei vielfältig aus. Es gibt beispielsweise Hochbegabte, die unter anderem schnelle Querverknüpfungen identifizieren können und zugleich sensibel auf Geräusche reagieren, oder Menschen mit Allergien, die 30 Jahre Berufserfahrung mitbringen, jedoch ihren Beruf nun nicht mehr ausüben können. Unsere Plattform soll diese Arbeitnehmer mit Arbeitgebern sowie solche Mieter mit Vermietern möglichst einfach zusammenbringen.

Warum braucht es für neuroatypische Menschen eine eigene Vermittlungsplattform?
Neuroatypische Menschen haben spezielle Talente und spezifische Wahrnehmungsfähigkeiten, auf Grund natürlicher neurologischer Unterschiede in Gehirn und Nervensystem. Oft reagieren sie auf Umwelteinflüsse anders als neurotypische Menschen. Moderne Jobportale bieten kaum Möglichkeiten, Arbeitgeber zu finden, die solche Talente nutzen wollen und bereit sind, die Arbeitsumgebung individuellen Bedürfnissen anzupassen. Auch auf Arbeitsämtern fühlen sich diese Arbeitskräfte oft allein gelassen. Betroffenen droht im schlimmsten Fall Frühverrentung, oder sie werden trotz ihrer enormen mentalen Leistungsfähigkeit für schwerbehindert erklärt. In unserer Marktforschung konnten wir feststellen, dass solche Fälle häufiger vorkommen als gemeinhin angenommen. Menschen mit Allergien, Sensibilitäten oder außergewöhnlichen Begabungen gibt es zu tausenden, aber keine Plattform, die sich diesen Problemen annimmt und zufriedenstellende Win-Win Situationen beim Wohnen und Arbeiten ermöglicht.

Jeder Mensch kann ja in eine solche Situation kommen.
Wir kennen alle Geschichten von Bäckern mit Mehlallergien, machen uns aber kein Bild davon, wie hoch der Anteil an Menschen ist, die einen gesundheitsbedingten Bruch in der Arbeitsbiographie erleben. Hierzu zählen Chemikalienallergien oder physische Verschleißerscheinungen, auch die psychischen Erkrankungen nehmen zu. Häufig stehen diese Arbeitskräfte mit einer immensen Berufserfahrung auf der Straße. Auf einem überhitzten Wohnungsmarkt und einem durch Corona unter Druck geratenen Arbeitsmarkt ist es zudem eine riesige Herausforderung, bezahlbaren Wohnraum und einen Arbeitsplatz parallel zu finden. Deshalb bietet unsere Plattform auch einen Wohnungsmarkt an, in dem Mieter und Vermieter Annoncen aufgeben können.

Welche Herausforderungen sind für die Informatik-Studierenden mit dem Aufbau der Plattform verbunden?
Im ersten Schritt war es für uns wichtig, alle Bedürfnisse und Talente der Nutzer kennenzulernen. Hierzu betreiben wir aktuell Marktforschung und haben damit bereits den ersten Nerv getroffen. Nun gilt es, diese Erkenntnisse im Sinne der Nutzerfreundlichkeit zu bündeln, ohne dabei Qualifikationen unter den Tisch fallen zu lassen. Es steht also noch so einiges an.

Interessierte können an der Umfrage teilnehmen und die Studie so mit weiteren wertvollen Informationen unterstützen.