karriereführer ingenieure 2.2023 – Von New Work zu My Work? Arbeiten, wie es gefällt

0

Von New Work zu My Work? Arbeiten, wie es gefällt

Arbeiten, wie es mir gefällt? Das streben viele an. Und die Zeichen stehen gut, dass Arbeitszeit und -inhalte künftig noch individueller gestaltet werden können. Die Vier-Tage-Woche ist nur eine Idee, die aktuell an den verschiedensten Stellen durchgedacht und erprobt wird. Weil der Bedarf an Ingenieur*innen derzeit sehr hoch ist, haben sie bei vielen Arbeitgebern gute Chancen, ihre Wünsche durchzusetzen.

karriereführer informationstechnologie 2023.2024 – Die Zukunft des Programmierens: KI als Co-Pilot

0

Cover karrierefuehrer informationstechnologie 2023-2024

Die Zukunft des Programmierens: KI als Co-Pilot

Künstliche Intelligenz überall! Dieser Ausspruch trifft auch auf die Branche der Infor- mationstechnologie zu. Was kein Wunder ist, stellt KI doch eine Sprunginnovation dar – also eine Innovation, die Auswirkungen auf jeden Einzelnen haben wird. Denn es ist nun mal so, dass Künstliche Intelligenz längst zum Co-Piloten für Software-Entwickler*innen aufgestiegen ist und sie beim Coden unterstützt. Entwickler*innen, die diese Werkzeuge zu nutzen wissen, werden viele Faktoren effizienter und schneller erledigen können.

Kuratiert

Neuer Masterstudiengang Angewandte Informatik an der Hochschule Mainz

Die Hochschule Mainz bietet ab dem Wintersemester 2023/2024 den neuen Masterstudiengang Angewandte Informatik an. Er richtet sich an Studierende, die bereits einen Bachelorabschluss in Angewandter Informatik oder einem verwandten Fachgebiet erworben haben und ihr Wissen in diesem Bereich vertiefen möchten. Die Schwerpunkte des Studiengangs liegen in Softwaretechnik und Künstlicher Intelligenz (KI), vermittelt wird ein tiefgehendes Fachverständnis in den Bereichen Softwaretechnik, Software-Entwicklungen, der angewandten Künstlichen Intelligenz, der Informationsvisualisierung beispielsweise mit Augmented und Virtual Reality sowie der allgemeinen Informationstechnologie. Zudem lernen die Studierenden, wie sie komplexe Softwaresysteme, Machine-Learning-Algorithmen und Deep-Learning-Modelle entwickeln und einsetzen. Auch die Anwendung von KI in der Industrie und anderen Bereichen steht auf dem Lehrplan.

Business, Softwareentwicklung und IT-Operations

Unternehmen reagieren auf die veränderten Kundenanforderungen, wollen ihre Wettbewerbsvorteile ausbauen und sich zu Digital Leaders weiterentwickeln. Im Fokus stehen dabei Themen wie IT-Modernisierung, Cloud Transformation und agile Softwareentwicklung, um einerseits die Softwareentwicklung deutlich näher an den tatsächlichen Anforderungen der Nutzenden auszurichten sowie andererseits die eigenen Prozesse zu vereinfachen und zu verbessern. Der Druck für Veränderungen ist hoch: Aufgrund der beschleunigten Digitalisierung und des anhaltenden Transformationsdrucks wollen 82 Prozent der befragten IT- und Business-Führungskräfte aus großen Unternehmen und Behörden im deutschsprachigen Raum eine stärkere Digitalisierung ihrer Geschäftsmodelle herbeiführen. Überraschend ist jedoch, dass bei fast der Hälfte der Unternehmen die Verantwortung für die Digitalisierung immer noch in den einzelnen Funktionen liegt, wodurch eine ganzheitliche Transformation im Sinne eines Ende-zu-Ende-Ansatzes erschwert wird. Das sind die Ergebnisse der neuen Lünendonk-Studie 2023 „Cloud, Data & Software“.

Strategische Technologie-Trends von Gartner

Laut dem Marktforschungsunternehmen Gartner sind dies die zehn wichtigsten strategischen Technologie-Trends von Gartner für 2023, aufgezählt von Rang 1 bis 10: Digital Immune System, Applied Observability, KI-Vertrauens-, Risiko- und Sicherheitsmanagement (AI TRISM), Cloud-Plattformen für die Industrie, Platform Engineering, Wireless-Value Realization, Super-Apps, Adaptive KI, Metaverse und Nachhaltige Technologie. Die Marktforscher gehen davon aus, dass diese Trends die Unternehmensstrategien in den kommenden drei Jahren beeinflussen werden, indem sie Unternehmen in die Lage versetzen, wichtige Prioritäten anzugehen: Optimierung, Skalierung, Pionierleistung sowie die Verfolgung von nachhaltigen Technologielösungen. 

KI entwickelt mit

Beginnt mit der Einbindung von Systemen mit Künstlicher Intelligenz in die Tätigkeit des Programmierens eine neue Ära der Software-Entwicklung? Expert*innen gehen zunächst einmal von einer Aufgabenteilung aus: Die KI sammelt Fleißkärtchen und findet Fehler, die Entwickler*innen widmen sich der Lösung komplexer Probleme. Zugute kommt das der jungen Generation, die schneller als zuvor qualitative Jobs übernimmt. Ein Essay von André Boße.

Prompts statt Codes: Wer mit den verfügbaren Systemen mit Künstlicher Intelligenz arbeitet, benötigt in vielen Fällen keine Programmierkenntnisse, sondern muss die Fähigkeit besitzen, der KI die richtigen Aufforderungen an die Hand zu geben, damit sie etwas daraus macht: einen Text schreiben, ein Bild erstellen, eine Tabellenkalkulation durchführen, die Arbeitsaufteilungim Unternehmenorganisieren. Andererseits istdie KIauchinder Lage, die Mustervon Programmiersprachen zu erkennen – und diese zu lernen. Branchen-Expert*innen gehen daher davon aus, dass KI-Systeme die Art und Weise, wie in der Software-Entwicklung gearbeitet wird, stark verändern werden.

KI mag die Logik und Struktur von Programmiersprachen

Die zentrale Rolle spielen hier KI-Codierungstools, die in der Lage sind, Computercodes zu schreiben oder zumindest zu vervollständigen. Dabei kommen Computersprachen in der Regel dem, was KI-Systeme zu leisten in der Lage sind, entgegen: Anders als in der menschlichen Sprache gibt es hier keine Doppeldeutigkeiten, keine zweiten Ebenen, keine Metapher – Computercodes sind von klarer Logik und streng strukturiert.
„Von Entwicklern wird heute mehr erwartet als nur das Schreiben und Ausliefern von Code – sie müssen sich mit einer Reihe von Tools, Umgebungen und Technologien auskennen, darunter auch die neuen generativen KI-Codierwerkzeuge“ Inbal Shani, Chief Product Officer beim US-Unternehmen GitHub.
„Programmiersprachen sind sehr einfache Sprachen, die aus Mustern und Beispielen für Maschinen auch gut erlernbar sind“, wird Dr. Aljoscha Burchardt, Forscher für Sprachtechnologie am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI), in einem Beitrag im Wissenschaftsmagazin „Spektrum“ zitiert. Die Kombination aus „allgemeinsprachlicher Eingabe zur Beschreibung eines Problems und den programmiersprachlichen Ausdrücken, die das System als Ergebnis liefern soll“, sei im Grunde optimal auf die Kompetenzen von KI-Systemen wie ChatGPT zugeschnitten, wird Burchardt zitiert.

KI-Codierung ist Realität: 92 Prozent der Entwickler*innen nutzen sie

Wie aber ändert sich dadurch die Arbeit von Software-Entwickler*innen? Und welche Vorteile erhofft sich die Branche durch diesen Wandel? „Von Entwicklern wird heute mehr erwartet als nur das Schreiben und Ausliefern von Code – sie müssen sich mit einer Reihe von Tools, Umgebungen und Technologien auskennen, darunter auch die neuen generativen KI-Codierwerkzeuge“, schreibt, Inbal Shani, Chief Product Officer beim US-Unternehmen GitHub, einem Online-Hosting-Dienst für Software-Entwicklungsprojekte, der auch das Codierungstool „Copilot“ im Portfolio hat.

McKinsey-Studie: KI sorgt für Produktivitätsboom

Foto: AdobeStock/iiierlok_xolms
Foto: AdobeStock/iiierlok_xolms
Die Unternehmensberatung McKinsey prognostiziert in einer Mitte 2023 veröffentlichten Studie, dass die Systeme mit Generativer KI das Potenzial besitzen, „einen jährlichen Produktivitätszuwachs von 2,6 bis 4,4 Billionen US-Dollar zu ermöglichen“, wie es in der Zusammenfassung der Ergebnisse heißt. Dieses Wachtumsvolumen liege ungefähr in der Größenordnung des jährlichen Bruttoinlandsprodukts eines Landes wie Großbritannien. Rund dreiviertel des geschätzten Werts werde die Generative KI in den Bereichen Kundenservice, Marketing und Vertrieb, Softwareentwicklung sowie Forschung und Entwicklung schaffen – „und damit in stark wissens- und personalbasierten Bereichen“. Ein konkretes Beispiel sei das „eigenständige Generieren von Softwarecode auf der Grundlage natürlicher Sprachanweisungen“.
Mit diesem Satz leitet sie die Ergebnisse einer Befragung ein, mit der GitHub herausfinden wollte, wie sich die Arbeit von Software-Entwickler*innen im Zuge der aktuellen Trends verändern wird und wie sich schon heute neue Tools und aktuelle Arbeitsabläufe auf die allgemeine Entwicklererfahrung auswirken. Mitte 2023 hat das Unternehmen die Studie vorgestellt. Eine Kern-Erkenntnis für Inbal Shani: Zwar beginne angesichts der rasanten Fortschritte im Bereich der generativen KI ein „neues Zeitalter der Softwareentwicklung“, wie sie es formuliert, es sei aber weiterhin so, dass es die Entwickler*innen sind, die für den Fortschritt sorgen – „wenn sie in die Lage versetzt werden, etwas zu bewirken“. Die GitHub-Umfrage bei 500 Software-Entwicklungsunternehmen aus den USA zeigt, dass KI-Codierungstools bei den meisten Programmierer*innen bereits ein Teil des Werkzeugkastens sind: 92 Prozent der Befragten gaben an, KI-Codierungstools zu nutzen. 70 Prozent erwarten sich konkrete Vorteile für ihre Arbeit. Konkret: eine bessere Codequalität, kürzere Fertigstellungszeiten und die Lösung von Problemen. „KI-Codierungstools werden den Entwicklern helfen, die Leistungsstandards zu erfüllen, indem sie die Codequalität verbessern, den Output beschleunigen und die Zahl der Zwischenfälle auf Produktionsebene verringern“, heißt es im Fazit der Studie. Interessant ist dabei, dass die meisten Teilnehmenden nicht glauben, dass die KI die Software-Entwicklung revolutionieren wird. Stattdessen sind sie der Meinung, „dass sich KI-Codierungstools in ihre bestehenden Arbeitsabläufe einfügen und die Effizienz steigern werden“. Wobei die Aufgabenverteilung noch klar ist: Die KI-Tools besorgen die Fleißarbeit. Das spart Zeit für den Menschen, der dann mehr Zeit hat, „sich auf das Lösungsdesign zu konzentrieren“, wie es in der GitHub-Studie heißt. Dies führe zu organisatorischen Vorteilen, da die Entwickler*innen „mehr Zeit damit verbringen werden, neue Funktionen und Produkte mit KI zu entwerfen, anstatt Standardcode zu schreiben“.

Effizienz sorgt für stärkeren Fokus auf komplexe Probleme

In dieser Hinsicht unterscheiden sich die Effekte von KI-Codierungstools kaum vom Einsatz von KI-Systemen in anderen Bereichen wie zum Bespiel dem Recht: Auch bei LegalTech-Anwendungen geht es in erster Linie darum, dass die digitalen Techniken zeitfressende Arbeiten übernehmen, damit die Jurist*innen mehr Raum für die Lösung von wirklich komplexen Problemen haben. Laut der Git-Hub-Studie sehen die Software-Entwickler*innen dieses Potenzial ebenfalls: Indem ihnen die KI-Codierungstools quantitative Arbeit abnehmen, ergibt sich die Möglichkeit für einen starken Fokus auf qualitative Arbeiten. Was, so die Studie, auch dazu führt, dass 81 Prozent der Befragten glauben, dass die KI-Werkzeuge dafür sorgen, dass die Arbeit im Team mit den Kolleg*innen an Bedeutung gewinnen wird.

Welche KI-Codierungstools gibt es?

Foto: AdobeStock/davooda
Foto: AdobeStock/davooda
Hinter den besten KI-Codierungstools stecken Algorithmen, Elemente des maschinellen Lernens sowie umfangreiche Sprach-Bibliotheken. Zu Entwicklern solcher Tools zählen Unternehmen wie GitHub, die sich schon vorher auf Code-Services spezialisiert haben und deren „Copilot“ auf der OpenAIs GPT-4 basiert. Zu den Anbietern zählt aber auch Amazon, das mit seinem „Code Whisperer“ auch diesen Teil der digitalen Wertschöpfungskette abdeckt. Meta bietet seit August 2023 das Gratis-Tool „Code Llama“, das Codes generieren und Bugs finden kann. Lightning-KI versteht sich als Open-Source-Plattform, die zu einem großen Teil von einer engagierten Community profitiert. Das Portal Replizieren ermöglicht einen kollaborativen Ansatz, das Tool Bugasura spezialisiert sich aufs Bug-Fixing. Einen Überblick über diese und andere KI-Codierungstools bietet das Digital-News-Portal Metaverse Post.
Generell sind die Teams in der Software-Entwicklung häufig agil und funktionsübergreifend organisiert. Der Job teilt sich dabei in drei Kernbereiche auf: erstens die technische Arbeit, also das Schreiben der Codes, zweitens die Kommunikation innerhalb des Unternehmens, mit dem Kunden sowie den potenziellen Nutzer*innen, drittens die kreative Leistung, Lösungen zu finden und Designs zu entwerfen. Eine echte Hilfe kann die KI beim technischen Teil der Arbeit sein. Hier steigert sie die Effizienz, ins Zentrum rücken dadurch die Tätigkeiten, bei denen es darauf ankommt, mit anderen zu kooperieren, um gemeinsam Lösungen zu finden. Dies ist eine Entwicklung, die von den Befragten sehr positiv bewertet wird. So wurden „regelmäßige Kontaktpunkte“ als zentraler Faktor für eine effektive Zusammenarbeit bei Projekten benannt. 41 Prozent der Entwickler glauben sogar, dass KI-Codierungstools bei der Vorbeugung von Burnout helfen können. Weil sie lähmende Arbeiten übernehmen und geistigen sowie zeitlichen Freiraum schaffen.

KI-Tools verkleinern Gap zwischen Alt und Jung

Wer vom Einzug der KI in die Software-Entwicklung besonders profitiert? Für André Bojahr, Lead Data Scientist beim Berliner IT-Consultingunternehmen Exxeta, liegt die Antwort auf der Hand, in einem Meinungsbeitrag auf der Exxeta-Plattform „Insights“ schreibt er: „Was klar ist und wohl viele erfahrene Developer*innen nicht gerne hören, ist die Tatsache, dass KI die Einstiegshürden beim Programmieren deutlich reduziert. Sprich: Der Gap zwischen erfahrenen Entwickler*innen und denen, die gerade erst anfangen, verringert sich dramatisch.“ Mit der KI könnten auch Einsteiger*innen sehr schnell ein hohes Produktivitätslevel erreichen, ohne, dass dabei die Qualität des Codes leidet, „da man hier mittels KI auf das Wissen von Millionen von Entwickler*innen zurückgreift“, wie Bojahr schreibt.

Effizienz killt Jobs? Das Gegenteil ist richtig

Foto: AdobeStock/Trueffelpix
Foto: AdobeStock/Trueffelpix
In einem Meinungsbeitrag auf dem Blog des IT-Portals entwickler.de widmet sich der Autor Manuel Thaler, Co-Gründer des Programmier-Schulungsportals Developer Akademie der Frage, ob KI-Codierungstools früher oder später die menschlichen Programmierer*innen ersetzen. „In der Vergangenheit haben Technologien, die für Effizienzsteigerungen in der Codeerstellung gesorgt haben, zu einer Zunahme der erstellten Software bei gleichzeitiger Senkung der Kosten geführt“, schreibt er. Beispiele hierfür seien High-Level-Programmiersprachen, Frameworks und Open-Source-Projekte. „Dadurch ist die Nachfrage nach Softwareentwicklern in der Vergangenheit bisher immer gestiegen, anstatt zu sinken.“ Ähnliche Effekte könnten nun durch die weitreichende Einführung von KI-gestützten Tools wie ChatGPT erzielt werden. Für ihn ergeben sich aus der Zusammenarbeit zwischen Mensch und Maschine „zahlreiche Möglichkeiten, innovative Lösungen zu entwickeln und die technologische Entwicklung voranzutreiben“.
Seine Prognose ist, dass die KI in der Softwareentwicklung dazu führen wird, dass sich Rollen wandeln und neue Job-Profile entstehen: „Der Mittelbau wird ausgedünnt: Man braucht nicht mehr so viele seniorige Developer*innen, um bestimmte Aufgaben zu lösen. Andererseits braucht man umso mehr Expert*innen, um die richtig komplexen Herausforderungen anzugehen.

Maschinen unter sich? Mensch muss Kontrolle behalten

Auch bei den Arbeitsvorgängen Bugfixing und Testing biete die Künstliche Intelligenz eine helfende Hand. Wobei besonders die Kontrolle dessen, was das KI-System leistet, eine zentrale Aufgabe des Menschen bleibt. Wenn ein Computer einen Code für einen Computer schreiben soll, wäre es ja theoretisch möglich, dass dies gar nicht mehr auf der Ebene einer „Sprache“ passiert. Diese existiert als Gebilde ja nur, damit das, was der Mensch den Computer ausführen lässt, für andere Menschen nachvollziehbar bleibt. Spielt der Mensch im Zusammenspiel der Rechner keine Rolle mehr, könnte man sich doch diese Übersetzungsarbeit sparen, oder? André Bojahr von Exxeta schreibt in seinem Meinungsbeitrag von einem „Gedankenspiel“, warnt aber davor, es umzusetzen: „Es geht um Kontrolle und Transparenz.“ Das Verständnis dafür, welchen Output die Künstliche Intelligenz aus unserem Input generiert, dürfe auf keinen Fall verloren gehen: „Nur, wenn wir der KI-basierten Software vertrauen, kann sie erfolgreich sein. Und deshalb sind Auditierung und Zertifizierung, Ethik und andere Compliance-Vorgaben bei der Nutzung sehr wichtig.“

KI kann helfen, dass Deutschland aufholt

In der Software-Entwicklung auf KI-Tools zu verzichten? Das ist für André Bojahr keine Option. Je nach Anwendungsfall geht er bei den Software-Entwicklern von einer Produktivitätssteigerung zwischen 40 und 80 Prozent aus, auf diesen positiven Effekt könne kein Akteur verzichten. „KI wird nicht nur in der Software-Entwicklung, sondern für viele Aufgaben und Prozesse in Unternehmen eingeführt. Und die Unternehmen, die darauf verzichten, werden schneller ins Hintertreffen geraten, als ihnen lieb sein kann.“ Eine Rolle spielen hier auch der Fachkräftemangel sowie der Rückstand der Softwarebranche in Deutschland und Europa auf die USA: „Das KI-gestützte Coden kann uns möglicherweise helfen, die Lücke zu verringern“, schreibt André Bojahr. Die Voraussetzung dafür ist, dass sich die deutschen Entwicklungsunternehmen der KI mit Lust an der Innovation zuwenden. Und dass der Nachwuchs die Chance nutzt, mit Hilfe der Tools Code-Qualität mit Effizienz zu kombinieren – um damit das Programmieren tatsächlich in ein neues Zeitalter zu führen.

Buchtipp

Cover ChatGPT PlusErlernen Sie schnell, wie Sie ChatGPT Plus souverän beherrschen können, vertiefen Sie Ihr Wissen mit vielfältigen Strategien, um die wirkungsvollsten Prompts zu verfassen. Die umfassende Darstellung der besten Plugins und die fundierte Einführung in den Code-Interpreter machen diesen Ratgeber zu einem absoluten Must-have. Nutzen Sie die zahlreichen unschätzbar wertvollen Tipps, Tricks und Hacks, um optimale Ergebnisse zu erzielen. Sie erhalten eine hervorragende Anleitung mit über 1000 erprobten Prompts und heben Ihre Fähigkeiten auf ein neues Level. Schöpfen Sie die vielfältigen Funktionen von ChatGPT Plus voll aus. Mit ChatGPT öffnet sich das Tor zu einer aussergewöhnlichen Revolution. Künstliche Intelligenz ist nicht länger ein futuristischer Traum, sondern steht jedem zur Verfügung – das Potenzial ist atemberaubend. Nutzen Sie die Gelegenheit, sich schon heute mit ChatGPT vertraut zu machen. Tauchen Sie ein in die unbegrenzten Möglichkeiten der KI – ein Abenteuer, das Sie nicht verpassen sollten. Liliane Ritzi (Hg.), Rolf Jeger (Autor): ChatGPT Plus: Durchstarten in eine neue Welt: Entdecken Sie Künstliche Intelligenz mit ChatGPT Plus und GPT-4. Voima 2023, 29,80 Euro

Rechtsinformatiker Prof. Dr. Christoph Sorge im Interview

Das Recht digitalisiert sich, langsam, aber sicher. Damit ändert sich die Arbeit an Gerichten und in Kanzleien. Das wissenschaftliche Fach der Rechtsinformatik erforscht die Wechselwirkungen an der Schnittstelle. Prof. Dr. Christoph Sorge leitet den Lehrstuhl für Rechtsinformatik an der Universität des Saarlandes und beschreibt sein Fach sowie mögliche Job-Profile für IT-Kräfte. Die Fragen stellte André Boße.

Zur Person

Prof. Dr. Christoph Sorge ist seit 2014 Inhaber des Lehrstuhls für Rechtsinformatik, vormals juris- Stiftungsprofessur für Rechtsinformatik, an der Universität des Saarlandes. Zuvor war er von 2010 bis 2014 Juniorprofessor am Institut für Informatik an der Universität Paderborn. Studiert hat er Informationswirtschaft an der Uni Karlsruhe, wo er auch promovierte. Seine erste Anstellung erfolgte als Research Scientist bei den NEC Laboratories Europe in Heidelberg, wo er zu IT-Sicherheit und Datenschutz in EU-geförderten sowie unternehmensinternen Projekten forschte.
Herr Prof. Dr. Sorge, zunächst einmal allgemein zur Rechtsinformatik als Schnittstellen-Disziplin: Aus der Perspektive eines Informatikers, wie juristisch geprägt ist dieser Bereich? Man kann Rechtsinformatik als angewandte Informatik ansehen, die juristisches Arbeiten in Wissenschaft und Praxis unterstützt. Das kann bedeuten, große Mengen von Urteilen automatisiert auszuwerten, einfache sichere Kommunikation zwischen Gerichten zu ermöglichen oder Regeln des juristischen Schlussfolgerns so zu formalisieren, dass ein Computer damit umgehen kann. Im weiteren Sinne umfasst es außerdem das IT-Recht, mit Rechtsgebieten wie dem Datenschutz- oder Telekommunikationsrecht. Der Begriff der Rechtsinformatik wird meiner Wahrnehmung nach in Deutschland eher von Juristen verwendet. Beide Teilbereiche hängen aber vielfältig zusammen. Beispielsweise lässt sich guter Datenschutz weder allein technisch noch allein juristisch erreichen, sondern nur durch ein gutes Zusammenspiel von Regulierung und technischen Lösungen. Welches juristische Wissen ist für Einsteiger* innen aus der IT nötig? Es ist nicht zwingend notwendig, aber hilfreich, einige juristische Vorlesungen gehört zu haben. Entsprechende Angebote gibt es an einer Reihe von Hochschulen. Mit dieser Grundlage ist man noch kein Jurist. Aber man kennt Grundbegriffe und wichtige Zusammenhänge. Man bekommt einen guten Einblick, wie juristisches Arbeiten überhaupt funktioniert – und hat damit eine Gesprächsbasis. Denn gerade darum geht es oft: In einem interdisziplinären Team gemeinsam Lösungen zu erarbeiten. Dabei hilft es, wenn man weiß, wie das Gegenüber an Probleme herangeht, und diesen Ansatz auch respektiert.
Man könnte Rechtsinformatik wohl eher als die akademische Disziplin ansehen, die einerseits die Grundlagen für konkrete Anwendungen schafft und sich andererseits erlauben kann, mit etwas mehr Abstand und auf höherer Abstraktionsebene auf Probleme zu schauen.
In welchem Verhältnis stehen Rechtsinformatik und LegalTech, sprich: konkrete digitale Anwendungen? Man könnte Rechtsinformatik wohl eher als die akademische Disziplin ansehen, die einerseits die Grundlagen für konkrete Anwendungen schafft und sich andererseits erlauben kann, mit etwas mehr Abstand und auf höherer Abstraktionsebene auf Probleme zu schauen. Wenn man das so sieht, ermöglicht die Rechtsinformatik also erst fortgeschrittene LegalTech-Anwendungen. Sie zeigt andererseits aber auch deren Grenzen auf. Wie beurteilen Sie aktuell die digitale Transformation des Rechts? Wie viel IT steckt gegenwärtig im deutschen Recht? Um es positiv zu sagen: Die Transformation hat begonnen, und sie wird nicht mehr nur von einer Handvoll Enthusiasten getragen. Andererseits müssen leider sehr viele „Abers“ folgen: In Anwaltskanzleien werden Legal-Tech-Anwendungen für Massenverfahren verwendet, aber Gerichte haben zu wenig technische Unterstützung, um mit Massen riesiger eingehender Schriftsätze umzugehen. Elektronische Übermittlungswege sind vorhanden, aber es werden PDF-Dokumente ausgetauscht, statt Sachverhalte maschinenlesbar vorzustrukturieren oder semantische Annotationen vorzunehmen. Mehr noch: Trotz elektronischer Kommunikationswege wird in zu vielen Gerichten noch zu viel gedruckt und gescannt. Technisch sind wir schon seit Jahrzehnten in der Lage, ein gemeinsames Dokument online verfügbar zu machen, in das die Parteien ihre unterschiedlichen Standpunkte einbringen. Über dieses sogenannte Basisdokument wird aktuell viel diskutiert. In mancher Hinsicht legen wir uns bei der Digitalisierung auch selbst Steine in den Weg. Der elektronische Rechtsverkehr mit den Gerichten verwendet beispielsweise eine komplexe technische Insellösung statt internationaler oder europäischer Standards.

Rechtsinformatik

Die Rechtsinformatik versteht sich als eine Schnittstellendisziplin zwischen Recht und Informatik. Sie stellt Fragen wie: Wie wirken sich juristische Anforderungen auf die Informationstechnik aus? Wie können Informatik-Lösungen die juristische Arbeit erleichtern oder sogar ganz neu prägen? Wie lässt sich interdisziplinäre Zusammenarbeit gestalten, um bereits bei der Entwicklung von IT-Systemen beide Seiten im Blick zu haben? Eines der Job-Profile, die in der Rechtsinformatik ausgebildet werden, ist der eines Legal-Engineers: Angestellt in der Regel in Kanzleien, geht es zum Beispiel darum, die LegalTech-Automatisierungen zu implementieren.
Über die Chancen der Digitalisierung wird viel gesprochen, Sie beschäftigen sich auch mit den Problemen, insbesondere der Sicherheit. An welchen Fallbeispielen können Sie festmachen, dass Rechtsinformatik immer auch ein Bereich mit starkem Fokus auf IT-Security sein muss? Die schwerwiegenden Sicherheitslücken im elektronischen Anwaltspostfach, die 2017 und 2018 gefunden wurden, sind ebenso durch die Presse gegangen wie die Schadsoftware-Infektion am Berliner Kammergericht 2019. In beiden Fällen haben wir keine konkreten Hinweise auf abgeflossene vertrauliche Daten. Ganz allgemein müssen wir uns aber bewusst sein, dass den Gerichten hochsensible Daten von Verfahrensbeteiligten anvertraut werden. Bei Privatpersonen können das Daten über Gesundheit oder Sexualverhalten sein, bei Unternehmen sensible Geschäftsgeheimnisse. Gerichtsentscheidungen können auch milliardenschwere wirtschaftliche Folgen haben – weshalb es wichtig ist, sowohl Einflussnahmen zu verhindern als auch die Vertraulichkeit bis zur Verkündung der Entscheidung zu schützen. Denken Sie etwa an die Entscheidung des Bundesverfassungsgerichts zur Kernbrennstoffsteuer zurück, die manch ein Börsenspekulant sicherlich gerne einen Tag vor der Verkündung erfahren hätte. Dem gegenüber stehen eher bescheidene Etats für Informationssicherheit sowie Schwierigkeiten bei der Personalgewinnung. Ich halte es für gut möglich, dass Sicherheitsvorfälle deshalb sogar unbemerkt bleiben. Zur IT-Sicherheit gehört übrigens auch, dass die Verfügbarkeit von IT-Systemen gewährleistet ist. Liest man Berichte über den elektronischen Rechtsverkehr, stellt man fest, dass diese Verfügbarkeit schon ohne Angriffe nicht flächendeckend gewährleistet ist – jedenfalls nicht annähernd auf dem Niveau, das jeder Privatnutzer von seinem E-Mail- Dienstleister erwartet. Die Datenschutz-Debatte rutscht seit einiger Zeit in eine neue Richtung, heute wird Datenschutz häufig als „Bremsklotz“ für den notwendigen Wandel betrachtet, ausgehend von der Corona-Zeit. Braucht der Datenschutz eine Image-Kampagne? Eigentlich sollte man erwarten, dass die Vielzahl an kleinen und großen Datenschutzskandalen, über die immer wieder berichtet wird, Image-Kampagne genug ist. Den Umfang an Daten, die im Alltag über den Einzelnen erfasst werden können, macht man sich aber kaum bewusst. Andererseits ist Datenschutz tatsächlich auch eine bequeme Ausrede, wenn man Innovation behindern möchte. Gelegentlich wird das Kind mit dem Bade ausgeschüttet oder schlicht falsch priorisiert. Die Balance zu finden ist nicht immer einfach.
Technische Möglichkeiten, innovative Anwendungen datenschutzgerecht zu gestalten, werden dann gar nicht erst erwogen – wohl auch aus Unkenntnis. Das halte ich für den falschen Weg.
Wie kann sie gelingen? Oft wäre schon viel gewonnen, wenn man sich einfach die Frage stellte, welche personenbezogenen Daten man denn wirklich braucht, um ein bestimmtes Ziel zu erreichen – und welche technischen Möglichkeiten es gibt, mit genau diesen Daten auszukommen. Die Informatik hat hier viele Werkzeuge entwickelt, die etwa beim elektronischen Personalausweis oder der Corona-Warn- App zum Einsatz kommen und weniger Daten preisgeben, als Laien es für möglich halten würden. Bei anderen Projekten scheint aber die Meinung „viel hilft viel“ vorzuherrschen. Technische Möglichkeiten, innovative Anwendungen datenschutzgerecht zu gestalten, werden dann gar nicht erst erwogen – wohl auch aus Unkenntnis. Das halte ich für den falschen Weg. Mit Blick auf die Entwicklung der Künstlichen Intelligenz, welche ganz neuen Fragen ergeben sich dadurch für Sie als Rechtsinformatiker? Wir denken beispielsweise über die Folgen von generativer Künstlicher Intelligenz und Deep Fakes nach. Ist etwa der Zeuge, der einem Gericht per Videokonferenz zugeschaltet wird, wirklich die richtige Person? Wie sieht es mit vorgelegten Foto- und Videobeweisen aus? KI kann aber auch Strafverfolgern helfen; so haben wir an einem Projekt der Zentralund Ansprechstelle Cybercrime NRW mitgewirkt, bei dem es um die verbesserte Suche nach kinderpornografischen Inhalten auf beschlagnahmten Datenträgern geht. Hier kann KI die Arbeit von Polizei und Staatsanwaltschaft unterstützen. Es gibt aber auch grundlegendere Fragestellungen, etwa bezüglich der Anforderungen an die Erklärbarkeit und die „Fairness“ von KI. Hier kommen die Sichtweisen von Informatik, Jura und auch Ethik zusammen – und es stellt sich wiederum die Frage, wie man intelligent Risiken adressiert, ohne durch Überregulierung die Weiterentwicklung zu lähmen.

Fachkräfte für klimaneutrale IT

Nachhaltiges Wirtschaften bringt für Unternehmen viele Vorteile mit sich: sinkende Energiekosten, eine Verringerung des CO2-Abdrucks sowie mehr Resilienz. Zudem ist Nachhaltigkeit ein gutes Argument, zukünftige Fachkräfte vom eigenen Business zu überzeugen. Zur Erreichung dieser Ziele braucht es moderne IT-Systeme und qualitativ hochwertige Daten. Allerdings, und hier beißt sich die Katze in den eigenen Schwanz: Die größte Hürde beim Aufbau einer nachhaltigen Unternehmens-IT sind fehelendes Fachwissen und der Fachkräftemangel. Von Christoph Berger

Der Green Deal der Europäischen Kommission hat ein klares Ziel: Bis zum Jahr 2050 soll Europa klimaneutral sein. Die Unternehmen werden in diesem Zuge verpflichtet, ihre CO2-Emissionen zu reduzieren und ressourcenschonender zu produzieren. Da ist es nur allzu klar, dass das Thema Nachhaltigkeit bereits in neun von zehn Unternehmen einen hohen Stellenwert hat. Das hat das Marktforschungsunternehmen PAC im Auftrag von Lufthansa Industry Solutions im Rahmen der Studie „IT & Sustainability – Reifegradindex 2023“ herausgefunden. Die Ergebnisse brachten aber auch noch ein anderes Ergebnis hervor: Über die Hälfte von ihnen verschiebt das Erreichen einer CO2-Neutralität sowie den Aufbau einer klimaneutralen IT auf das nächste Jahrzehnt. „Es zeigt sich eine erhebliche Diskrepanz zwischen der generellen Entscheidung für nachhaltiges Wirtschaften und der Umsetzung klar definierter Ziele“, sagt demnach auch Stephanie Hackenholt, Product Owner Customer Sustainability bei Lufthansa Industry Solutions (LHIND) in einer zur Studie veröffentlichten Mitteilung. Nur vier von zehn Unternehmen hätten bereits Nachhaltigkeitsziele verabschiedet, deren Erreichung mit konkreten Kennzahlen gemessen werden soll. Der Rest arbeite strategisch noch im Ungefähren oder befinde sich in der Planungsphase.

Eine saubere Datenbasis ist ein Muss

Was aufgrund zweier Dinge verwundert. Erstens nehmen neun von zehn Befragten die Anfang des Jahres in Kraft getretene EU-Richtlinie „Corporate Sustainability Reporting Directive“ (CSRD) als einen der wichtigsten Treiber für das Thema wahr. Und zweitens rechnet sich Nachhaltigkeit auch unter wirtschaftlichen Aspekten. „90 Prozent versprechen sich Wettbewerbsvorteile zum Beispiel durch einen effizienteren Ressourceneinsatz und eine optimierte Auslastung“, sagt Stephanie Hackenholt. Um dieses Potenzial zu heben, führe an einer sauberen Datenbasis kein Weg vorbei, heißt es in der Studie. Drei von vier Studienteilnehmern halten daher für das Erstellen eines Nachhaltigkeits-Reportings ein professionelles IT-Tool für unerlässlich. 37 Prozent sind allerdings der Meinung, dass die eigene IT-Abteilung noch zu wenig über Nachhaltigkeitsthemen weiß.

Automatisierte Bewertung für nachhaltige Software

Foto: AdobeStock/ Vilogsign
Foto: AdobeStock/ Vilogsign
Das Projekt „Enabling green COmputing and DIGItal Transformation“ (ECO:DIGIT) startete Anfang August 2023 offiziell mit dem Ziel, eine Bewertungsumgebung für Software- bzw. Cloud-Anwendungen zu entwickeln, die umfassende Informationen über Ressourcenverbräuche und Umweltauswirkungen transparent offenlegt. Das Projekt wird im Rahmen des GreenTech Innovationswettbewerbs des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) gefördert.
Und nicht nur das: 80 Prozent bemängeln die zur Verfügung stehende Datenqualität, rund 50 Prozent fehlt die geeignete Datenbasis. Hinzu kommt die Problematik der Zusammenführung heterogener Daten. Dabei, so Stephanie Hackenholt, werde erst durch das Zusammenbringen von Daten aus unterschiedlichen Quellen Nachhaltigkeit anhand geeigneter KPIs messbar, zum Beispiel für CO2-Emissionen, Energieeffizienz, Ressourceneffizienz oder Recyclingquoten. Darüber hinaus tun sich Unternehmen noch bei einer weiteren Herausforderung schwer: beim Aufbau einer insgesamt nachhaltigen Unternehmens-IT. Bis 2040 soll auch dieses Ziel in den meisten Unternehmen gelingen. Vorher müssen allerdings die Wissenslücken durch Schulungen, Mitgliedschaften in Branchenverbänden oder Neueinstellungen geschlossen werden. Mehr als drei Viertel der Unternehmen (77 %) wollen dabei mit externen Beratern zusammenarbeiten. „Die Entwicklung einer grünen Unternehmens-IT ist eine anspruchsvolle Aufgabe“, sagt Stephanie Hackenholt. „Durch die Verringerung des CO2-Fußabdrucks in ihrem Bereich können die IT-Verantwortlichen einen wesentlichen Beitrag zum Klimaschutz im Unternehmen leisten und damit auch für einen höheren Reifegrad der Organisation insgesamt sorgen.“

Fehlendes Fachwissen und Fachkräftemangel sind größten Hürden

Dass Nachhaltigkeit schon lange nicht mehr nur ein „Nice to have“ ist, belegt auch die IDC-Studie „IT & Sustainability in Deutschland 2023“. Die kommt zu tendenziell ähnlichen Ergebnissen wie die oben besprochene PAC-Studie, hebt aber ganz klar den Fachkräftemangel und fehlendes Fachwissen als größte Hürden zur Erreichung der Nachhaltigkeitsziele hervor. Diese Mängel seien als kritisch zu bewerten, da zum einen Fachkräfte fehlen würden, um nachhaltigkeitsfördernde Projekte umzusetzen, zum anderen werde das Nachhaltigkeitsprofil eines Unternehmens den Studienergebnissen zufolge zunehmend zu einem wichtigen Entscheidungskriterium für neue Talente (59 %). Unternehmen haben somit keine andere Wahl: Wollen sie wettbewerbsfähig bleiben, müssen sie in eine moderne, digitalisierte und von Beginn an nachhaltig gestaltete IT-Infrastruktur investieren.
Besonders Public Clouds beziehungsweise Hybrid Clouds könnten unter anderem durch Virtualisierung, Skalierungseffekt sowie eine bessere Auslastung nachhaltiger sein als reine On-Premise-Bereitstellungsmodelle.
Und auf welche modernen Maßnahmen und IT-Lösungen setzen die Unternehmen, um Wertschöpfungsprozesse, aber auch die IT selbst nachhaltiger zu machen? Auch hierzu hat IDC nachgefragt. Um das Unternehmen beziehungsweise Wertschöpfungsprozesse nachhaltiger zu gestalten, setzen 52 Prozent auf eine Private oder hybride Cloud-Umgebung. Weitere 45 Prozent auf die Public Cloud und 43 Prozent auf Technologien für Remote Work. Besonders Public Clouds beziehungsweise Hybrid Clouds könnten unter anderem durch Virtualisierung, Skalierungseffekt sowie eine bessere Auslastung nachhaltiger sein als reine On-Premise-Bereitstellungsmodelle, heißt es in der Studienauswertung. Konkrete Vorteile von Cloud in puncto Nachhaltigkeit sehen die Unternehmen in der Senkung der Energiekosten (39 %), der Verringerung des CO2-Abdrucks (25 %) sowie einer verbesserten Business Resilienz (22 %). Technologien wie Künstliche Intelligenz (KI), Maschinelles Lernen, Predictive Analytics und Internet of Things (IoT) würden von den Unternehmen derzeit weniger genutzt, seien in den nächsten 12 bis 24 Monaten jedoch umfassend geplant. Ein guter Ansatz, da mittels KI, Predictive Analytics und im Rahmen von IoT kontinuierlich Daten erfasst und ausgewertet werden könnten und somit frühzeitige Verbesserungen von Verbräuchen und Effizienzsteigerungen möglich seien. Um die IT-Infrastruktur selbst nachhaltiger zu machen, setzt jeweils ein Drittel auf neue Hardware, ein verbessertes Energiebewusstsein für Softwareanwendungen (Green Coding) und einen Mix aus erneuerbaren Energiequellen bei der Energieversorgung.

Bester Schutz bei Cyberangriffen: der Mensch

Die Bedrohungslage von Cyberangriffen auf Unternehmen nimmt immer weiter zu. Neben vielen technischen Möglichkeiten zum Schutz der eigenen Infrastrukturen, gilt es vor allem, die eigenen Mitarbeiterinnen und Mitarbeiter für das Thema zu sensibilisieren und zu schulen.Von Christoph Berger

Die Zahlen sind alarmierend: Gut jedes zehnte Unternehmen in Deutschland war laut einer von Ipsos im Auftrag des TÜV-Verbands durchgeführten Umfrage im vergangenen Jahr von einem IT-Sicherheitsvorfall betroffen. Dabei handelte es sich um erfolgreiche Cyberangriffe oder andere sicherheitsrelevante Vorfälle wie Sabotageakte oder Hardware-Diebstahl. Das im August 2023 vom Bundeskriminalamt veröffentlichte „Cyberlagebild 2022“ stuft Cybercrime zu den Phänomenbereichen mit dem höchsten Schadenspotenzial in Deutschland ein. Die durch den Digitalverband Bitkom errechneten Cybercrime-Schäden in Deutschland beliefen sich laut dem Wirtschaftsschutzbericht 2022 auf 203 Milliarden Euro und sind damit rund doppelt so hoch wie noch im Jahr 2019. Was also tun? Die Mehrzahl der von Ipsos für die TÜV-Umfrage Befragten, 64 Prozent, sprechen sich angesichts der Bedrohungslage für zusätzliche gesetzliche Vorgaben aus – jedes Unternehmen sollte dazu verpflichtet sein, angemessene Maßnahmen für seine Cybersecurity zu ergreifen. Und das tun die Unternehmen auch. So brachte die Umfrage ebenfalls als Ergebnis hervor, dass gut jedes zweite Unternehmen seine Ausgaben für Cybersecurity in den vergangenen zwei Jahren leicht oder sogar deutlich erhöhte (52 Prozent). Die Investitionen gehen an erster Stelle in moderne Hardund Software: 78 Prozent haben veraltete Geräte außer Betrieb genommen, 71 Prozent sichere Hardware angeschafft und 55 Prozent neue Cybersecurity-Software eingeführt. 63 Prozent haben die IT-Sicherheit vernetzter Maschinen und Anlagen verbessert.
Die Menschen sind weiterhin eines der wichtigsten Einfallstore für Angreifer, zugleich aber auch die erste und vielleicht beste Abwehr bei Angriffen.
Darüber hinaus investieren die Unternehmen in ihr eigenes Know-how: Sie lassen sich von externen Expert*innen beraten und schulen ihre Mitarbeitenden. Auch Penetrationstests und Notfallübungen werden genutzt, um Schwachstellen zu identifizieren und besser auf den Ernstfall vorbereitet zu sein. Der Branchenverband nennt drei Dinge, die nun ganz oben auf der Agenda stehen sollten, um Unternehmen für Angriffe zu wappnen. Zum einen müsse die IT-Sicherheit mit den notwendigen Ressourcen ausgestattet werden. Zweitens brauche jedes Unternehmen einen Notfallplan. Und last but not least müssten alle Mitarbeiter*innen zum Thema IT-Sicherheit geschult werden: Die Menschen seien weiterhin eines der wichtigsten Einfallstore für Angreifer, würden zugleich aber auch die erste und vielleicht beste Abwehr bei Angriffen bilden, heißt es. Solche Schulungen dürften allerdings nicht nur pflichtschuldig einmal durchgeführt werden, sie müssten regelmäßig stattfinden. Denn auch die Methoden und Technologien der Angreifer würden sich weiterentwickeln.

InformierT: Kultur-, Buch- und Linktipps

Was vernetzt ist, ist angreifbar

Cover Was vernetzt ist ist angreifbarAll unsere Geräte und Gadgets – von unseren Kühlschränken bis hin zu unseren Haussicherheitssystemen, Staubsaugern und Stereoanlagen – werden über kurz oder lang online sein, genau wie unsere Computer. Aber wenn wir unsere Geräte erst einmal erfolgreich mit dem Internet verbunden haben, können wir dann überhaupt noch hoffen, sie und uns selbst vor den Gefahren zu schützen, die in den digitalen Gewässern lauern? In seinem Buch liefert der Cybersicherheitsexperte Mikko Hyppönen eine augenöffnende und teilweise erschreckende Erkundung der besten – und schlimmsten – Dinge, die uns das Internet beschert hat. Von der sofortigen Konnektivität zwischen zwei beliebigen Punkten auf der Welt bis hin zu organisierten Ransomware-Banden – das Netz ist Segen und Fluch zugleich. In diesem Buch erforscht der Autor das Veränderungspotenzial und die Zukunft des Internets, aber auch die Dinge, die seine weitere Existenz bedrohen: staatliche Überwachung, Zensur, organisiertes Verbrechen und mehr. Mikko Hyppönen: Was vernetzt ist, ist angreifbar. Wiley 2023, 24,99 Euro

Handbuch Data Engineering

Cover Data EngineeringData Engineering hat sich in den letzten zehn Jahren rasant entwickelt, sodass viele Software Engineers, Datenanalyst*innen und Data Scientists nach einer zusammenfassenden Darstellung der grundlegenden Techniken suchen. Dieses praxisorientierte Buch gibt all jenen mit dem Data Engineering Lifecycle ein Framework an die Hand, das die Evaluierung und Auswahl der besten Technologien für reale Geschäftsprobleme erleichtert. Sie erfahren, wie sich Systeme so planen und entwickeln lassen, dass sie den Anforderungen der Unternehmen und deren Kunden optimal gerecht werden. Joe Reis und Matt Housley führen durch den Data Engineering Lifecycle und zeigen, wie sich eine Vielzahl von Cloud-Technologien kombinieren lassen, um die Bedürfnisse von Datenkonsumenten zu erfüllen. Joe Reis, Matt Housley: Handbuch Data Engineering. O‘Reilly 2023, 49,90 Euro

Kunsthalle Bremen mit Web-APP „Mein Pinnwand-Museum“

Die Kunsthalle Bremen hat eine Web-App für Menschen entwickeln lassen, die gerne selbst kreativ tätig sind und einen Blick für Ähnlichkeiten haben. Nach einer kostenlosen Anmeldung kann man sich online in der Sammlung der Kunsthalle Bremen bedienen, eigene Motive hochladen und so schließlich eine eigene Online-Ausstellung erstellen. Auch Audiound Textkommentare können hinzugefügt werden. Die Online-Ausstellung kann mit unterschiedlichen Wandfarben, einem Titelmotiv und einem Meme-Slogan versehen werden. Die Themen sind vielfältig wählbar, entsprechend der eigenen Interessen und den Lieblingswerken aus der Sammlung. Weitere Informationen unter: www.kunsthalle-bremen.de

Business Analysis und Requirements Engineering

Cover Analysis und Requirements EngineeringWir alle wollen schlanke, effektive Geschäftsprozesse und optimale IT-Unterstützung. Wir finden für jedes Problem eine Lösung – wenn wir uns nur genau darauf einigen könnten, was unser Problem ist. Das Verstehen von Problemen und das Formulieren von Anforderungen, was wir gerne anders hätten, ist das Thema dieses Buches. Gezeigt wird ein integrierter Ansatz zum Umgang mit Anforderungen; Methoden, Notationen und viele pragmatische Tipps werden zur Verfügung gestellt, mit denen Anforderungen effektiv zwischen Auftraggebern und Auftragnehmern behandelt werden können – von Entdeckungstechniken über Dokumentationstechniken, Prüftechniken bis hin zu Verwaltungstechniken.Peter Hruschka: Business Analysis und Requirements Engineering. Hanser 2023, 39,99 Euro

Gewissensbisse – Fallbeispiel zu ethischen Problemen der Informatik

Cover GewissensbissDie vielfältigen Möglichkeiten moderner IT-Systeme bringen drängende ethische Probleme mit sich. Neben der offensichtlichen Frage nach einer moralisch tragbaren Verwendung von Informationstechnologien sind ebenso die Aspekte des Entwerfens, Herstellens und Betreibens derselben entscheidend. Die Beiträge setzen sich mit dem Konfliktpotenzial zwischen Technik und Ethik auseinander, indem sie lebensnahe Fallbeispiele vorstellen und fragenbasiert zur Diskussion einladen. Damit liefern sie eine praktische Herangehensweise zum gemeinsamen Nachdenken über moralische Gebote und den ethischen Umgang mit IT-Systemen und ihren Möglichkeiten. Der Band eignet sich damit in hervorragender Weise zum Vermitteln und Erlernen von ethischer Reflexions- und Handlungskompetenz in der Informatik sowie im Umgang mit IT-Technologien überhaupt. Christina B. Class / Wolfgang Coy / Constanze Kurz / Otto Obert / Rainer Rehak / Carsten Trinitis / Stefan Ullrich / Debora Weber-Wulff (Hg.): Gewissensbisse – Fallbeispiele zu ethischen Problemen der Informatik. Transcript 2023, 29 Euro

Deutsches Museum mit neuem Erlebnisraum „Robomob“

Foto: Deutsches Museum/Lichtenscheidt
Foto: Deutsches Museum/Lichtenscheidt
Die „Mission KI“ im Deutschen Museum Bonn geht in die nächste Etappe: Am 11. Mai eröffnete der neue Erlebnisraum „RoboMob“ mit neuen Exponaten und Erlebnisstationen rund um den Einsatz von Künstlicher Intelligenz in Robotik und Mobilität. Leitexponat des neuen Ausstellungsbereichs ist der Forschungsroboter RHINO der Universität Bonn, der in den 1990er-Jahren als interaktiver Museums-Guide seine Runden durch das Deutsche Museum Bonn drehte. RHINO ist ein Stück Wissenschaftsgeschichte: Er legte wesentliche Grundlagen für die Entwicklung des autonomen Fahrens. Im Rahmen einer Masterarbeit an der Universität Bonn erweckt ein Team um Erik Schlachhoff und Nils Dengler RHINO mit virtueller Realität wieder zum Leben. Die Anwendung in der VR-Brille zeigt, wie RHINO 1997 autonom durch das Museum gefahren ist. Daneben gibt es einen futuristischen Fahrsimulator zu sehen, es geht um KI-Entscheidungen, das Lösen von Puzzeln sowie den Roboterhund GO1 und den Laufroboter LAURON IVc. Infos unter: www.deutsches-museum.de

Der elektronische Spiegel: Menschliches Denken und Künstliche Intelligenz

Cover Der elektonische Spiegel„Der elektronische Spiegel“ handelt von dem Abenteuer, Intelligenz zu verstehen, indem man sie nachbaut. Die Wissenschaftsjournalistin Manuela Lenzen nimmt die Leser*innen mit auf einen Streifzug durch das dynamische Forschungsfeld zwischen Psychologie, Neurowissenschaften, Biologie, Philosophie und KI-Forschung. Künstliche Intelligenz ist noch lange nicht so klug wie wir. Aber gerade deshalb kann sie uns Aufschluss darüber geben, wie Intelligenz wirklich funktioniert und wer wir sind. Manuela Lenzen: Der elektronische Spiegel: Menschliches Denken und künstliche Intelligenz. C.H.Beck 2023, 20 Euro

Das letzte Wort hat: Rafael Laguna de la Vera, Direktor der Bundesagentur für Sprunginnovationen SPRIND

Rafael Laguna de la Vera hat eine tolle und gleichzeitig sehr herausfordernde Aufgabe: Er soll Innovationen entdecken, die die Welt grundlegend verändern – hin zum Guten. Die Fragen stellte Christoph Berger

Zur Person

Rafael Laguna de la Vera, Foto: SPRIND GmbH
Rafael Laguna de la Vera, Foto: SPRIND GmbH
Rafael Laguna de la Vera ist eigentlich Gründer und Investor im Software- und Internetbereich. Doch im Juli 2019 wurde er von der Bundesregierung zum Direktor der Bundesagentur für Sprunginnovation SPRIND berufen. Auftrag der Bundesagentur ist es, aus Forschungsergebnissen und Erfindungen neue Unternehmen oder gar Industrien zu machen, die den Wohlstand Deutschlands und Europas sichern. Rafael Laguna de la Vera studierte 1986 für einige Wochen Informatik an der Universität Dortmund, brach das Studium aber wieder ab. Im Jahr 1998 absolvierte er ein Management-Programm an der Harvard Business School. www.sprind.org
Herr Laguna, Sie leiten die Bundesagentur für Sprunginnovationen. Was sind Sprunginnovationen? „Normale“ Innovationen stellen Verbesserungen von bereits Existierendem dar. Sprunginnovationen grenzen sich von diesen dahingehend ab, dass sie etwas gänzlich Neues sind. Kommt eine Sprunginnovation in die Welt, ist sie danach merklich anders als zuvor. Wir konzentrieren uns hier auf Sprunginnovationen, die die Welt besser machen. Was sind Beispiele für derartige Innovationen? Mit KI erleben wir gerade das „In die Welt kommen“ einer Sprunginnovation. Dass KI alles auf links kehren wird, steht außer Frage und wird Auswirkungen auf jeden Einzelnen haben. Auch das Smartphone hat unser Leben stark verändert, davor das Internet. Aber auch jüngst und aus Deutschland kommend sind mRNA-Impfstoffe zu nennen. In welchen Bereichen identifiziert die von Ihnen geführte Bundesagentur Sprunginnovationen? 30 Prozent haben wir etwa im medizinischen, 30 Prozent im Energie- und Umwelt- und ein weiteres Drittel im richtigen Deep-Tech-Bereich. Die letzten zehn Prozent kommen aus dem Sozialbereich, die manchmal überhaupt nicht so viel mit Technik zu tun haben. Wir machen da aber prinzipiell keine Vorgaben, Projekte können bei uns jederzeit eingereicht werden. Insgesamt gab es bislang rund 1300 Einreichungen, von denen glauben wir fünf Prozent weiterentwickeln zu müssen. In Challenges geben wir zudem Themen vor. Wer sucht die Innovationen aus – sind das Menschen oder werden Sie von einem Algorithmus unterstützt? Nein, das machen noch wir Menschen. Das hat auch damit zu tun, dass Sprunginnovationen viel mit Menschen zu tun haben. Wir schauen uns die Innovator*innen sehr genau an. Wir suchen Leute, die für ihre Sache brennen, die eine große Vision haben. Bei Sprunginnovationen muss man nicht nur eine fachliche Exzellenz haben, sondern darüber hinaus auch groß denken können und die dafür nötige Energie freisetzen. Für KI ist da eine Evaluierung noch etwas schwierig. Und wenn, dann würden wir uns eine eigene KI entwickeln. Welche Rolle spielt IT bei all den Innovationen? Sie spielt überall und ausnahmslos eine Rolle. Sie studierten selbst Informatik, brachen das Studium dann aber nach wenigen Wochen wieder ab. Was war die anfängliche Motivation und wie kam es zum Bruch mit dem Fach? Mit 12 Jahren habe ich die Mikroelektronik entdeckt, 1976, habe dann 4-bit SCM-Computer zusammengelötet mit 256 Byte und mit 16 Jahren meine erste Firma gegründet. Nach Abi und Zivildienst kam ich dann an die Uni Dortmund: 500 Erstsemester-Studierende und nur Fächer, mit denen ich als praktischer Informatiker nichts anfangen konnte. Das war nicht inspirierend. Seitdem hat sich aber viel geändert. Inzwischen gibt es, Sie haben es erwähnt, Künstliche Intelligenz. Wie wird KI die Arbeit der Informatiker selbst verändern? Sie wird die Arbeit auf allen Gebieten verändern. So wird eine KI in allen Phasen der Softwareentwicklung mitwirken – und tut dies ja auch schon. Entwickler*innen, die diese Werkzeuge zu nutzen wissen, werden viele Faktoren effizienter und schneller erledigen können. Mit großer Sicherheit werden wir auch User Interfaces und Rechner ganz anders bauen. Wir müssen uns neu erfinden. Ich kann allen nur empfehlen, sich diesen Technologien zu öffnen und sich von morgens bis abends damit zu beschäftigen, sich ein eigenes Large Language Model, ein generatives Sprachmodell mit künstlicher Intelligenz, aufzusetzen – damit man das einerseits versteht und andererseits für sich einsetzt und mit eigenen Daten trainiert. Und man sollte mit all den neuen Tools experimentieren und schauen, wie man sie in die eigenen Arbeitsprozesse einbauen kann.

kuratiert

0

Quanteninternet: 1000-fach bessere Kommunikationsrate

Für das Quanteninternet ist Diamantmaterial von großer Bedeutung. Spezielle Verunreinigungen des Kohlenstoffgitters im Diamanten können als Quantenbits, sogenannte Qubits, genutzt werden und einzelne Photonen aussenden. Um eine Datenübertragung mit Kommunikationsraten über weite Distanzen im Quantennetzwerk zu ermöglichen, müssen alle Photonen in Glasfasern eingesammelt und übermittelt werden, ohne verloren zu gehen. Dabei muss gewährleistet sein, dass diese Photonen alle die gleiche Frequenz haben. Dies war bisher unmöglich. Forschenden der Arbeitsgruppe „Integrierte Quantenphotonik“ an der Humboldt-Universität zu Berlin ist es weltweit zum ersten Mal gelungen, Photonen mit stabilen Photonenfrequenzen zu erzeugen und nachzuweisen. Mit Hilfe der entwickelten Methoden lassen sich die gegenwärtigen Kommunikationsraten zwischen räumlich getrennten Quantensystemen mehr als 1000-fach erhöhen. Damit sind die Forschenden einem zukünftigen Quanteninternet einen wichtigen Schritt näher gekommen.

Urbane Lebensmittelproduktion der Zukunft

Im April dieses Jahres eröffnete die Forschungsanlage CUBES Circle – Future Food Production in Berlin. Wissenschaftler*innen aus verschiedenen Fachdisziplinen haben hier erfolgreich drei agrarische Produktionssysteme – die Aquakultur, die Produktion von Insekten und die gärtnerische Pflanzenproduktion – als Kreislaufsystem miteinander vernetzt und in Form einer Produktionsanlage erprobt. In Zukunft sollen weitere Kulturen miteinander kombiniert und Wechselwirkungen zwischen den Systemen untersucht werden. Ziel der Forschungen ist es, Nahrungsmittelproduktion in urbanen Räumen neu zu definieren und in einen Kreislaufprozess zu überführen, in dem Reststoffe, Abwärme und Abwasser zu Zutaten qualitativ hochwertiger und frischer Nahrungsmittel werden.

Neuer Master für alle Ingenieurfachrichtungen

An der Otto-von-Guericke-Universität Magdeburg startet im Wintersemester 2023/24 der interdisziplinäre Masterstudiengang Computational Methods in Engineering. Das viersemestrige und englischsprachige Studium vermittelt die Kompetenzen, um an der Schnittstelle von Maschinenbau, Verfahrenstechnik, Informatik und Mathematik zu arbeiten. Die Studierenden erlernen grundlegende Konzepte, Techniken und Werkzeuge für die Modellierung, Simulation und Analyse komplexer Systeme mithilfe von Computern. Nach Ende ihres Studiums können sie eine Verbindung zwischen verschiedenen klassischen Ingenieurdisziplinen und der Softwareentwicklung herstellen. Sie können zum Beispiel das Verhalten von komplexen Bauteilen bereits am Computer simulieren, noch bevor sie als Prototypen hergestellt würden. Zulassungsvoraussetzung für den Masterstudiengang ist ein Bachelorabschluss in allen gängigen ingenieurwissenschaftlichen Fachrichtungen und ingenieursnahen Mathematik- und Informatikstudiengängen.