Das letzte Wort hat: Informatiker Prof. Dr. Jörn Müller-Quade

Foto: Fotolia/fotofabrika
Foto: Fotolia/fotofabrika

Künstliche Intelligenz (KI) kann unseren Alltag erleichtern, den Verkehr sicherer machen und unsere Gesundheitsversorgung verbessern. Doch um dieses Potenzial ausschöpfen zu können, bedarf es vertrauenswürdiger KI-Systeme, die die Menschen gerne nutzen. Eine Zertifizierung von KI kann das Vertrauen in die Technologie stärken. Welche Besonderheiten bei der Zertifizierung von KI beachtet werden müssen und warum nicht alle KI-Systeme einer Prüfung unterzogen werden müssen, erklärt Jörn Müller-Quade. Der Professor forscht am Karlsruher Institut für Technologie im Bereich Kryptographie und Lernende Systeme. Zudem ist er Leiter der Arbeitsgruppe „IT-Sicherheit“ der Plattform Lernende Systeme.

Zur Person

Prof. Dr. Jörn Müller-Quade, Foto: Andreas Drollinger
Prof. Dr. Jörn Müller-Quade, Foto: Andreas Drollinger

Dr. Jörn Müller-Quade, 1967 in Darmstadt geboren, studierte in Erlangen und Karlsruhe Informatik. Heute ist er Professor am Karlsruher Institut für Technologie und Leiter der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme

Herr Müller-Quade, warum ist es wichtig, Künstliche Intelligenz zu zertifizieren?
Wie KI-Systeme zu ihren Entscheidungen kommen, ist häufig selbst für Experten nicht verständlich. Man spricht hier auch von Black-Box-Systemen. Ein Kunde kann also selbst nicht beurteilen, ob der Einsatz eines KI-Systems in einem bestimmten Kontext unbedenklich ist. Hier kann ein Zertifikat Orientierung geben und am Markt den gewissenhaften Herstellern einen Vorteil bieten.

Was unterscheidet die Zertifizierung von Künstlicher Intelligenz von der Zertifizierung anderer IT-Systeme?
Entscheidungen von KI-Systemen sind häufig nicht einfach nachvollziehbar, insbesondere bei Lernenden Systemen. Eine Zertifizierung wird aber sehr viel schwieriger, wenn man das System nicht verstehen kann. In manchen Fällen wird man wohl gut verstandene Schutzmechanismen mit KI kombinieren müssen. Zusätzlich können KI-Systeme dazulernen, sich also dynamisch verändern, weswegen eine einmalige, statische Zertifizierung nicht ausreicht. Zertifizierung muss ein offener Prozess werden.

Wie gelingt eine Zertifizierung, die die Qualität von KI-Systemen sicherstellt, ohne Innovationen zu hemmen?
Da Zertifizierung aufwendig sein kann und Zeit kostet, sollte man nur solche KI-Systeme zertifizieren, die eine erhöhte Kritikalität haben. Irrt sich etwa ein Algorithmus, der mir Musikstücke vorschlagen soll, ist das sicher kein Drama und eine Zertifizierung nicht notwendig. Eine Zertifizierung ist eher nötig für autonomes Fahren, oder für KI-Systeme in der Medizintechnik.

Whitepaper „Zertifizierung von KI-Systemen