KI-Gesetzgebung

Eine Chance für KI made in Germany

Die Europäische Union setzt mit dem EU AI Act nicht nur ein umfassendes Regelwerk für Künstliche Intelligenz um, sondern auch neue Maßstäbe. Matthias Mauer, Gründer und Vorstand der M&L AG, sieht im EU AI Act eine Chance, das Vertrauen in KI zu stärken. Im Interview erläutert er warum.

Symbolbild EU AI Act, Europaflagge auf einem KI-Chip steht für KI made in Germany

10.02.2025

Am 1. August 2024 trat der AI Act in Kraft – das weltweit erste umfassende Regelwerk für Künstliche Intelligenz (KI). Die Europäische Union (EU) setzt damit neue Maßstäbe, die Unternehmen vor Herausforderungen stellen, aber auch Raum für Innovation und Wachstum schaffen. Denn sie befürchten einmal mehr Überregulierung. Matthias Mauer, Gründer und Vorstand der M&L AG, sieht im EU AI Act eine Chance, das Vertrauen in KI zu stärken. Im Interview erläutert er warum KI made in Germany ein Erfolgsmodell sein kann.

DUP UNTERNEHMER-Magazin: In Deutschland befürchten viele Unternehmen, dass der EU AI Act durch Überregulierung die Entwicklung von KI im Vergleich zu Ländern wie den USA hemmt. Halten Sie diese Sorge für gerechtfertigt?

Matthias Mauer: Es ist verständlich, dass Unternehmen besorgt sind, denn der AI Act bringt erhebliche Anforderungen mit sich, insbesondere in Bezug auf Compliance, Datenmanagement und Schulungen. Gerade für kleinere Unternehmen kann dies zu einem spürbaren Mehraufwand führen. Doch es gibt auch Chancen. Das Vertrauen in KI ist in Deutschland traditionell geringer als in den USA, was auch an einem hohen Bewusstsein für Datenschutz liegt. Der AI Act adressiert diese Bedenken und schafft eine Grundlage für „sichere“ KI. Die Herausforderung liegt darin, dass wir uns nicht nur auf Regeln konzentrieren sollten, sondern die Regulierung als Chance nutzen: KI „Made in Germany“ kann als Qualitätssiegel stehen – für Datenschutz, Transparenz und ethische Standards. Studien zeigen, dass Konsumenten und Unternehmen solche Sicherheitsmerkmale schätzen. Gleichzeitig darf die EU nicht den Anschluss an schnell wachsende Märkte wie die USA verlieren. Um dies zu verhindern, brauchen wir praxistaugliche Lösungen, die auch den Mittelstand mitnehmen.

Wie lässt sich diese Idee eines Qualitätssiegels für KI konkret umsetzen, insbesondere im Hinblick auf die Vorgaben des AI Act?

Mauer: Qualitätssicherung für KI-Anwendungen basiert auf mehreren Pfeilern:
1. Datenmanagement: Unternehmen müssen ihre Daten sorgfältig aufbereiten und sicherstellen, dass diese frei von Verzerrungen (Bias) sind. Hierzu gehört die Erstellung von Datenstandards und regelmäßige Audits.
2. Transparenz: Jede KI-Anwendung sollte erklärbar sein. Mit Explainable Artificial Intelligence (XAI©) schaffen wir Transparenz, indem wir nachvollziehbar machen, wie eine KI Entscheidungen trifft.
3. Governance: Unternehmen brauchen eine klare Strategie für den Umgang mit KI – von der Entwicklung bis zur Nutzung.
4. Mitarbeiterschulung: Der AI Act verpflichtet Unternehmen, die KI-Kompetenzen ihrer Mitarbeitenden zu fördern. Dies geht weit über technisches Wissen hinaus: Es geht darum, ethische und rechtliche Aspekte zu verstehen.
5. Kontrolle: Regelmäßige Überprüfung der eingesetzten Systeme durch interne und externe Prüfmechanismen.
Ein Beispiel aus unserer Praxis: Bei unserem Chatbot „Mara ML“ verwenden wir XAI©, um sicherzustellen, dass die Antworten nachvollziehbar sind. Jede Entscheidung basiert auf transparenten Daten und wird so aufbereitet, dass Nutzer verstehen, wie die KI zu ihren Ergebnissen kommt.

Sie sprechen von KI-Governance und Unternehmensrichtlinien. Haben Sie solche Konzepte bereits in Ihrem Unternehmen umgesetzt?

Mauer: Ja, unsere AI Empowerment Strategie wurde Anfang 2024 eingeführt. Sie basiert auf ethischen Grundsätzen wie Datenschutz, Transparenz und der Vermeidung von Verzerrungen (Bias). Im Herbst 2024 haben wir zusätzlich eine umfassende KI-Richtlinie verabschiedet. Diese Richtlinie regelt nicht nur die Nutzung von KI im Unternehmen, sondern definiert auch Standards für den Umgang mit Kundendaten, den Schutz der Privatsphäre und die Überwachung von KI-Anwendungen.
Darüber hinaus haben wir Schulungsprogramme entwickelt, die Mitarbeitende fit im Umgang mit KI machen – von technischen Grundlagen bis hin zu rechtlichen und ethischen Fragestellungen.
Wir haben erkannt, dass es nicht reicht, auf Vorschriften zu reagieren. Es geht darum, eine Vorreiterrolle einzunehmen und Werte zu schaffen, die auch für unsere Kunden von Nutzen sind.  

Die Umsetzung dieser Maßnahmen klingt komplex. Wie können Unternehmen ohne spezielles Fachwissen die Anforderungen des AI Act erfüllen?

Mauer: Viele Unternehmen fühlen sich von den Anforderungen des AI Act überfordert, vor allem wenn sie nicht über internes Know-how verfügen. Hier setzen wir mit unserem Beratungsangebot an.
Unser Ansatz umfasst folgende Schritte:
1. KI-Screening: Wir analysieren, wie und wo KI im Unternehmen eingesetzt werden kann oder bereits genutzt wird.
2. Bedarfsanalyse: Welche Anforderungen stellt der AI Act konkret an das Unternehmen?
3. Strategieentwicklung: Wir helfen, eine KI-Strategie und Richtlinien zu entwickeln, die sowohl gesetzeskonform als auch praxistauglich sind.
4. Schulungen: Wir bieten Workshops und Trainings an, um Mitarbeitende auf die Anforderungen vorzubereiten.

Ein Beispiel: Ein mittelständisches Unternehmen aus der Bankenweltbranche stand vor der Herausforderung, KI in der Wissensdarstellung einzusetzen, ohne gegen Datenschutzvorgaben zu verstoßen. Gemeinsam haben wir eine KI-Richtlinie entwickelt, die den Anforderungen des AI Act entspricht und Mitarbeitende geschult. Das Ergebnis: effizientere Prozesse und mehr Sicherheit im Umgang mit Daten.

M&L-Richtlinie: Sie ist fester Bestandteil der wertebasierten "AI Empowerment Strategie" der M&L AG

Portraitfoto Matthias Mauer M&L AG

Matthias Mauer

ist Gründer und Vorstand der M&L AG aus Frankfurt am Main. Er unterstützt Unternehmen dabei, ihre KI-Richtlinie zu erstellen.