Illustration von Mann mit Computer als Kopf als Symbolbild für Künstliche Intelligenz am Arbeitsplatz
27.02.2024    Kathy Günther
  • Drucken

Als Unternehmerin und Vizepräsidentin der IHK München und Oberbayern weiß Professorin Dagmar Schuller, was die KI-Branche in Deutschland bräuchte, um international mithalten zu können. Denn in der Grundlagenforschung etwa ist Deutschland außerordentlich stark. Doch Schuller sagt auch, dass die Regulierung in der Europäischen Union (EU) Künstliche Intelligenz unnötig ausbremst.

Zur Person

Prof. Dagmar Schuller ist Gründerin von audEERING

Prof. Dagmar Schuller

Die gebürtige
Österreicherin ist CEO und Mitgründerin von audEERING. Das Unternehmen entwickelt KI-basierte Audioanalysen der menschlichen Stimme, etwa für die Autoindustrie oder die Gesundheits-wirtschaft

DUP UNTERNEHMER-Magazin: Die KI-Branche wird von den USA und China dominiert. Haben wir noch die Chance aufzuschließen?

Professorin Dagmar Schuller: Eine Chance besteht immer. Denn unsere Grundlagenforschung im Bereich Künstliche Intelligenz ist außerordentlich gut. Wir sind auch stark darin, von der Grundlagenforschung zu einem Produkt zu kommen. Doch in der Wachstumsphase finden Unternehmen schwer Geldgeber. Bei Finanzierungsrunden von 20 bis 60 Millionen Euro sind Investoren hierzulande allerdings eher risikoavers. Insgesamt fehlt uns das Think Big und eine gemeinsame Euphorie für skalierbare Lösungen.

Die Regulierung durch den EU AI Act will Innovationen und Investitionen in Europa ausdrücklich fördern. Ist das gelungen?

Schuller: Ich sehe keine unmittelbare Förderung von Innovationen durch den EU AI Act. Vielmehr werden gerade in den sehr innovationsstarken KI-Bereichen große Unsicherheiten ausgelöst. Viele Definitionen sind sehr breit, es fehlt an einer eindeutigen, mehr prozessorientierten Struktur. Auch die Dynamik, die es für Innovationen braucht, ist nicht abgebildet. Ebenso fehlt eine klare Umsetzungsstrategie, Kennzahlen und Benchmarking-Standards sind diffus. Insbesondere in den Hochrisikoklassen und bei verbotenen Kategorien von Künstlicher Intelligenz generiert die Regelung mehr Unsicherheit als dass sie Orientierung schafft. Das trifft insbesondere kleinere und mittelständische Unternehmen, die nicht über große juristische und administrative Abteilungen verfügen.

Ist die Einteilung von KI in Risikoklassen zielführend?

Schuller: Meiner Meinung nach ist die Risikosystematik zu starr und breit gefasst. Die Verordnung betrachtet weniger das tatsächliche Risiko, das meist mit einem gewissen Automatisierungsgrad, einer Reichweite und einem entsprechenden Entscheidungsprozess einhergeht, als einen generellen Bereich. Dabei sind viele „Hochrisiko“-Systeme, etwa im Gesundheitswesen, bereits sehr stark reguliert. Sie bekommen hierdurch eine weitere Komplexität. Durch die breite Streuung der Klassen ist es auch nicht immer eindeutig, in welchem Bereich man sich befindet. Zudem ist nicht klar, inwieweit die Anforderungen unterschiedlicher Risikobereiche eventuell transferiert werden, wenn man zum Beispiel eigene Modelle mit anderen Herstellermodellen verknüpft.

Sie entwickeln mit Ihrem Unternehmen KI-Lösungen, die Emotionen von Arbeitnehmenden anhand der Stimme erkennen, um deren Wohlbefinden zu steigern. Emotionserkennung am Arbeitsplatz will der EU AI Act nun verbieten. Was heißt das für Sie?

Schuller: Grundsätzlich gilt, dass die Maschine nicht das „Gewissen“ eines Menschen erkennt, sondern sie ist darauf trainiert, die Emotion so zu erkennen, wie ein anderer Mensch sie auch erkennen würde. Spannend ist, wie die tatsächliche Umsetzung der Regulierung erfolgt, insbesondere welche Standards, Kennzahlen und Benchmarks sich jetzt entwickeln. Bei der Definition im EU AI Act ging es offenbar darum, insbesondere mögliche negative Scorings, wie sie andere Staaten durchführen, zu vermeiden. Unsere Technologie kann anonymisiert eingesetzt werden. Allerdings ist es aktuell nicht möglich, sie personalisiert zur Prävention von Stress und anderen negativen Faktoren am Arbeitsplatz zu nutzen. Bei alldem darf man aber nicht vergessen: Das größte Sicherheitsrisiko ist nicht die Maschine, sondern der Mensch, der sie einsetzt.

27.02.2024    Kathy Günther
  • Drucken
Zur Startseite