Als Unternehmerin und Vizepräsidentin der IHK München und Oberbayern weiß Professorin Dagmar Schuller, was die KI-Branche in Deutschland bräuchte, um international mithalten zu können. Denn in der Grundlagenforschung etwa ist Deutschland außerordentlich stark. Doch Schuller sagt auch, dass die Regulierung in der Europäischen Union (EU) Künstliche Intelligenz unnötig ausbremst.
Regulierung
Künstliche Intelligenz – „Uns fehlt das Think Big“
Professorin Dagmar Schuller ist seit mehr als 20 Jahren im Bereich Künstliche Intelligenz (KI) tätig. Sie erklärt, warum die geplante EU-Regulierung Mittelständler benachteiligt und was Deutschland im globalen Wettbewerb stärken könnte.

27.02.2024

Prof. Dagmar Schuller
Die gebürtige Österreicherin ist CEO und Mitgründerin von audEERING. Das Unternehmen entwickelt KI-basierte Audioanalysen der menschlichen Stimme, etwa für die Autoindustrie oder die Gesundheits-wirtschaft
DUP UNTERNEHMER-Magazin: Die KI-Branche wird von den USA und China dominiert. Haben wir noch die Chance aufzuschließen?
Professorin Dagmar Schuller: Eine Chance besteht immer. Denn unsere Grundlagenforschung im Bereich Künstliche Intelligenz ist außerordentlich gut. Wir sind auch stark darin, von der Grundlagenforschung zu einem Produkt zu kommen. Doch in der Wachstumsphase finden Unternehmen schwer Geldgeber. Bei Finanzierungsrunden von 20 bis 60 Millionen Euro sind Investoren hierzulande allerdings eher risikoavers. Insgesamt fehlt uns das Think Big und eine gemeinsame Euphorie für skalierbare Lösungen.
Die Regulierung durch den EU AI Act will Innovationen und Investitionen in Europa ausdrücklich fördern. Ist das gelungen?
Schuller: Ich sehe keine unmittelbare Förderung von Innovationen durch den EU AI Act. Vielmehr werden gerade in den sehr innovationsstarken KI-Bereichen große Unsicherheiten ausgelöst. Viele Definitionen sind sehr breit, es fehlt an einer eindeutigen, mehr prozessorientierten Struktur. Auch die Dynamik, die es für Innovationen braucht, ist nicht abgebildet. Ebenso fehlt eine klare Umsetzungsstrategie, Kennzahlen und Benchmarking-Standards sind diffus. Insbesondere in den Hochrisikoklassen und bei verbotenen Kategorien von Künstlicher Intelligenz generiert die Regelung mehr Unsicherheit als dass sie Orientierung schafft. Das trifft insbesondere kleinere und mittelständische Unternehmen, die nicht über große juristische und administrative Abteilungen verfügen.
Ist die Einteilung von KI in Risikoklassen zielführend?
Schuller: Meiner Meinung nach ist die Risikosystematik zu starr und breit gefasst. Die Verordnung betrachtet weniger das tatsächliche Risiko, das meist mit einem gewissen Automatisierungsgrad, einer Reichweite und einem entsprechenden Entscheidungsprozess einhergeht, als einen generellen Bereich. Dabei sind viele „Hochrisiko“-Systeme, etwa im Gesundheitswesen, bereits sehr stark reguliert. Sie bekommen hierdurch eine weitere Komplexität. Durch die breite Streuung der Klassen ist es auch nicht immer eindeutig, in welchem Bereich man sich befindet. Zudem ist nicht klar, inwieweit die Anforderungen unterschiedlicher Risikobereiche eventuell transferiert werden, wenn man zum Beispiel eigene Modelle mit anderen Herstellermodellen verknüpft.
Sie entwickeln mit Ihrem Unternehmen KI-Lösungen, die Emotionen von Arbeitnehmenden anhand der Stimme erkennen, um deren Wohlbefinden zu steigern. Emotionserkennung am Arbeitsplatz will der EU AI Act nun verbieten. Was heißt das für Sie?
Schuller: Grundsätzlich gilt, dass die Maschine nicht das „Gewissen“ eines Menschen erkennt, sondern sie ist darauf trainiert, die Emotion so zu erkennen, wie ein anderer Mensch sie auch erkennen würde. Spannend ist, wie die tatsächliche Umsetzung der Regulierung erfolgt, insbesondere welche Standards, Kennzahlen und Benchmarks sich jetzt entwickeln. Bei der Definition im EU AI Act ging es offenbar darum, insbesondere mögliche negative Scorings, wie sie andere Staaten durchführen, zu vermeiden. Unsere Technologie kann anonymisiert eingesetzt werden. Allerdings ist es aktuell nicht möglich, sie personalisiert zur Prävention von Stress und anderen negativen Faktoren am Arbeitsplatz zu nutzen. Bei alldem darf man aber nicht vergessen: Das größte Sicherheitsrisiko ist nicht die Maschine, sondern der Mensch, der sie einsetzt.
Das könnte Sie auch interessieren
DUP Magazin Newsfeed
Audrey Tang über Europas digitale Zukunft
4/2/2025
big-data
technologie
DUP Magazin Newsfeed
Warum der ROI von KI-gestützter Cybersicherheit höher ist, als Unternehmen denken
3/27/2025
Mit der Weiterentwicklung KI-gestützter Cyberangriffe wird auch die Rolle der Künstlichen Intelligenz im Bereich der Cyberabwehr immer wichtiger. Für Unternehmen ist es zunehmend unerlässlich, hier zu investieren.
big-data
technologie
DUP Magazin Newsfeed
Manifest des Mittelstands
3/26/2025
Bald kommt eine neue Bundesregierung ins Amt. Was sie tun sollte, damit vor allem kleinere und mittelgroße Unternehmen eine neue Dynamik entwickeln, zeichnet Enomyc-CEO Martin Hammer in seinem Gastbeitrag auf.
management
DUP Magazin Newsfeed
KI-Kompetenz als Erfolgsfaktor: Wie Unternehmen sich fit für die Zukunft machen
3/17/2025
Mit dem EU AI Act wurde eine klare Anforderung an Unternehmen gestellt: Sie müssen sicherstellen, dass ihre Mitarbeitenden über ausreichende KI-Kompetenzen verfügen. Doch auch unabhängig von regulatorischen Vorgaben ist KI-Wissen für Unternehmen essenziell, um langfristig wettbewerbsfähig zu bleiben. Trotzdem gibt es oft Unklarheit darüber, was genau unter KI-Kompetenz zu verstehen ist und wie sie gefördert werden kann.
big-data
technologie