Als Unternehmerin und Vizepräsidentin der IHK München und Oberbayern weiß Professorin Dagmar Schuller, was die KI-Branche in Deutschland bräuchte, um international mithalten zu können. Denn in der Grundlagenforschung etwa ist Deutschland außerordentlich stark. Doch Schuller sagt auch, dass die Regulierung in der Europäischen Union (EU) Künstliche Intelligenz unnötig ausbremst.
Regulierung
Künstliche Intelligenz – „Uns fehlt das Think Big“
Professorin Dagmar Schuller ist seit mehr als 20 Jahren im Bereich Künstliche Intelligenz (KI) tätig. Sie erklärt, warum die geplante EU-Regulierung Mittelständler benachteiligt und was Deutschland im globalen Wettbewerb stärken könnte.

27.02.2024

Prof. Dagmar Schuller
Die gebürtige Österreicherin ist CEO und Mitgründerin von audEERING. Das Unternehmen entwickelt KI-basierte Audioanalysen der menschlichen Stimme, etwa für die Autoindustrie oder die Gesundheits-wirtschaft
DUP UNTERNEHMER-Magazin: Die KI-Branche wird von den USA und China dominiert. Haben wir noch die Chance aufzuschließen?
Professorin Dagmar Schuller: Eine Chance besteht immer. Denn unsere Grundlagenforschung im Bereich Künstliche Intelligenz ist außerordentlich gut. Wir sind auch stark darin, von der Grundlagenforschung zu einem Produkt zu kommen. Doch in der Wachstumsphase finden Unternehmen schwer Geldgeber. Bei Finanzierungsrunden von 20 bis 60 Millionen Euro sind Investoren hierzulande allerdings eher risikoavers. Insgesamt fehlt uns das Think Big und eine gemeinsame Euphorie für skalierbare Lösungen.
Die Regulierung durch den EU AI Act will Innovationen und Investitionen in Europa ausdrücklich fördern. Ist das gelungen?
Schuller: Ich sehe keine unmittelbare Förderung von Innovationen durch den EU AI Act. Vielmehr werden gerade in den sehr innovationsstarken KI-Bereichen große Unsicherheiten ausgelöst. Viele Definitionen sind sehr breit, es fehlt an einer eindeutigen, mehr prozessorientierten Struktur. Auch die Dynamik, die es für Innovationen braucht, ist nicht abgebildet. Ebenso fehlt eine klare Umsetzungsstrategie, Kennzahlen und Benchmarking-Standards sind diffus. Insbesondere in den Hochrisikoklassen und bei verbotenen Kategorien von Künstlicher Intelligenz generiert die Regelung mehr Unsicherheit als dass sie Orientierung schafft. Das trifft insbesondere kleinere und mittelständische Unternehmen, die nicht über große juristische und administrative Abteilungen verfügen.
Ist die Einteilung von KI in Risikoklassen zielführend?
Schuller: Meiner Meinung nach ist die Risikosystematik zu starr und breit gefasst. Die Verordnung betrachtet weniger das tatsächliche Risiko, das meist mit einem gewissen Automatisierungsgrad, einer Reichweite und einem entsprechenden Entscheidungsprozess einhergeht, als einen generellen Bereich. Dabei sind viele „Hochrisiko“-Systeme, etwa im Gesundheitswesen, bereits sehr stark reguliert. Sie bekommen hierdurch eine weitere Komplexität. Durch die breite Streuung der Klassen ist es auch nicht immer eindeutig, in welchem Bereich man sich befindet. Zudem ist nicht klar, inwieweit die Anforderungen unterschiedlicher Risikobereiche eventuell transferiert werden, wenn man zum Beispiel eigene Modelle mit anderen Herstellermodellen verknüpft.
Sie entwickeln mit Ihrem Unternehmen KI-Lösungen, die Emotionen von Arbeitnehmenden anhand der Stimme erkennen, um deren Wohlbefinden zu steigern. Emotionserkennung am Arbeitsplatz will der EU AI Act nun verbieten. Was heißt das für Sie?
Schuller: Grundsätzlich gilt, dass die Maschine nicht das „Gewissen“ eines Menschen erkennt, sondern sie ist darauf trainiert, die Emotion so zu erkennen, wie ein anderer Mensch sie auch erkennen würde. Spannend ist, wie die tatsächliche Umsetzung der Regulierung erfolgt, insbesondere welche Standards, Kennzahlen und Benchmarks sich jetzt entwickeln. Bei der Definition im EU AI Act ging es offenbar darum, insbesondere mögliche negative Scorings, wie sie andere Staaten durchführen, zu vermeiden. Unsere Technologie kann anonymisiert eingesetzt werden. Allerdings ist es aktuell nicht möglich, sie personalisiert zur Prävention von Stress und anderen negativen Faktoren am Arbeitsplatz zu nutzen. Bei alldem darf man aber nicht vergessen: Das größte Sicherheitsrisiko ist nicht die Maschine, sondern der Mensch, der sie einsetzt.
Das könnte Sie auch interessieren
DUP Magazin Newsfeed
Fonds: Wenn die KI hilft
12/3/2025
Acatis setzt für die Portfoliosteuerung auch Künstliche Intelligenz ein. Fondsexperte Kevin Endler erklärt, welche Aufgaben die Software dabei erfüllt.
finanzen
investieren
DUP Magazin Newsfeed
KPMG CEO Outlook 2025: Unternehmenslenker setzen auf Künstliche Intelligenz, Resilienz und nachhaltige Transformation
11/18/2025
Deutsche Unternehmen setzen verstärkt auf Künstliche Intelligenz, Resilienz und Nachhaltigkeit, um in unsicheren Zeiten stabil zu bleiben. KI gilt als zentrale Investitionspriorität mit klaren Zielen wie Prozessoptimierung und datengetriebener Entscheidungsfindung. Gleichzeitig rücken nachhaltige Werte und Risikomanagement in den Fokus für langfristigen Erfolg.
management
strategie
DUP Magazin Newsfeed
Wie KI im SAP-System wirkt
11/3/2025
Künstliche Intelligenz ist in aller Munde – der Mittelstand will aber Taten sehen. Sascha Göpfert vom SAP-Partner Valantic zeigt, wie Unternehmen KI heute schon produktiv einsetzen. Nicht als Spielwiese für Pilotprojekte, sondern als Werkzeug für konkrete Effizienzgewinne.
big-data
technologie
DUP Magazin Newsfeed
Das Samsung Galaxy Z Fold7: Das Werkzeug für Erfolg
10/23/2025
Wer heute ein Unternehmen führt, braucht mehr als ein Smartphone. Gefragt sind mobile Assistenten, die mitdenken. Das neue Samsung Galaxy Z Fold7 Enterprise Edition liefert genau das: Künstliche Intelligenz, robustes Design und ein faltbares Großdisplay – optimiert für Führungskräfte, Entscheiderinnen und Entscheider sowie Business-Profis im Mittelstand.
technologie