Gesetzgebung

Debatte: Wie viel Kontrolle brauchen Robotik-Hersteller?

Auch bei Robotik ist Europa stärker reguliert als die USA oder China. Svenja Hahn, Europaabgeordnete der FDP, sagt, die Politik solle ethische Leitplanken setzen. Der EU-Parlamentarier Axel Voss (CDU) findet hingegen, Robotik-Hersteller sollten den Freiraum bekommen, praxistaugliche Standards zu entwickeln.

Ein Foto, auf dem ein humanoider Roboter zu sehen ist, der als Symbol für Robotik-Hersteller steht

17.06.2025

Svenja Hahn: „Wende hin zur Innovationsoffenheit“

Die EU-Abgeordnete Svenja Hahn (FDP) plädiert für mehr Innovationsoffenheit für Robotik-Hersteller und erklärt, warum es keiner neuen Gesetze bedarf, um Bürgerinnen und Bürger vor Sicherheitsmängeln, Datenlecks oder Produkthaftung im Bereich Robotik zu schützen.

DUP UNTERNEHMER-Magazin: Die USA und China konstruieren Robotertechnologie weitgehend unreguliert, in Europa gilt der EU AI Act auch für Robotik-Hersteller, sofern ihre Produkte auf Künstliche Intelligenz setzen. Zudem hemmt der Datenschutz den Austausch von Daten. Welche regulatorischen Impulse aus Brüssel sind jetzt nötig, damit Innovationen in der Robotik aus Europa und Deutschland im globalen Wettbewerb nicht ins Hintertreffen geraten?

Svenja Hahn: Nachdem sich die EU in den letzten fünf Jahren im Bereich KI leider vor allem durch Regulierung ausgezeichnet hat, ist die Kommission nun endlich aufgewacht. Diese Wende hin zur Innovationsoffenheit war längst überfällig. Allerdings wünsche ich mir bei den bisher von der EU-Kommission vorgestellten Maßnahmen zur Vereinfachung der Gesetzeslage noch deutlich mehr Ambitionen. Wir brauchen zudem Vereinfachungsvorschläge für die umfassenden Digital-, Daten- und Cybersicherheitsgesetze, auch die Streichung von Regeln ist geboten, das darf kein Tabu bleiben. Denn die EU und ihre innovativen Unternehmen stecken voller Potenzial. Gute Politik muss ihnen Hindernisse aus dem Weg räumen, statt neue aufzustellen.

Gibt es konkrete legislative Vorhaben im Parlament oder in der Kommission, die Unternehmen beim Einsatz von Robotik in Zukunft stärker betreffen werden – etwa im Bereich Haftung, Datenschutz oder Sicherheitsstandards?

Hahn: Die EU-Kommission hat angekündigt, den Vorschlag für eine KI-Haftungsrichtlinie zurückzuziehen. Das unterstütze ich in meiner täglichen Arbeit gegenüber all jenen Europapolitikern, die versuchen, diese Entscheidung umzukehren. Denn diese Richtlinie wäre nicht nur Quelle massiver Rechtsunsicherheit für Unternehmen, sie ist auch schlichtweg überflüssig geworden. Mit der neuen EU-Produkthaftungsrichtlinie, dem AI Act und den nationalen Haftungsregimen besteht bereits ein umfassender Schutzanspruch für Bürgerinnen und Bürger. Beim Datenschutz kündigen sich vorsichtige Reformen an. Hier gilt es insbesondere, kleine und mittlere Unternehmen von Bürokratie ohne erkennbaren Mehrwert zu entlasten. Der hohe Schutz personenbezogener Daten in Europa ist eine Errungenschaft. Allerdings muss auch die legitime Nutzung vorhandener Daten, ganz besonders in der Industrie, massiv erleichtert und verbessert werden. Mit dem AI Continent Action Plan hat die EU-Kommission jüngst eine neue Offensive gestartet, um endlich von der Regulierung in die Förderung von KI-Entwicklung und -Anwendung zu kommen. Damit soll neben der Förderung von Hochleistungscomputer-In­frastruktur vor allem auch der Zugang zu Daten gefördert werden.

Auch die Streichung von Regeln darf kein Tabu sein.

Wenn Roboter menschenähnlich auftreten, Entscheidungen beeinflussen oder Menschen emotional abhängig machen könnten – etwa in der Pflege –, stellt sich die Frage nach ethischen Leitplanken. Wer soll diese Ihrer Meinung nach definieren – die Politik, die Industrie oder ein unabhängiger Ethikrat?

Hahn: Es ist Aufgabe von Politik, gesetzliche Rahmenbedingungen zu definieren. Diese Aufgabe können wir nicht auslagern. Allerdings ist es unabdingbar, dass wir als Gesetzgeber bei unseren Entscheidungen mit allen relevanten Akteuren in engem Austausch sind. Dazu gehört die Wirtschaft genauso wie Verbraucherschützer, Zivilgesellschaft und wissenschaftliche Experten. Gremien wie Ethikräte sind wichtige Berater in so schwierigen und hochsensiblen Fragen. Derartige Expertengruppen waren beispielsweise vor Beginn der Verhandlungen zum AI Act mit ethischen Fragen rund um KI und ihre Regulierung betraut. Ihre Empfehlungen wurden von uns als Gesetzgeber in die Erarbeitung der Verordnung aufgenommen. Die Umsetzung des Gesetzes wird ebenfalls durch Experten begleitet.

China drängt bei Robotik mit erheblicher Unterstützung des Staats auf den Weltmarkt. Wo sehen Sie Möglichkeiten, wie die Politik in der EU jetzt die Rahmenbedingungen für die heimische Robotik-Hersteller verbessern kann?

Hahn: Wir brauchen in Deutschland und Europa dringend einen Mindset-Wechsel – weg von angstgetriebener Regulierung, hin zu Innovationsfreude und Offenheit für technischen Fortschritt. Wenn wir den Anschluss an die Weltspitze nicht vollends verlieren wollen, dann brauchen wir mindestens drei Dinge: Niedrigere Energiepreise, niedrigere Steuern und Abgaben sowie weniger und schlankere Regulierung. Diese besseren Standortbedingungen sind der Schlüssel für eine wettbewerbsfähige Industrie. EU und nationale Regierungen können mit guter Infrastruktur und innovationsfreundlichen Gesetzen unterstützen. Zudem müssen wir in Europa endlich die Kapitalmarktunion schaffen, damit Innovation auch von mehr privatem Kapital finanziert werden kann. Ich halte jedoch nichts von Leitmärkten oder Gesetzen, die zum Kauf europäischer Produkte verpflichten. Fairer Wettbewerb und exzellente Standortbedingungen müssen unser Ziel sein, Protektionismus und staatliche Planwirtschaft werden jedoch immer in die Sackgasse führen.

Axel Voss: „Bei ethischen Leitplanken braucht es die Führung der Politik“

Der Europaabgeordnete Axel Voss (CDU) sieht wichtige Rechtsfragen für Robotik-Hersteller noch ungelöst. Er fordert, die EU müsse zum Schutz der Bürgerinnen und Bürger für Klarheit sorgen.

DUP UNTERNEHMER-Magazin: Sie fordern „europäische digitale Souveränität“. Wie realistisch ist dieser Anspruch, wenn europäische Robotiksysteme sich zunehmend gegenüber lax regulierten chinesischen Plattformen behaupten müssen?

Axel Voss: Digitale Souveränität ist kein kurzfristiges Ziel, sondern ein strategischer Anspruch, den Europa aus eigenem Interesse verfolgen muss. Natürlich stehen wir im globalen Wettbewerb – ins­besondere mit Ländern wie China, die mit anderen Maßstäben an Regulierung und Datenschutz herangehen. Aber genau deshalb ist es umso wichtiger, dass Europa technologische Unabhängigkeit anstrebt und gleichzeitig seine Werte wahrt. Wir müssen ein innovationsfreundliches, aber verantwortungsvolles Umfeld schaffen. Das gelingt nur, wenn wir gezielt in Schlüsseltechnologien investieren, Standards setzen und Bürokratie dort abbauen, wo sie nichts nützt.

Robotik, bei der Künstliche Intelligenz zum Einsatz kommt, wird in der EU über den AI Act reguliert. Ist das aus Ihrer Sicht sinnvoll beziehungsweise ausreichend? Schließlich können beispielsweise humanoide Roboter in der Pflege sehr enge Kontakte zu Menschen aufbauen, was eine emotionale Abhängigkeit zur Folge haben könnte.

Voss: Der AI Act ist ein entscheidender Schritt in die richtige Richtung. Gleichzeitig brauchen wir flexible Regulierung, die mit neuen Entwicklungen umgehen kann. Hier könnte der AI Act eher bremsend wirken, wenn man alle Möglichkeiten bereits vorwegnimmt. 

Bei Hochrisikoanwendungen, die schwere Schäden an Personen auslösen können, sollten meines Erachtens die Betreiber haften.

Wer sollte Ihrer Meinung nach ethische Leitplanken für Roboter und Robotik-Hersteller definieren – ist das Aufgabe der Politik, der Industrie oder eines unabhängigen Ethikrats?

Voss: Ich finde, wir sollten in vielen Bereichen der Industrie den Freiraum lassen, Standards zu entwickeln, die in der Praxis funktionieren. Die Definition ethischer Leitplanken kann allerdings nicht allein einer Instanz überlassen werden. Hier braucht es die Führung durch Politik im Einklang mit gesellschaftlichen Debatten.

Die Haftungsfrage ist ungelöst: Wenn ein Roboter einen Fehler macht, trifft die Verantwortung dann den Entwickler, den Betreiber oder die KI selbst? Warum kommt die EU in dieser zentralen Frage nicht voran, und wie sollte die Haftung Ihrer Auffassung nach geregelt werden?

Voss: Die KI-Haftungsrichtlinie ist unter dem Deckmantel des Bürokratieabbaus begraben. Allerdings bleiben hier wichtige Rechtsfragen ungelöst. Bei Hochrisikoanwendungen, also jenen, die schwere Schäden an Personen auslösen können, sollten meines Erachtens die Betreiber haften. Die EU muss dafür sorgen, dass wir hier Klarheit haben, damit der Schutz der Bürger nicht woanders definiert wird.