Deutschland spielt eine zentrale Rolle in der weltweiten KI-Strategie von AWS, berichtet Jonathan Weiss im Interview: „Wir haben hier seit vielen Jahren einen Schwerpunkt auf maschinellem Lernen und KI." Die Vorstellung, AWS entwerfe seine Produkte ausschließlich in den USA, sei längst überholt. In Berlin, Dresden, Aachen und Tübingen sitzen hierzulande Teams, die global einsetzbare KI-Produkte wie den Coding-Assistenten „Amazon Q Developer" oder die Plattform „PartyRock" mitentwickeln. „Das sind keine regionalen Projekte", betont Weiss, „sondern sie sind Teil unserer weltweiten KI-Strategie."
Die Entwicklung erfolgt dabei in enger Abstimmung mit internationalen Teams, wobei deutsche Ingenieurinnen und Entwickler oft Verantwortung für ganze Komponenten übernehmen. Der Standort Deutschland profitiert dabei nicht zuletzt vom Zugang zu exzellent ausgebildeten Fachkräften sowie einer etablierten Forschungslandschaft mit renommierten Universitäten und außeruniversitären Instituten.
Dezentral denken, schneller entwickeln
Ein Prinzip, das Amazon intern bei der Entwicklung neuer KI-Tools verfolgt, nennt sich „Two Pizza Teams". Heißt: Ein Team sollte nie größer sein als das, das man mit zwei großen Pizzen sättigen kann. Dahinter steckt eine Philosophie der Autonomie. „Wir wollen nicht vorschreiben, welche Technologie genutzt wird", erklärt Weiss. Statt Top-down-Vorgang überlässt Amazon den Teams, wie sie ein konkretes Kundenproblem lösen. Kommunikation passiert da, wo sie notwendig ist - nicht als Selbstzweck, sondern entlang konkreter Abhängigkeiten.
Das kann zu paralleler Entwicklung führen, aber auch zu größer als null", heißt eine interne Anekdote: lieber zwei unabhängige Lösungen als keine. Was funktioniert, wird später konsolidiert. Der Preis: gelegentlich doppelte Arbeit. Der Gewinn: Geschwindigkeit, Kundennähe, Flexibilität. Das Modell soll Innovation fördern, ohne sie durch zentrale Abstimmungen zu bremsen – eine Philosophie, die sich insbesondere bei schnelllebigen Technologien wie KI auszahlt.
KI als Werkzeug, nicht als Ersatz
Generative KI ist bei AWS bereits seit einigen Jahren gelebte Realität. „Wir setzen sie tief in unseren Entwicklungsprozess ein", sagt Weiss. Dabei gehe es nicht darum, Entwickler zu ersetzen, sondern sie zu unterstützen. Denn Künstliche Intelligenz schreibe Testfälle, analysiere Sicherheitsrisiken im Code oder aktualisiere veraltete Bibliotheken. „Human-in-the-loop ist bei uns noch immer Standard und wird es auch bleiben." Der Mensch behält die Kontrolle, wird aber durch intelligente Tools entlastet – insbesondere bei repetitiven Aufgaben.

Ein Beispiel: Mit dem Produkte „Q Transform" wurden im vergangenen Jahr bei Amazon weltweit Zehntausende Softwareprojekte automatisiert auf eine neue Java-Version umgestellt. Vier bis fünf Personen reichten für eine Aufgabe, die sonst in Summe 4.500 Entwicklungsjahre verschlungen hätte. Die Folge waren massive Einsparungen in puncto Serverbedarf, insgesamt waren das 260 Millionen Dollar. Ein beeindruckender Wert, selbst für ein Unternehmen der Größe von Amazon. „Solche Einsparpotenziale zeigen, wie groß der Hebel von KI sein kann, auch bei Aufgaben, die zunächst wenig spektakulär erscheinen", sagt Weiss.
Vertrauen als Voraussetzung
Doch technische Möglichkeiten allein reichen nicht. In Deutschland gelten strenge Datenschutz- und Sicherheitsstandards. Für AWS kein Hindernis, sondern eine Grundlage. "Sicherheit ist bei uns Priority Zero", so Weiss. Vor jeder Roadmap und jedem Feature-Release steht die Absicherung der Systeme. Dabei helfen Tools wie „Bedrock Guardrails", mit denen Unternehmen festlegen können, welche Ergebnisse generative KI liefern darf – und welche nicht. Das ist nicht nur eine technische, sondern auch eine ethische Frage: Welche Antworten soll ein System geben, welche Daten darf es nutzen? Für AWS ist das Regelwerk dazu kein Beiwerk, sondern zentraler Bestandteil jeder Entwicklung.
Und wo steht die KI-Entwicklung in fünf Jahren? Weiss überlegt kurz. „Das ist in unserer Branche eine sehr lange Zeit", sagt er. Klar sei nur, dass KI in immer mehr Anwendungen Einzug halte. Besonders spannend finde er die Entwicklung hin zu KI-Agenten. Während heute viele große Sprachmodelle, sogenannte Large Language Models (LLMs), über Chatbots funktionieren, würden künftig vernetzte Agenten Aufgaben eigenständig und asynchron übernehmen. Das Ziel sei es, dass diese Systeme nicht nur auf Eingaben reagieren, sondern eigenständig Aufgaben erkennen, priorisieren und abarbeiten können.
Schon heute dokumentieren bei Amazon KI veraltete Legacy-Systeme, erstellt Testszenarien, unterstützt bei Modernisierungen. Weiss erwartet, dass solche Prozesse sich ausweiten – und zugleich neue Anwendungsfälle erschließen. Auch in traditionell regulierten Branchen wie Automotive oder Health Care sieht er mittelfristig viel Potenzial. Die Amazon-Zentren in Deutschland sollen dabei weiter eine tragende Rolle spielen. KI made in Germany also? Vielleicht nicht exklusiv, aber ganz sicher ein realistisches Szenario.


