This article is also available in English
KI ist als neue Basistechnologie analog zu Elektrizität, Internet und Dampfmaschine zu sehen. Foundation Models – die technologische Basis für ChatGPT, Claude und andere KI-Systeme – werden zur unverzichtbaren Infrastruktur für Geschäftsprozesse und Innovation. Diese Modelle werden oft noch Large Language Models genannt – ihre Vielseitigkeit und die nicht zu beziffernde Zahl an Use Cases machen sie zur Allzwecktechnologie unserer Zeit. Doch Europa steht vor einer bemerkenswerten Wahl: Entweder nutzen wir chinesische Modelle, die keine Fragen zum Tiananmen-Platz beantworten, oder wir verlassen uns auf US-amerikanische Modelle, die jederzeit zum geopolitischen Druckmittel werden können.
Foundation Models als neue Basistechnologie
Foundation Models sind vortrainierte KI-Modelle, die als Fundament für spezialisierte Anwendungen dienen. Sie verarbeiten nicht nur Text, sondern auch Bild, Audio und Video. Das Prinzip, auf dem sie beruhen (die Transformer-Architektur), kommt auch gut mit Molekülstrukturen zurecht. Das zeigt uns die Bandbreite.
Die Dimensionen der europäischen Abhängigkeit sind ernüchternd. Während das US-Projekt «Stargate» 500 Milliarden Dollar mobilisiert, wirken Europas Bemühungen bescheiden: Die EU hat ihre Investitionen zwar auf 200 Milliarden Euro hochgeschraubt – mit 20 Milliarden für «KI-Gigafactories» –, doch diese Summen verblassen gegen die Realität. Meta trainiert Llama 4 auf über 100.000 H100-GPUs, eine Rechenpower, die in Europa schlicht nicht verfügbar ist. Der Grund: Europa hat bis heute keinen eigenen Hyperscaler hervorgebracht. Diese Versäumnisse der Vergangenheit rächen sich jetzt bitter.
Die chinesische Alternative: Leistung mit politischem Filter
DeepSeek demonstrierte mit seinem R1-Modell, dass Frontier-Modelle nicht zwangsläufig auf gigantischen Datenbergen trainiert werden müssen. Mit etwa 6 Millionen Dollar erreichte das Vorgängermodell V3 Spitzenleistungen – ein Bruchteil westlicher Investitionen. Die Innovation liegt in der Kombination von Reinforcement Learning mit Test-Time-Compute. Beim Reinforcement Learning lernt die KI durch Belohnung und Bestrafung – sie erhält automatisiertes Feedback für richtige und falsche Antworten, ohne dass Menschen jeden Schritt korrigieren müssen. Konkret wurde dem Modell beigebracht, vor der finalen Antwort erst einen «Denkprozess» zu durchlaufen und diesen auch auszugeben. Test-Time-Compute bedeutet: Statt alle Intelligenz vorab ins Training zu stecken, «denkt» das Modell bei komplexen Fragen länger nach – wie ein Mensch, der sich für schwierige Probleme mehr Zeit nimmt (und darüber redet). Diese Architektur verschiebt Rechenarbeit geschickt vom teuren Pre-Training in die günstigere Antwortphase (die Inferenz).
Im Juli 2025 landete dann ein zweiter Wal: Kimi v2. Das mit einer Trillion (1T) Parametern größte, bisher bekannte, semi-offene Modell – ohne Reasoning, wohlgemerkt. Dafür mit extrem ausgeprägten agentischen Fähigkeiten.
Alibabas Qwen-Familie geht noch weiter: Qwen3 ist zwar selbst nicht multimodal, aber Alibaba bietet mit Qwen2.5-VL (Vision-Language), Qwen2-Audio und Qwen2.5-Omni hochentwickelte multimodale Modelle. Qwen3 selbst brilliert als erstes chinesisches «Hybrid-Reasoning-Modell», das zwischen schnellen Antworten und tieferem Nachdenken wechseln kann. Qwen legte im Juli mit einer weiteren Coding-fokussierten Modellfamilie nach: Qwen3-Coder, das absolut konkurrenzfähig ist. Ebenso legten zahlreiche weitere chinesische Labs Modelle mit extrem hoher agentischer Performance vor (Z.ai mit GLM 4.5 bspw.). Doch der Preis zeigt sich in der Praxis: Fragen Sie nach dem 4. Juni 1989 in Peking, erhalten Sie Schweigen. Diese eingebaute Zensur ist kein Bug, sondern ein Feature.
Das amerikanische Dilemma: Scheinbare Offenheit
Metas Llama 4 illustriert das Problem perfekt. Als «Open» beworben, schließt die Lizenz EU-Nutzer:innen explizit aus – angeblich wegen regulatorischer Hürden durch DSGVO und EU AI Act. Die Begründung verschleiert Metas eigentliche Botschaft: Europas Datenschutzstandards machen uns zu digitalen Bürger:innen zweiter Klasse.
Erschwerend kommt der Benchmark-Skandal hinzu: Meta verwendete für die bekannten Leaderboards eine speziell optimierte Version von Llama 4, die öffentlich nicht verfügbar ist. Diese Praxis untergräbt das Vertrauen in amerikanische «Offenheit» zusätzlich. Aber seien wir ehrlich: Meta hat in dieser Hinsicht ohnehin keinen guten Ruf.
Unter der Trump-Administration verschärft sich die Lage. KI-Technologie wird zur Verhandlungsmasse, Exportkontrollen für KI-Chips zum politischen Druckmittel. Der Geschäftsmann im Weißen Haus versteht Leverage – und Europas Abhängigkeit bietet reichlich davon.
Im August dann der Paukenschlag: OpenAI veröffentlichte eine semi-offene Reasoning-Modell-Familie in zwei Größenklassen (20B und 120B). Auf dem Niveau ihres geschlossenen o4-mini. Die große Variante kann auf auf einer Nvidia H100 GPU laufen, mit einer zügigen Inferenzgeschwindigkeit. Dazu kommt eine Apache 2.0 Lizenz. Man könnte also sagen: Das ist der heilige Gral für Europas Unternehmen! Und tatsächlich gibt es wenig dagegen zu sagen. Die Entwicklung von semi-offenen Modellen ist sogar in «America’s AI Action Plan» von der US-Administration explizit gewünscht. Man fragt sich allerdings, wo der Haken ist.
Europas Optionen: Zwischen Pragmatismus und Vision
Das kleine, gallische Dorf Mistral zeigt, was hier möglich ist – und wo die Grenzen liegen. Das französische Unternehmen bietet spezialisierte Lösungen wie Document AI für Dokumentenauswertung (ein wichtiger Use Case in einem Kontinent mit heterogenem Digitalisierungsstand) und Devstral für Softwareentwicklung. Ihre Allzweckmodelle Small 3 und Medium 3 erreichen bei einigen Aufgaben GPT-4-Niveau. Doch bei multimodalen Frontier-Modellen und Reasoning-Fähigkeiten fehlt der Anschluss. Mistral hat zwar Anfang Juni 2025 mit dem Modell Magistral ein Reasoning-Modell in zwei Größen vorgelegt. Multimodalität findet man hier aber noch nicht – im Gegensatz zu OpenAI, Anthropic und Google. Zudem scheint Magistral immer noch kein State of the Art zu sein. Ärgerlich darüber hinaus: Die Verträge zur Auftragsdatenverarbeitung der Mistral Cloud schließen den Weg über die USA nicht restlos aus.
Die Effizienz-Revolution von DeepSeek zeigt jedoch: Es geht nicht nur um das Training auf gigantischen Datenbergen mit teils ungeklärtem Verwendungszweck. DeepSeeks R-Zero-Experiment – ein Modell, das ausschließlich durch Reinforcement Learning trainiert wurde – war als Laborvorstufe nicht praxistauglich, weist aber den Weg zu effizienteren Entwicklungspfaden. Das finale R1 kombiniert clevere Architekturen mit innovativen Trainingsmethoden.