KI made in Europe

Europa steht im Wettlauf um Künstliche Intelligenz vor besonderen Herausforderungen. Die Mathematikerin und Informatikerin Professorin Gitta Kutyniok, Direktorin der Konrad Zuse School of Excellence in Reliable AI (relAI), erklärt, warum Europa auf spezialisierte, effiziente und transparente KI setzen sollte – und welche Rolle Open-Source-Modelle dabei spielen.
Frau Professorin Kutyniok, kürzlich rüttelte die Veröffentlichung des chinesischen Sprachmodells DeepSeek die KI-Branche auf. Es zeigt, dass leistungsfähige KI-Modelle auch mit geringen Ressourcen trainiert werden können. Welche Lehren sollte die europäische KI-Forschung daraus ziehen?
Europa sollte sich auf effiziente, spezialisierte und nachhaltige KI-Modelle konzentrieren. Ein zentraler Fokus sollte auf hochwertigen Trainingsdaten liegen, da diese die Grundlage für leistungsfähige und transparente KI bilden. Zudem sind Open-Source-Ansätze entscheidend, um technologische Unabhängigkeit zu gewährleisten und die Zusammenarbeit innerhalb Europas zu stärken.
Wäre es denn nicht wichtig, jetzt mit den Top-Playern USA und China mitzuziehen?
Zumindest im Augenblick kann Europa mit den größten Modellen aus den USA und China nicht mithalten. Aber wir sollten uns nach DeepSeek ohnehin grundsätzlich überlegen, ob es eine gute Strategie ist, weiterhin massiv in die Breite zu investieren oder ob es nicht viel sinnvoller ist, sich auf Nischenbereiche zu fokussieren. Diesen Weg sehe ich für Europa. Wir sollten auf smarte KI-Forschung setzen: hochwertige Trainingsdaten, effiziente Modelle, spezialisierte Soft- und Hardware sowie Open-Source-Ansätze. Dadurch können wir Ressourcen besser nutzen und technologische Unabhängigkeit stärken. Und wir sollten einen weiteren Vorteil weiter ausbauen: unseren Pool an exzellenten Forscherinnen und Forschern. Ein sehr gutes Beispiel sind die Konrad Zuse Schools of Excellence in Artificial Intelligence. Ihr erklärtes Ziel ist es ja, die weltbesten KI-Talente nach Deutschland zu holen – und das funktioniert bereits hervorragend.
Die USA und China regulieren KI kaum, um Innovationen noch schneller voranzutreiben. Hat sich Europa mit dem AI-Act selbst Steine in den Weg gelegt?
Man kann es sicher so sehen, dass wir etwas zu früh dran waren mit der Einhegung einer Entwicklung, von der man ja noch nicht weiß, wohin sie eigentlich geht. Regulierung sollte definitiv so gestaltet sein, dass sie Innovation nicht behindert. Aber gleichzeitig bietet sie auch enorme Chancen. Wenn sich zeigt, dass Künstliche Intelligenz nur dann wirklich effizient genutzt werden kann, wenn sie auch vertrauenswürdig ist, kann sie nämlich auch zum wertvollen Asset werden. Und genau hier liegt unsere Stärke. Vielleicht können wir hier sogar anknüpfen an das lange so erfolgreiche Label „Made in Germany“: „AI made in Europe“.
Die KI-Entwicklung in den USA und China spiegelt geopolitische Spannungen wider. Wie sollte Europa darauf reagieren?
Europa sollte als starker dritter Akteur agieren und sich nicht abhängen lassen. Zudem könnte Europa eine wichtige Vermittlerrolle zwischen den USA, China und anderen Regionen übernehmen, um den globalen Dialog und eine ausgewogene KI-Entwicklung zu fördern. Technologische Souveränität ist hierfür aber eine zentrale Grundvoraussetzung. Regulierung wird auch weltweit in der Zukunft eine wichtigere Rolle spielen, somit könnte hier Europa als Vorbild auftreten.
Open-Source-Modelle bieten viele Vorteile, aber gibt es auch Risiken?
Ja, ein Risiko ist der Missbrauch, da Open-Source-Modelle für jeden zugänglich sind. Eine weitere Herausforderung ist die Anpassung dieser Modelle an den EU AI Act, da die Einhaltung regulatorischer Vorgaben komplex ist und klare Mechanismen zur Qualitäts- und Sicherheitskontrolle erfordert. Es muss sichergestellt werden, dass Open-Source-Modelle europäischen Regularien entsprechen und kein Wettbewerbsnachteil für europäische Unternehmen entsteht. Ein Lösungsansatz könnte eine Zertifizierung von Open-Source-KI sein, die Transparenz schafft und gleichzeitig die Innovationskraft stärkt.
In Italien wurde DeepSeek wegen Datenschutzbedenken blockiert. Welche Herausforderungen entstehen für europäische Modelle?
Ein Problem außereuropäischer KI-Modelle ist die fehlende Transparenz bei Trainingsdaten und deren Verwendung. Es ist oft unklar, ob europäische Nutzerdaten nach außen getragen werden, was gegen die DSGVO verstoßen würde. Eine Lösung wäre ein internationales Datenschutzabkommen für KI. Zudem muss Europa eigene Modelle entwickeln, um nicht abhängig von Drittanbietern zu sein.
DeepSeek kann lokal auf Laptops laufen und bietet somit mehr Datenschutz. Ist das ein Gamechanger für Hochschulen und den Bildungsbereich?
Absolut. KI-Modelle, die lokal laufen, ermöglichen personalisierte Lehre, geringere Kosten und eine bessere Anpassung an europäische Sprachen. Besonders für Universitäten und Forschungseinrichtungen ist das eine enorme Chance, da Open-Source-Modelle Transparenz und Flexibilität bieten. Das europäische Unternehmen Mistral ist beispielsweise auch deshalb so erfolgreich, weil es eines der aktuell besten Modelle bietet, die lokal auf den Rechnern der Anwenderinnen und Anwender laufen – und zu deren Kundinnen und Kunden auch viele aus den USA zählen.
Interview: Juliana Dümler, Klaus Lüber (8. April 2025)