· 

JUPITER eröffnet Europas Exascale-Zeitalter

Seit dem 5. September läuft in Jülich Europas erster Exascale-Supercomputer: JUPITER. Mit dem System rückt die EU in die Topliga des Hochleistungsrechnens auf – mit unmittelbaren Folgen für KI, Klima­forschung, Biotechnologie und industrielle Innovation. Für Deutschland ist es ein Technologiesprung mit Signalwirkung weit über die Wissenschaft hinaus.

Sebastian Büttner

Was jetzt gestartet ist

Im Forschungszentrum Jülich wurde JUPITER feierlich in Betrieb genommen – Europas erster Supercomputer, der die Exascale-Schwelle erreicht (10^18 Rechen­operationen pro Sekunde). Das System ist im Juni-Ranking der TOP500 als Europas schnellste Maschine gelistet und belegt weltweit Platz vier; zugleich gilt JUPITER als energieeffizientestes System innerhalb der Top-5. 

Technisch basiert er auf der Eviden  BullSequana-XH3000-Architektur mit direkter Flüssigkühlung. Die Booster-Partition setzt auf NVIDIA-Grace-Hopper-Superchips, verbunden über NVIDIA Quantum-2-InfiniBand. Daneben wird ein CPU-Cluster mit  SiPearls Rhea 1 aufgebaut – ein Baustein europäischer Halbleiter-Souveränität, dessen Verfügbarkeit ab 2026 angekündigt ist. Politisch ist die Inbetriebnahme ein EU-Meilenstein; in Jülich sprachen Bundesregierung und Kommission von einem „historischen Pionierprojekt“.

Warum das zählt

Exascale ist mehr als ein Leistungsrekord – es verschiebt Machbarkeitsgrenzen.  In den Wissenschaften ermöglicht JUPITER feiner aufgelöste Simulationen (Energie, Klima, Materialien, Fusion, Neurowissenschaften, Quanten) und deutlich kürzere Time-to-Insight. Für die Wirtschaft entsteht eine europäische Trainings- und Simulations-Infrastruktur, um Foundation-Modelle sowie digitale Zwillinge auf Milliarden-Skalen zu rechnen – mit Datenhaltung in Europa. Das fügt sich in die EuroHPC-Strategie: Access-Calls vergeben Rechenzeit kompetitiv; parallel entstehen AI Factories als „One-Stop-Shop“ für Start-ups, Mittelstand und Forschung.

 

Für Deutschland/EU ist JUPITER zudem industriepolitisch wichtig: Er kombiniert globale GPU-Leistung mit einem europäischen CPU-Modul, beschleunigt Software-Portierungen, Kühl-/Energie-Innovationen und stärkt das Ökosystem rund um sichere, „grüne“ KI. Kurz: Europa gewinnt Rechenkraft, Souveränität und Gestaltungsspielraum bei Standards.

Wie Unternehmen Zugang bekommen

Auch Unternehmen können JUPITER nutzen. Rechenzeit wird über EuroHPC-Zugänge vergeben: Im Regular Access gibt es einen Industry Track für industrielle Vorhaben (laufend, mit Cut-off-Terminen), für außergewöhnlich große Lasten den Extreme Scale Access (nächster Stichtag 17. Oktober 2025).

 

Parallel bieten die EuroHPC AI Factories einen praxisnahen Einstieg speziell für AI-Start-ups und KMU – mit kostenfreiem Industrial Innovation Access (Playground/Fast-Lane/Large-Scale); größere Industrien können kommerziell (pay-per-use) zugreifen.

 

Der Jülicher AI-Factory-Hub fungiert dabei als „One-Stop-Shop“ und unterstützt bei Antrag, Portierung und Skalierung; das JSC bündelt die Optionen und stellt die Antragswege zentral bereit. 

Was Unternehmen jetzt tun sollten

Exascale-Rechenzeit ist kein Selbstzweck. Sie bringt nur dann messbaren Nutzen, wenn Projekte, Daten und Teams darauf vorbereitet sind. Die folgenden fünf Schritte führen Sie vom „Wir haben Zugang“ zu „Wir erzielen schneller bessere Ergebnisse“ – egal ob Sie KI-Modelle trainieren, digitale Zwillinge betreiben oder komplexe Simulationen fahren.

1. Zugang sichern – passt unser Projekt überhaupt?
Prüfen Sie, ob Ihr Vorhaben in die EuroHPC-Schienen passt: Extreme Scale Access für sehr große, skalierende Rechenbedarfe (z. B. Training großer KI-Modelle, hochauflösende Simulationen) und Industry/Regular Access für industrielle Use Cases. Typische Beispiele: umfangreiche KI-Trainings, digitale Zwillinge (Fabrik, Energienetz, Werkstoff), simulationsgetriebene Produktentwicklung. Halten Sie die Antragsfristen im Blick und klären Sie früh, welche Rechenzeitklasse Sie benötigen.

Die nächste Zuteilungsrunde für Extreme-Scale-Projekte startet ab Oktober 2025.

2. Workloads exascale-fähig machen – sonst verpufft Leistung
Exascale lohnt sich nur, wenn Ihr Code skaliert. Drei Hebel reichen oft für den Start:

  • Mixed-Precision für mehr Tempo bei gleicher Aussagekraft.

  • Verteiltes Training/Rechnen (Ihr Training/Algorithmus über viele GPUs/Nodes aufteilen – Pipeline-, Tensor- oder Daten-Parallelismus – statt alles auf wenige Karten zu quetschen).

  • I/O-Optimierung (Daten schneller in den Rechner und Ergebnisse schneller heraus: Batching, Caching, Dateiformate, Parallel-I/O).

  • Nutzen Sie die Toolchains und Profiling-Werkzeuge des JSC/EuroHPC, um Engpässe sichtbar zu machen und gezielt zu beheben.

3. Datenhaltung & Compliance planen – Skalierung ohne Reibungsverlust
Legen Sie vorab fest, wo Daten liegen (Datenresidenz), wer Zugriff hat (Rollen/Rechte), wie Sie IP schützen (Modelle, Gewichte, Code) und womit Sie Nachvollziehbarkeit sichern (Logs, Audit-Trails, Modell-Governance). Denken Sie an Exportkontrollen und Lieferketten-Auflagen, wenn Modelle, Datensätze oder Ergebnisse außerhalb der EU genutzt werden. Exascale skaliert Chancen — aber auch Risiken.

 

4.) Förderpfade kombinieren
Finanzieren Sie echte Entwicklungsanteile (neue Algorithmen, Co-Design von Software/Hardware, optimierte Numerik) über die Forschungszulage. Für größere Verbünde, Piloten und Industrialisierung eignen sich ZIM (BMWK) oder EU-Programme wie Horizon Europe / EIC. Trennen Sie im Projektplan sauber zwischen FuE-Arbeitspaketen (fördertauglich) und Rollout/Compliance (andere Töpfe).

5. Partnerschaften schmieden – Rechenzeit in Ergebnisse verwandeln
Binden Sie Hochschulen/F&E-Institute, JSC-Teams und Branchenverbände ein: für methodische Begleitung (Skalierungs- und Portierungsfragen), Zugang zu Rechenzeit-Kontingenten, Datensätzen und Talenten. So wird Spitzen­rechentechnik zum operativen Vorteil: schnellere Zyklen, robustere Modelle/Produkte und resilientere Lieferketten.

 


Über den Autor:

Der Autor ist Co-Gründer von Quantum Beyond, einem europäischen Beschleunigungsprogramm für die Digitalisierung von Unternehmen. Unter dem Label Quantum Beyond Infinity liegt der Fokus auf AI-driven Organization Design, datengetriebenen Strategien und der intelligenten Mensch-Maschine-Kollaboration, um Unternehmen zukunftsfähig und wettbewerbsstark für das KI-Zeitalter aufzustellen.