Im März 2018 veröffentlichte Google die Entwicklung eines 72-Qubit-Quantencomputers. Damals fragte Bankstil: Können Quantencomputer Bitcoin und die Blockchain obsolet machen? Die Antwort war vorsichtig optimistisch – es würde “eher Jahrzehnte als Jahre” dauern. Acht Jahre später zeigt sich: Die Warnungen waren präzise, die Timeline wurde unterschätzt, und deutsche Finanzinstitute haben immer noch keine belastbare Strategie.
Der Citi-Report “Quantum Threat” quantifiziert im Januar 2026 ein Risiko von 2−3,3 Billionen US-Dollar bei einem Quantenangriff auf eine Top-US-Bank. Die Bank für Internationalen Zahlungsausgleich publiziert eine umfassende “Roadmap” für Quantum-Readiness. Gleichzeitig erscheinen akademische Papers wie das Quantum-Resilient Privacy Ledger (QRPL), die alle Probleme durch maximale kryptographische Komplexität lösen wollen. Und deutsche Banken? Schweigen. Keine BaFin-Richtlinie, keine Bundesbank-Timeline, keine Sparkassen-Strategie.
Das Muster ist bekannt: Frühe Warnung trifft auf institutionelle Trägheit, Souveränitäts-Rhetorik mündet in faktische Abhängigkeit. Es ist Zeit, die strukturelle Kontinuität dieser Versäumnisse zu benennen.
Der prophetische Moment von 2018
Als Google im Frühjahr 2018 seinen 72-Qubit-Quantencomputer vorstellte, war die Aufregung groß. Konnte diese Technologie die Grundlagen moderner Kryptographie erschüttern? Würde Bitcoin obsolet werden? Die damalige Bankstil-Analyse identifizierte bereits die zentralen Probleme: Deutschlands drohender Verlust des Anschlusses in der Quantentechnologie, die Unvorbereitetheit des Bankensektors, und die fundamentale Bedrohung kryptographischer Systeme.
Besonders aufschlussreich waren die Warnungen deutscher Wissenschaftler. Die Akademien Leopoldina, Acatech und die Deutsche Akademienunion hatten bereits 2015 gemahnt, Deutschland könne “beim Wettrennen um Verschlüsselungstechnik der Zukunft international den Anschluss verlieren.” Wolfgang Schleich von der Universität Ulm formulierte es drastisch: “Wenn wir jetzt nichts unternehmen, könnte es am Ende dazu kommen, dass wir Verschlüsselungstechnik aus China kaufen müssen.”
Noch präziser wurde 2016 Tim Güneysu von der Ruhr-Universität Bochum. In einem Interview beschrieb er das Problem, das später als “Harvest Now, Decrypt Later” (HNDL) bekannt werden sollte: “Wenn jemand heute in der Lage ist, Gesundheitsdaten abzufangen und zwischenzuspeichern, soll er sie auch in 15 Jahren mit dem Quantencomputer nicht erfolgreich entschlüsseln können.” Ein deutscher Forscher erkannte 2016, was internationale Reports erst 2026 als dringendes Risiko verkaufen.
Die Reaktion? Man betrieb intensive Forschung – das Horst-Görtz-Institut in Bochum, das Fraunhofer-Institut in Darmstadt, das Helmholtz-Zentrum in Saarbrücken. Exzellente Forschung, aber keine kommerzielle Umsetzung. Das Muster etablierte sich früh.
Was seitdem geschah: NIST setzt Standards, China baut Hardware, Deutschland publiziert Papers
Während Deutschland Forschungseinrichtungen aufbaute, standardisierte das US-amerikanische National Institute of Standards and Technology (NIST) Post-Quantum-Kryptographie. Der Prozess begann 2016 und wurde 2024 mit drei finalen Standards abgeschlossen: ML-KEM, ML-DSA und SPHINCS+. Wie bei TLS, HTTPS und X.509 wurde ein US-Institut zum globalen Standardsetzer. Europäische Forscher partizipierten, aber NIST setzte den Standard.
China investierte Milliarden in Quantenhardware. Der Micius-Satellit demonstrierte 2016 Quantum Key Distribution über 1.200 Kilometer. Die Jiuzhang- und Zuchongzhi-Prozessoren erreichten beeindruckende Qubit-Zahlen. Aber – und das ist die Pointe – China dominiert Hardware, nicht Standards. NIST-Algorithmen wurden von westlichen Teams entwickelt.
Die ironische Wendung: Wolfgang Schleichs Befürchtung (“Verschlüsselungstechnik aus China kaufen”) trat nicht ein. Stattdessen kaufen deutsche Banken PQC-as-a-Service von AWS, Azure und Google Cloud. Nicht chinesische Abhängigkeit, sondern US-…

