Meta plant 135 Mil­li­ar­den USD Inves­ti­tio­nen für 2026, Micro­soft gibt 37,5 Mil­li­ar­den pro Quar­tal aus – die KI-Capex-Wel­le erreicht indus­trie­ge­schicht­li­che Dimen­sio­nen. Doch wäh­rend Ana­lys­ten nach dem ROI fra­gen und his­to­ri­sche Ver­glei­che zu Eisen­bahn und Elek­tri­fi­zie­rung bemü­hen, blei­ben die ent­schei­den­den Fra­gen unge­klärt: Ist KI über­haupt Infra­struk­tur im klas­si­schen Sin­ne? Oder erle­ben wir die Ent­ste­hung eines neu­en Medi­ums im Sin­ne McLuhans? Und befin­den wir uns, wie Car­lo­ta Perez’ Theo­rie tech­no­lo­gi­scher Revo­lu­tio­nen nahe­legt, in einer spe­ku­la­ti­ven Instal­la­ti­ons­pha­se – kurz vor dem unver­meid­li­chen Crash? Ein Essay über die pro­duk­ti­ve Ambi­gui­tät einer Tech­no­lo­gie, die sich kate­go­ria­ler Ein­ord­nung ent­zieht, und über ein Euro­pa, das auch die­se Wel­le verschläft.


Die 135-Mil­li­ar­den-Dol­lar-Fra­ge

Wenn Meta ankün­digt, im Jahr 2026 bis zu 135 Mil­li­ar­den Dol­lar zu inves­tie­ren – nahe­zu eine Ver­dopp­lung gegen­über dem Vor­jahr –, dann sind das nicht mehr Zah­len, die sich mit nor­ma­len Inves­ti­ti­ons­zy­klen erklä­ren las­sen. Micro­soft gibt 37,5 Mil­li­ar­den pro Quar­tal aus, ein Anstieg von 65 Pro­zent gegen­über dem Vor­jahr. Tes­la plant 20 Mil­li­ar­den für KI-Hard­ware und Robo­tik. Die Kapi­tal­märk­te reagie­ren dif­fe­ren­ziert, fast schi­zo­phren: Meta wird belohnt, weil KI-Model­le das Wer­be­ge­schäft kon­kret stär­ken. Micro­soft wird abge­straft, weil die enor­men Aus­ga­ben sich nicht pro­por­tio­nal in ska­lier­ba­ren Umsät­zen niederschlagen.

Die gän­gi­ge Deu­tung greift zu his­to­ri­schen Ana­lo­gien: Dies sei ein neu­er indus­tri­el­ler Inves­ti­ti­ons­zy­klus, ver­gleich­bar mit dem Eisen­bahn­aus­bau im 19. Jahr­hun­dert oder der Elek­tri­fi­zie­rung im 20. Jahr­hun­dert. Frü­he Cloud-Inves­ti­tio­nen um 2013 wer­den bemüht – rie­si­ge Capex-Wel­len, die sich erst Jah­re spä­ter in Cash­flows ver­wan­del­ten. Die impli­zi­te Bot­schaft: Geduld, die Ren­ta­bi­li­tät kommt schon noch.

Doch die­se Ana­lo­gie steht auf wack­li­ge­ren Füßen, als es zunächst scheint. Bevor man 135 Mil­li­ar­den Dol­lar mit dem Hin­weis auf die Eisen­bahn recht­fer­tigt, soll­te man klä­ren, ob KI in ihrer jet­zi­gen Form tat­säch­lich die neue Gene­ral Pur­po­se Tech­no­lo­gy ist – oder ob wir gera­de Zeu­ge einer gigan­ti­schen Fehl­al­lo­ka­ti­on werden.

Was Infra­struk­tur wirk­lich auszeichnet

His­to­ri­sche Infra­struk­tu­ren hat­ten gemein­sa­me Merk­ma­le, die sie zu trans­for­ma­ti­ven Kräf­ten mach­ten. Die Eisen­bahn trans­por­tier­te uni­ver­sell: Güter, Men­schen, Infor­ma­ti­on. Die Grenz­kos­ten pro zusätz­li­chem Pas­sa­gier oder Gut waren mini­mal, sobald die Schie­nen lagen. Elek­tri­zi­tät betrieb jede Maschi­ne, jede Lam­pe, ska­lier­te nahe­zu belie­big. Soft­ware hat­te Grenz­kos­ten der Ver­viel­fäl­ti­gung von prak­tisch Null. Das Inter­net mach­te Daten­trans­mis­si­on fast kostenlos.

Bei KI in ihrer aktu­el­len Form ist das fun­da­men­tal anders. Die Grenz­kos­ten der Infe­renz gehen nicht gegen Null – jeder Query kos­tet sub­stan­ti­el­le Rechen­leis­tung. GPUs blei­ben struk­tu­rel­ler Eng­pass, Ener­gie­kos­ten stei­gen line­ar mit Nut­zung. Ein Chat-Ant­wort mit GPT‑4 kos­tet in der Grö­ßen­ord­nung hun­dert­mal mehr als eine Goog­le-Suche. Micro­soft muss­te ein Atom­kraft­werk reak­ti­vie­ren, um ein Rechen­zen­trum zu betrei­ben. Das ist nicht ska­lier­bar wie Soft­ware. Es ist indus­tri­ell – ver­gleich­bar mit Stahl­pro­duk­ti­on oder Che­mie. Hohe Fix­kos­ten, hohe varia­ble Kos­ten, phy­si­sche Limits.

Die Fra­ge ist daher nicht rhe­to­risch: Baut man hier Infra­struk­tur oder eine teu­re Über­gangs­tech­no­lo­gie, die von etwas Effi­zi­en­te­rem abge­löst wird?

Hin­zu kommt das Pro­blem der begrenz­ten Uni­ver­sa­li­tät. Eisen­bahn lös­te ein uni­ver­sel­les Pro­blem: Trans­port über Distanz. Elek­tri­fi­zie­rung lös­te Ener­gie­ver­sor­gung. Was löst LLM-basier­te KI uni­ver­sal? Die aktu­el­len Anwen­dungs­fäl­le kon­zen­trie­ren sich auf Con­tent-Gene­rie­rung oft frag­wür­di­ger Qua­li­tät, Code-Assis­tenz mit inkre­men­tel­lem Nut­zen, Chat­bots für Cus­to­mer Ser­vice und Zusam­men­fas­sun­gen. Das ist nütz­lich, teils sehr nütz­lich – aber wo ist der struk­tu­rell trans­for­ma­ti­ve, ulti­ma­ti­ve Anwen­dungs­fall, der eine gan­ze Wirt­schafts­ord­nung neu organisiert?

Elek­tri­fi­zie­rung ermög­lich­te Fließ­band­pro­duk­ti­on und damit Mas­sen­kon­sum. Com­pu­ter ermög­lich­ten glo­ba­le Lie­fer­ket­ten und Just-in-Time-Fer­ti­gung. Was ermög­licht KI struk­tu­rell, das vor­her unmög­lich war? Die­se Fra­ge bleibt bis­her ohne über­zeu­gen­de Antwort.

Die Com­mo­di­tiza­ti­on als Warnsignal

Ein wei­te­res struk­tu­rel­les Pro­blem: die rapi­de Com­mo­di­tiza­ti­on der Model­le. Ech­te Infra­struk­tur zeich­net sich durch stan­dar­di­sier­te Schnitt­stel­len und lang­fris­ti­ge Lock-ins aus. Eisen­bahn stan­dar­di­sier­te Spur­wei­ten und schuf Netz­werk­ef­fek­te. Elek­tri­zi­tät eta­blier­te 230 Volt und 50 Hertz, was Gerä­te­kom­pa­ti­bi­li­tät garan­tier­te. Soft­ware schuf APIs, Betriebs­sys­te­me und damit Ökosysteme.

Bei KI sehen wir das Gegen­teil: Model­le wer­den zuneh­mend aus­tausch­bar. Open Source Llama, Mis­tral und ande­re for­dern die pro­prie­tä­ren Model­le her­aus. APIs sind nicht stan­dar­di­siert, Öko­sys­te­me frag­men­tiert. Wenn aber die Kern­kom­po­nen­te – das Modell – com­mo­di­ti­zed wird, dann ist das Gegen­teil von Infra­struk­tur. Es ist ein Übergangsphänomen.

Die 135 Mil­li­ar­den Dol­lar könn­ten in fünf Jah­ren ent­we­der aus­se­hen wie weit­sich­ti­ge Infra­struk­tur-Inves­ti­ti­on à la AWS zwi­schen 2006 und 2010. Oder wie die Über­in­ves­ti­ti­on in Glas­fa­ser­net­ze 1999 bis 2001, wo mas­si­ve Capex in eine…