Wie spezialisierte API-Anbieter und KI-Agenten die Preismodelle von Bloomberg & Co. untergraben – und warum der Finanzjournalismus dabei unter doppelten Druck gerät.
Als das Unternehmen hinter financialdatasets.ai kürzlich seine neue Earnings API vorstellte[1]https://x.com/virattt/status/2023869068697067625, klang die Ankündigung wie eine weitere nützliche Entwicklerwerkzeug-Meldung im unüberschaubaren Strom solcher Nachrichten: zwei Monate Entwicklungszeit, vier Neufassungen, rund 15.000 Dollar Rechenaufwand – und das Ergebnis: saubere, strukturierte Gewinndaten, unmittelbar nach der Veröffentlichung eines Unternehmensberichts, inklusive der Einordnung, ob die Erwartungen übertroffen, verfehlt oder erfüllt wurden. Zugang zunächst kostenlos.
Was sich dahinter verbirgt, ist mehr als ein praktisches Werkzeug. Es ist ein symptomatischer Schritt in einer strukturellen Transformation, die nicht nur die Geschäftsmodelle der großen Datenanbieter unter Druck setzt – sondern auch eine Berufsgruppe, die bislang glaubte, ihr Terrain sei sicher: den Finanzjournalismus.
Bloomberg und die Ökonomie der Knappheit
Bloomberg Terminal, Refinitiv (heute LSEG) und S&P Global haben ihr Geschäftsmodell jahrzehntelang auf der Knappheit und Exklusivität von Finanzdaten aufgebaut. Ein Bloomberg-Terminal kostet nach wie vor über 20.000 Dollar im Jahr. Diese Preise sind nicht das Ergebnis von Marktversagen – sie sind das Ergebnis von Marktmacht, gewachsen durch Netzwerkeffekte, regulatorische Anforderungen und die schiere Gewohnheit professioneller Investoren, die ihre Arbeitsprozesse auf diesen Plattformen aufgebaut haben.
Das Geschäftsmodell der großen Datenanbieter ist dabei nie allein auf den Rohdaten basiert. Bloomberg verkauft keinen Datenpunkt – es verkauft einen integrierten Informationsraum: Echtzeit-Kurse, Analysefunktionen, Kommunikationsinfrastruktur, Compliance-Werkzeuge, Terminkalender, Nachrichtenversorgung. Der Wert entsteht durch die Kombination, nicht durch das einzelne Element. Das macht das Angebot schwer angreifbar – und erklärt, warum die Preise trotz sinkender Grenzkosten für Daten über Jahrzehnte stabil geblieben sind.
Gegen dieses Modell arbeiten nun zwei Kräfte gleichzeitig – und sie verstärken einander.
Zwei Kräfte, ein Trend
Die erste Kraft ist technologischer Natur: Die Kosten für Datenbeschaffung, ‑verarbeitung und ‑distribution sind durch Cloud-Infrastruktur und KI drastisch gesunken. Was vor zehn Jahren noch erhebliche Infrastrukturinvestitionen erforderte, ist heute mit überschaubarem Aufwand realisierbar. financialdatasets.ai hat 15.000 Dollar in die Earnings API investiert – eine Summe, die in einem anderen Jahrzehnt für eine vergleichbare Leistung nicht annähernd ausgereicht hätte.
Die zweite Kraft ist struktureller Art: Eine neue Generation von Anbietern setzt bewusst auf Disaggregation. Statt den integrierten Informationsraum nachzubauen – was kapital- und zeitintensiv wäre –, greifen sie einzelne Datenkategorien heraus, bereiten sie sorgfältig auf und machen sie als API zugänglich. Earnings-Daten. Insidertransaktionen. Bilanzkennzahlen. Analystenschätzungen. Jeder dieser Datenpunkte, für sich genommen, ist nur ein kleiner Teil dessen, was Bloomberg bietet. Zusammengenommen – und kombiniert durch KI-gestützte Analyseschichten – ergibt sich ein funktionales Substitut zu einem Bruchteil der Kosten.
Das ist die Logik, die Jake Ruth von StockUnlock auf den Begriff brachte, als er auf die Ankündigung der Earnings API kommentierte: Er sehe die Kosten für Finanzdaten bis 2030 gegen null tendieren. Das ist keine präzise Prognose, sondern ein Richtungsanzeiger – aber ein plausibler.
Die eigentliche Sprengkraft: KI-Agenten als Integrationschicht
Die bisher beschriebene Dynamik – sinkende Datenbeschaffungskosten, disaggregierte API-Anbieter – wäre für sich genommen bereits relevant. Was ihr eine qualitativ neue Dimension gibt, ist das Aufkommen von KI-Agenten als eigenständige Marktakteure.
Agentic Commerce – der Handel und die Entscheidungsfindung durch autonome KI-Systeme – setzt voraus, dass Agenten auf strukturierte, verlässliche und zeitkritische Informationen zugreifen können. Ein Earnings-Beat oder ‑Miss ist genau die Art von Signal, auf das ein Handelsagent reagieren muss: unmittelbar, präzise, im richtigen Format. Die Integrationsleistung, die bislang das Herzstück des Bloomberg-Wertangebots war – die Zusammenführung heterogener Datenquellen zu einem kohärenten Informationsraum –, können KI-Agenten zunehmend selbst erbringen. Vorausgesetzt, die Rohdaten sind zugänglich.
Darin liegt die eigentliche Sprengkraft: Nicht die einzelne API ersetzt Bloomberg. Es ist das Zusammenspiel aus vielen spezialisierten Datenpipelines und KI-Agenten, die diese Pipelines abonnieren, kombinieren und in Handelssignale übersetzen, das das traditionelle Integrationsmodell strukturell unterläuft.
Die Protokolle dafür sind bereits in Entwicklung oder im Einsatz. Anthropics Model Context Protocol, aufkommende Zahlungsinfrastrukturen für KI-Agenten, standardisierte Daten-APIs – es entsteht eine Infrastrukturschicht, auf der maschinelle Entscheidungsfindung im Finanzbereich operieren kann. Die Earnings API von financialdatasets.ai ist ein Baustein in dieser Schicht.
Was das für traditionelle Anbieter bedeutet
Für Bloomberg, LSEG und ihre Konkurrenten ist diese Entwicklung nicht unmittelbar bedrohlich. Ihre institutionelle Verankerung – Compliance-Anforderungen, etablierte Arbeitsprozesse, regulatorische Zertifizierungen – schützt sie auf absehbare Zeit. Aber die mittelfristigen Implikationen sind ernster.
Die disaggregierten Datenmärkte entziehen den großen Anbietern schrittweise ihre Preissetzungsmacht in den Bereichen, die am einfachsten zu replizieren sind: strukturierte Fundamentaldaten, Analystenschätzungen, Unternehmensmeldungen. Was bleibt, sind die schwerer replizierbaren Elemente: Echtzeit-Infrastruktur mit niedrigster Latenz, proprietäre Analysefunktionen, der Bloomberg-Messenger als institutionelles Kommunikationsnetzwerk, und die regulatorische Zertifizierung für bestimmte Anwendungsfälle.
Die strategische Antwort kann daher nur in der Vertiefung liegen: komplexere Analysefunktionen, proprietäre Modelle, KI-gestützte Auswertungsschichten, die über reine Datenaggregation hinausgehen. Wer glaubt, die einfachen Datenpipelines durch Preissetzungsmacht verteidigen zu können, unterschätzt die Geschwindigkeit, mit der das disaggregierte Modell Marktanteile gewinnt.
Das Modell und seine Grenzen
Das financialdatasets.ai-Modell hat freilich auch Grenzen. Datenbeschaffung und ‑normierung erfordern kontinuierlichen Aufwand – vier Neufassungen der Earnings API in zwei Monaten legen nahe, dass die Komplexität nicht unterschätzt werden sollte. Die Qualitätssicherung strukturierter Finanzdaten, die von tausenden von Unternehmen in unterschiedlichen Formaten und nach unterschiedlichen Rechnungslegungsstandards veröffentlicht werden, ist kein triviales Problem.
Hinzu kommt die Frage der wirtschaftlichen Nachhaltigkeit. Kostenloser Zugang als Einführungsangebot ist eine klassische Penetrationsstrategie – aber die Frage, wie sich spezialisierte Datenanbieter bei sinkenden Grenzkosten und intensivem Wettbewerb langfristig finanzieren, ist nicht trivial. Die Geschichte des Internets kennt viele Anbieter, die kostenlos begannen und entweder durch Monetarisierungsmodelle ihre ursprüngliche Zugänglichkeit einschränkten oder von größeren Playern übernommen wurden.
Das mindert die strukturelle Relevanz des Musters nicht – aber es mahnt zur Nüchternheit.
Der Finanzjournalismus unter doppeltem Druck
Die Konsequenzen dieser Entwicklung beschränken sich nicht auf Bloomberg und seine institutionellen Konkurrenten. Sie treffen auch den Finanzjournalismus – und zwar auf zwei Ebenen gleichzeitig, die in ihrer Kombination besonders beunruhigend sind.
Die erste Ebene ist die der Ereignisberichterstattung. Was Bloomberg, Reuters oder das Handelsblatt bislang geleistet haben – die schnelle Einordnung von Quartalszahlen, die Destillation eines Earnings-Signals aus dem Zahlenmaterial, die knappe Nachricht über eine überraschende Margenentwicklung –, ist exakt das, was strukturierte APIs wie die von financialdatasets.ai automatisierbar machen. Das Signal “Beat/Miss/Met” wird nicht mehr vom Journalisten aus Rohmaterial erarbeitet, sondern direkt mitgeliefert. Automatisierte Finanzberichterstattung auf Basis solcher Datenpipelines gibt es bei Reuters und AP bereits seit Jahren. Bislang war sie eine Ergänzung. Je billiger und zugänglicher die strukturierten Daten werden, desto mehr wird sie zum Standard.
Die zweite Ebene ist subtiler und mittelfristig gravierender: Sie betrifft die Kontextualisierung. Der eigentliche Wert des Finanzjournalismus lag nie im bloßen Datentransport, sondern in der analytischen Einordnung – warum verfehlt ein Unternehmen die Erwartungen strukturell, nicht nur zyklisch? Was bedeutet eine Margenentwicklung im Kontext der Branchendynamik? Welche Signale werden vom Markt gerade ignoriert oder falsch bewertet? Diese analytische Tiefenschicht galt lange als sicheres Terrain, das menschliche Urteilskraft erfordert und algorithmischer Reproduktion widersteht.
Auch dieses Terrain schrumpft – nicht weil KI-Agenten bessere Finanzjournalisten wären, sondern weil sich die Nachfrage nach dieser Kontextualisierung selbst verschiebt.
Professionelle Investoren arbeiten zunehmend mit eigenen Modellen und Agenten, die Kontext algorithmisch erzeugen, Abweichungen von Erwartungen in Echtzeit verarbeiten und Branchenvergleiche automatisch einbetten. Was bleibt als Kernzielgruppe für klassischen Finanzjournalismus? Zunehmend der informierte, aber nicht institutionelle Leser – ein Publikum, das breit ist, aber mit den bisherigen Geschäftsmodellen des Qualitätsfinanzjournalismus schwer zu monetarisieren war und es künftig noch weniger sein wird.
Das ist strukturell dasselbe Muster wie im Nachrichtenjournalismus insgesamt – mit dem Unterschied, dass im Finanzbereich die Automatisierbarkeit der Kerninhalte besonders hoch ist. Die Ausgangsdaten sind numerisch, standardisiert und maschinenlesbar. Das Grundproblem lässt sich nicht durch besseres Storytelling lösen, sondern erfordert eine grundlegende Neudefinition dessen, was Finanzjournalismus als eigenständige Leistung zu erbringen hat – jenseits der Datenaufbereitung, die Maschinen übernehmen werden, und jenseits der Kontextualisierung, die zunehmend algorithmisch erzeugt wird.
Finanzinformationen als Infrastruktur
Was bleibt, ist eine These, die über den Einzelfall hinausweist: Finanzinformationen sind auf dem Weg von einem knappen, exklusiven Gut zu einer Infrastrukturressource. Infrastruktur im ökonomischen Sinne bedeutet: weitgehend standardisiert, zu niedrigen Grenzkosten verfügbar, und für übergeordnete Anwendungen vorausgesetzt, ohne dass ihr Vorhandensein noch als besonderer Wettbewerbsvorteil gilt.
Ob Finanzdaten bis 2030 tatsächlich gegen null tendieren, ist eine offene Frage. Dass die heutigen Preismodelle unter erheblichem Druck stehen – und dass dieser Druck durch das Aufkommen des Agentic Commerce strukturell verstärkt wird –, ist es nicht.
Das financialdatasets.ai-Modell ist ein frühes, noch kleines Indiz für eine Transformation, die am Ende größere Spieler und tiefere Märkte erfassen wird. Die stille Disaggregation des Finanzinformationsmarktes hat begonnen.
Ralf Keuper
References
| ↑1 | https://x.com/virattt/status/2023869068697067625 |
|---|
