Getting your Trinity Audio player ready...

Drei Jahr­zehn­te lang wur­de das Inter­net für mensch­li­che Augen gebaut – mit bun­ten But­tons, intui­ti­ven Menüs und visu­el­len Hin­wei­sen. Doch jetzt drän­gen KI-Agen­ten ins Netz, die eigen­stän­dig Flü­ge buchen, E‑Mails beant­wor­ten und Soft­ware bedie­nen sol­len. Das Pro­blem: Sie schei­tern kläg­lich an einer Infra­struk­tur, die nie für Maschi­nen gedacht war. Gleich­zei­tig zeich­net sich ab, dass der klas­si­sche Web­brow­ser selbst zur Dis­po­si­ti­on steht – ersetzt durch intel­li­gen­te Agen­ten, die nicht mehr Links anzei­gen, son­dern Auf­ga­ben lösen. Was nach einem tech­ni­schen Detail klingt, ent­puppt sich als fun­da­men­ta­ler Para­dig­men­wech­sel, der die gesam­te Logik des Inter­nets auf den Kopf stellt.


Stel­len Sie sich vor, Sie betre­ten ein Kauf­haus, in dem es kei­ne Schil­der gibt, kei­ne Gän­ge, kei­ne erkenn­ba­re Ord­nung – nur ein Cha­os aus Pro­duk­ten, die will­kür­lich ver­teilt sind. Für einen Men­schen wäre das frus­trie­rend. Für eine Maschi­ne ist das die Rea­li­tät des heu­ti­gen Inter­nets. Wäh­rend wir Men­schen uns an Farb­codes, Icons und Lay­outs ori­en­tie­ren, tas­tet sich ein KI-Agent durch einen digi­ta­len Nebel aus inkon­sis­ten­ten HTML-Struk­tu­ren, ver­steck­ten Menüs und visu­ell kodier­ten Infor­ma­tio­nen, die für ihn unsicht­bar bleiben.

Die soge­nann­te „agen­ti­sche Navi­ga­ti­on” – die Fähig­keit von KI-Sys­te­men, selbst­stän­dig durch Web­sei­ten zu navi­gie­ren und Aktio­nen aus­zu­füh­ren – offen­bart gera­de die fun­da­men­ta­len Schwä­chen einer Archi­tek­tur, die seit den 1990er Jah­ren kaum hin­ter­fragt wur­de. Und die Kon­se­quen­zen sind weit­rei­chen­der, als man zunächst den­ken könn­te: Das Inter­net wan­delt sich von einem Raum für mensch­li­che Besu­cher zu einem Öko­sys­tem, das pri­mär von Maschi­nen genutzt wird. Mehr noch: Der Brow­ser selbst wird zum KI-Agen­ten trans­for­miert, der nicht mehr Links anzeigt, son­dern Auf­ga­ben direkt ausführt.

Die ver­steck­ten Gefah­ren einer men­schen­zen­trier­ten Architektur

Expe­ri­men­te zei­gen ein beun­ru­hi­gen­des Mus­ter: KI-Agen­ten sind erschre­ckend leicht zu mani­pu­lie­ren. Ein unsicht­ba­rer Text auf einer Web­sei­te – für Men­schen nicht wahr­nehm­bar, aber im HTML-Code ver­steckt – kann einem Agen­ten Befeh­le ertei­len, die die­ser blind aus­führt. Eine E‑Mail mit ver­steck­ten Anwei­sun­gen kann den Agen­ten dazu brin­gen, sen­si­ble Daten preis­zu­ge­ben oder uner­wünsch­te Aktio­nen durch­zu­füh­ren, ohne dass der Nut­zer davon erfährt.

Das ist kei­ne theo­re­ti­sche Schwach­stel­le. Es ist ein sys­te­mi­sches Ver­sa­gen, das aus der grund­le­gen­den Prä­mis­se resul­tiert: Das Web wur­de gebaut, um Infor­ma­tio­nen zu zei­gen, nicht um Inten­tio­nen zu kom­mu­ni­zie­ren. Für einen Men­schen ist klar, was zur Web­sei­te gehört und was sei­ne eige­ne Absicht ist. Für einen Agen­ten ver­schwimmt die­se Gren­ze zu einem gefähr­li­chen Graubereich.

Hin­zu kommt die Kom­ple­xi­tät moder­ner Unter­neh­mens­an­wen­dun­gen. Wäh­rend ein Agent viel­leicht noch einen simp­len Online-Shop bewäl­ti­gen kann, schei­tert er an mehr­stu­fi­gen B2B-Work­flows, die auf visu­el­len Kon­text, impli­zi­ten Hier­ar­chien und jahr­zehn­te­lan­ger Nut­zer­ge­wöh­nung basie­ren. Ein Drop­down-Menü, das sich nur bei Hover öff­net. Ein But­ton, der erst nach fünf Sekun­den Lade­zeit erscheint. Eine Ein­ga­be­mas­ke, die bestimm­te For­ma­te erwar­tet, ohne dies expli­zit zu kommunizieren.

Für Maschi­nen sind das unüber­wind­ba­re Hürden.

Die Web-Archi­tek­tur, die für visu­el­le Wahr­neh­mung, Klicks und Intui­ti­on opti­miert wur­de, steht einer grund­le­gen­den Her­aus­for­de­rung gegen­über: Sie ist nicht maschi­nen­les­bar genug. Inkon­sis­ten­te Design­mus­ter, feh­len­de seman­ti­sche Struk­tu­ren und pro­prie­tä­re Schnitt­stel­len machen die Navi­ga­ti­on für Agen­ten zu einem Hindernislauf.

Das Ende der Such­ma­schi­ne, wie wir sie kennen

Die Trans­for­ma­ti­on geht tie­fer als tech­ni­sche Anpas­sun­gen. In der neu­en Pha­se des Inter­nets wer­den Such­ma­schi­nen nicht mehr nur Infor­ma­tio­nen anzei­gen, son­dern intel­li­gen­te Agen­ten wer­den die­se fin­den und dar­auf reagie­ren. Was bedeu­tet das konkret?

Gene­ra­ti­ve KI-Suche lie­fert nicht mehr nur Links, son­dern fasst die­se zusam­men und ver­linkt direkt – Nut­zer müs­sen nicht mehr durch URLs scrol­len. Der klas­si­sche Work­flow – Such­be­griff ein­ge­ben, Ergeb­nis­lis­te scan­nen, meh­re­re Sei­ten öff­nen, Infor­ma­tio­nen manu­ell zusam­men­tra­gen – wird obso­let. Ope­nAI zielt dar­auf ab, Nut­zer in GPT-ähn­li­chen Inter­faces zu hal­ten und Auf­ga­ben direkt im Brow­ser auszuführen.

Das ist nicht mehr Zukunfts­mu­sik. Die Gerüch­te um einen Ope­nAI-Brow­ser, der Goog­le Chro­me Kon­kur­renz machen könn­te, ver­deut­li­chen die Ernst­haf­tig­keit der Dis­rup­ti­on. Wäh­rend eta­blier­te Play­er wie Per­ple­xi­ty bereits fort­schritt­li­che Werk­zeu­ge für tie­fe Recher­chen anbie­ten, ste­hen sie vor Pro­ble­men wie hohen Kos­ten oder feh­len­der Ska­lier­bar­keit. Doch der Trend ist unum­kehr­bar: Die Zukunft der Suche liegt in der Erfül­lung von Nut­zer­ab­sich­ten, nicht nur im Fin­den von Informationen.

Der Rol­len­tausch: Vom Besu­cher zur Datenquelle

Der Wan­del ist radi­ka­ler, als es zunächst scheint. Web­sei­ten wer­den künf­tig nicht mehr pri­mär für mensch­li­che Besu­cher gestal­tet, son­dern als struk­tu­rier­te Daten­quel­len für maschi­nel­le Inter­ak­tio­nen opti­miert ki-agen­ten. Was bedeu­tet das konkret?

KI-Agen­ten grei­fen direkt auf Pro­dukt­ka­ta­lo­ge, Preis­da­ten­ban­ken und Dienst­leis­tun­gen zu, ohne dass der Nut­zer selbst suchen oder kli­cken muss. Der Mensch sieht nur noch die auf­be­rei­te­ten Ergeb­nis­se – nicht die Roh­da­ten, nicht die eigent­li­che Web­sei­te, nicht den Pro­zess. Ein Bei­spiel ver­deut­licht die Trag­wei­te: Statt eine Rei­se­platt­form zu besu­chen, beauf­tragt der Nut­zer sei­nen KI-Agen­ten mit der Anfra­ge nach dem güns­tigs­ten Flug, wor­auf­hin der Agent ver­schie­de­ne Daten­quel­len durch­sucht und die bes­ten Optio­nen prä­sen­tiert, ohne dass der Nut­zer je eine klas­si­sche Web­sei­te sieht.

Das ist kein Zukunfts­sze­na­rio mehr – es pas­siert bereits. Die ent­schei­den­de Ver­schie­bung liegt dar­in, dass die Anwen­dungs­lo­gik wan­dert: weg von der Web­sei­te, hin­ein in den Agen­ten. Die intel­li­gen­te Ver­ar­bei­tung, Inter­pre­ta­ti­on und Prä­sen­ta­ti­on der Daten fin­det nicht mehr auf der Web­sei­te statt, son­dern im per­sön­li­chen KI-Agen­ten des Nut­zers. Web­sei­ten wer­den zu rei­nen Daten­lie­fe­ran­ten degradiert.

Für Unter­neh­men bedeu­tet das eine fun­da­men­ta­le Neu­aus­rich­tung: Unter­neh­men müs­sen SEO über­den­ken, da Nut­zer nicht mehr durch URLs scrol­len ki-agen­ten. Die gesam­te Dis­zi­plin der Such­ma­schi­nen­op­ti­mie­rung, die sich über zwei Jahr­zehn­te ent­wi­ckelt hat, muss neu erfun­den wer­den – nicht für mensch­li­che Suchen­de, son­dern für maschi­nel­le Agenten.

Die Ana­to­mie eines maschi­nen­les­ba­ren Webs

Die Lösung liegt nicht dar­in, das Inter­net neu zu erfin­den – son­dern es um eine Schicht zu erwei­tern, die Maschi­nen das gibt, was Men­schen schon immer hat­ten: Kon­text, Struk­tur und kla­re Handlungsanweisungen.

Seman­ti­sche Struk­tu­ren müs­sen zum Stan­dard wer­den. HTML-Ele­men­te brau­chen ein­deu­ti­ge Labels, kon­sis­ten­te Attri­bu­te und maschi­nen­les­ba­re Meta­da­ten, die nicht nur beschrei­ben, was ein Ele­ment ist, son­dern auch wofür es dient. Ein But­ton ist nicht ein­fach ein But­ton – er ist eine Akti­on mit Kon­se­quen­zen, die expli­zit benannt wer­den müssen.

Leit­fä­den für Agen­ten könn­ten das Äqui­va­lent zur jahr­hun­der­te­al­ten Kon­ven­ti­on der Beschil­de­rung sein. Ähn­lich wie robots.txt Such­ma­schi­nen den Weg weist, könn­te eine llms.txt-Datei KI-Agen­ten die Struk­tur, den Zweck und die ver­füg­ba­ren Aktio­nen einer Web­sei­te ver­mit­teln. Nicht als Ersatz für mensch­li­che Navi­ga­ti­on, son­dern als par­al­le­le Infrastruktur.

Direk­te Akti­ons­schnitt­stel­len sind der logi­sche nächs­te Schritt. War­um soll­te ein Agent müh­sam durch zwölf For­mu­lar­fel­der kli­cken, wenn eine API die Akti­on „Flug buchen” in einem ein­zi­gen, struk­tu­rier­ten Request abbil­den kann? Web­sei­ten wer­den zu APIs, die von Maschi­nen effi­zi­ent genutzt wer­den kön­nen ki-agen­ten. Die Zukunft liegt nicht in der Simu­la­ti­on mensch­li­chen Ver­hal­tens, son­dern in der direk­ten Kom­mu­ni­ka­ti­on zwi­schen Systemen.

Stan­dar­di­sier­te Schnitt­stel­len für wie­der­keh­ren­de Aktio­nen – „In den Waren­korb”, „Check­out initi­ie­ren”, „Ter­min ver­ein­ba­ren” – wür­den die Gene­ra­li­sier­bar­keit dra­ma­tisch erhö­hen. Statt für jede Web­sei­te indi­vi­du­ell trai­niert wer­den zu müs­sen, könn­ten Agen­ten auf ein gemein­sa­mes Voka­bu­lar zurück­grei­fen, das über Platt­for­men hin­weg funktioniert.

Um sich auf die­se neue Such­um­ge­bung vor­zu­be­rei­ten, soll­ten Unter­neh­men Inhal­te klar und struk­tu­riert auf­be­rei­ten, damit KI-Tools sie leicht ver­ste­hen, API-freund­li­che Sys­te­me für rei­bungs­lo­se Trans­ak­tio­nen schaf­fen und in Mar­ken­au­to­ri­tät investieren.

Sicher­heit in einer Welt agie­ren­der Maschinen

Die tech­ni­sche Mach­bar­keit ist nur die hal­be Mie­te. Die ande­re Hälf­te ist Ver­trau­en – und das erfor­dert rigo­ro­se Sicher­heits­me­cha­nis­men, die weit über das hin­aus­ge­hen, was wir heu­te von Web­an­wen­dun­gen gewohnt sind.

Agen­ten müs­sen mit mini­ma­len Berech­ti­gun­gen ope­rie­ren und für jede sen­si­ble Akti­on eine expli­zi­te Bestä­ti­gung ein­ho­len. Die Tren­nung von Nut­zer­ab­sicht und Web­sei­ten­in­hal­ten muss auf Pro­to­koll­ebe­ne ver­an­kert sein, sodass ver­steck­te Befeh­le struk­tu­rell unmög­lich wer­den. Sand­boxing iso­liert Agen­ten von akti­ven Sit­zun­gen und sen­si­blen Daten, wäh­rend fein­gra­nu­la­re Kon­trol­le Nut­zern Ein­blick in jede Akti­on gibt, bevor sie aus­ge­führt wird.

Die zen­tra­le Rol­le der Agen­ten bringt neue Her­aus­for­de­run­gen in punc­to Daten­schutz und IT-Sicher­heit mit sich. Es gibt Her­aus­for­de­run­gen wie Nut­zer­ver­trau­en, Daten­schutz­be­den­ken und Akzep­tanz neu­er Tech­no­lo­gien – der Erfolg hängt davon ab, wie gut Platt­for­men Auto­no­mie mit Trans­pa­renz verbinden.

Die­se Anfor­de­run­gen sind nicht optio­nal. Sie sind die Vor­aus­set­zung dafür, dass Men­schen KI-Agen­ten über­haupt Zugang zu ihren digi­ta­len Iden­ti­tä­ten gewäh­ren. Ohne die­ses Ver­trau­en bleibt die Visi­on des agen­ten­ge­steu­er­ten Webs Theorie.

Die stra­te­gi­sche Wei­chen­stel­lung: Adapt or perish

Für Unter­neh­men zeich­net sich eine kla­re Trenn­li­nie ab: Wer maschi­nen­les­bar ist, wird gefun­den. Wer es nicht ist, ver­schwin­det in der Bedeu­tungs­lo­sig­keit. Daten­zu­gän­ge, API-Nut­zung und maschi­nen­ge­rech­te Schnitt­stel­len wer­den wich­ti­ger als klas­si­sche Benutzeroberflächen.

Die Par­al­le­le zur Such­ma­schi­nen­op­ti­mie­rung ist offen­sicht­lich – nur dass der Ein­satz dies­mal höher liegt. Es geht nicht mehr nur um Sicht­bar­keit, son­dern um Zugäng­lich­keit. Eine Web­sei­te, die ein Agent nicht bedie­nen kann, exis­tiert in der Wahr­neh­mung eines zuneh­mend agen­ten­ge­steu­er­ten Inter­nets schlicht­weg nicht.

Im B2B-Bereich, wo kom­ple­xe Work­flows und spe­zia­li­sier­te Soft­ware domi­nie­ren, ist die Trans­for­ma­ti­on beson­ders dring­lich. Unter­neh­men, die struk­tu­rier­te APIs, seman­ti­sche Inter­faces und agen­ten­freund­li­che Doku­men­ta­ti­on bereit­stel­len, wer­den ihre Diens­te naht­los in die KI-gesteu­er­ten Arbeits­ab­läu­fe ihrer Kun­den inte­grie­ren. Ande­re wer­den zuse­hen, wie ihre Markt­an­tei­le an Wett­be­wer­ber fal­len, die die neue Rea­li­tät frü­her erkannt haben.

Die Inter­ak­ti­on mit dem Inter­net wird indi­vi­du­el­ler, schnel­ler und ziel­ge­rich­te­ter – der Agent fil­tert und ver­steht die Bedürf­nis­se sei­nes Nut­zers ki-agen­ten. Das bedeu­tet auch: Die klas­si­sche Web­sei­te als Mar­ke­ting­in­stru­ment ver­liert an Bedeu­tung, wenn der Nut­zer sie nie zu Gesicht bekommt. Mar­ken­füh­rung muss neu gedacht wer­den – nicht für mensch­li­che Augen, son­dern für maschi­nel­le Entscheidungsalgorithmen.

Unter­neh­men soll­ten Teams im Bereich KI-Inte­gra­ti­on und Prompt-Engi­nee­ring schu­len und diver­si­fi­zier­te Inhal­te bereit­stel­len ki-agen­ten. Die Fähig­keit, mit KI-Agen­ten zu kom­mu­ni­zie­ren, wird zur Kern­kom­pe­tenz – ver­gleich­bar damit, wie in den frü­hen 2000er Jah­ren die Beherr­schung von HTML und CSS zum Stan­dard wurde.

Die Macht­ver­schie­bung im Markt

Goog­le bleibt mit Chro­me domi­nant, da es über eine umfas­sen­de Infra­struk­tur und ein brei­tes Öko­sys­tem ver­fügt. Doch die Her­aus­for­de­rer rücken nach. Ope­nAI, Per­ple­xi­ty, und ande­re Akteu­re expe­ri­men­tie­ren mit neu­en Para­dig­men. KI-Brow­ser könn­ten Brow­sing-Erfah­run­gen revo­lu­tio­nie­ren, indem sie Auf­ga­ben auto­ma­ti­sie­ren und per­so­na­li­sier­te Vor­schlä­ge geben.

Die Fra­ge ist nicht mehr, ob die­ser Wan­del kommt, son­dern wer ihn domi­nie­ren wird. Die eta­blier­ten Tech-Gigan­ten haben den Vor­teil der Infra­struk­tur und der Nut­zer­ba­sis. Die Her­aus­for­de­rer haben den Vor­teil der Agi­li­tät und der unbe­fan­ge­nen Visi­on. Der Kampf um die Kon­trol­le über das agen­ten­ge­steu­er­te Web hat gera­de erst begonnen.

Ein unver­meid­li­cher Paradigmenwechsel

Das Web wur­de für Men­schen gebaut, und das war rich­tig so. Aber die Zukunft gehört nicht den Maschi­nen auf Kos­ten der Men­schen – son­dern einer hybri­den Infra­struk­tur, die bei­de glei­cher­ma­ßen bedient. Nicht als Kom­pro­miss, son­dern als Erweiterung.

KI-Agen­ten wer­den das Inter­net nicht erset­zen, son­dern die Art der Nut­zung revo­lu­tio­nie­ren. Die agen­ti­sche Navi­ga­ti­on ist kein futu­ris­ti­sches Sze­na­rio mehr. Sie fin­det bereits statt, holp­rig und feh­ler­an­fäl­lig, aber unauf­halt­sam. In naher Zukunft wer­den vie­le Men­schen über­wie­gend über ihre Agen­ten ins Inter­net gehen, wäh­rend Web­sei­ten zu rei­nen Daten­quel­len für die­se Agen­ten werden.

Die Fra­ge ist nicht, ob das Inter­net sich anpas­sen wird, son­dern wie schnell – und wer bei die­ser Trans­for­ma­ti­on führt und wer folgt. Unter­neh­men und Web­sei­ten­be­trei­ber müs­sen sich dar­auf ein­stel­len, dass ihre Ange­bo­te künf­tig pri­mär von Maschi­nen und nicht mehr von Men­schen kon­su­miert werden.

Ein Web, das Maschi­nen eben­so ver­steht wie Men­schen, ist kei­ne Visi­on. Es ist eine Not­wen­dig­keit. Und es wird kom­men, ob wir bereit sind oder nicht. Die Archi­tek­tur des Inter­nets steht vor ihrer größ­ten Trans­for­ma­ti­on seit der Erfin­dung des Brow­sers – und dies­mal sind es nicht Men­schen, die den Wan­del trei­ben, son­dern die Maschi­nen, die wir erschaf­fen haben, um uns das Sur­fen abzunehmen.


Quel­len:

KI-Agen­ten lösen klas­si­sche Web­brow­ser ab

Wer­den KI-Agen­ten das Inter­net erset­zen? – Der Para­dig­men­wech­sel im Web

From human clicks to machi­ne intent: Pre­pa­ring the web for agen­tic AI