Getting your Trinity Audio player ready...

Deep­Seek, das neue chi­ne­si­sche KI-Modell, stellt eine ernst­zu­neh­men­de Bedro­hung für US-ame­ri­ka­ni­sche Tech­no­lo­gie­kon­zer­ne und indi­rekt auch für Kryp­to­wäh­run­gen dar. Mit Ent­wick­lungs­kos­ten von nur 15 Mil­lio­nen US-Dol­lar hat Deep­Seek R1 ein KI-Modell geschaf­fen, das mit füh­ren­den US-Model­len wie ChatGPT kon­kur­rie­ren kann. Dies stellt die Mil­li­ar­den­in­ves­ti­tio­nen und die Domi­nanz von US-Tech-Gigan­ten im KI-Bereich infra­ge[1]Deep­Seek-R1: Das KI-Modell, das selbst Yann LeCun beein­druckt[2]Deep­Seek R1: Ein Durch­bruch in der Open-Source-KI

Ursa­chen für die Effizienzgewinne 

Deep­Seek R1 erreicht sei­ne beein­dru­cken­den Effi­zi­enz­ge­win­ne durch meh­re­re inno­va­ti­ve Ansät­ze. Zen­tral ist die Mix­tu­re-of-Experts (MoE) Archi­tek­tur, die nur rele­van­te Para­me­ter für jede spe­zi­fi­sche Auf­ga­be akti­viert und so die Res­sour­cen­nut­zung opti­miert. Ergänzt wird dies durch die Mul­ti-Head Latent Atten­ti­on (MLA) Tech­nik, die red­un­dan­te Berech­nun­gen redu­ziert und die Auf­merk­sam­keit auf Schlüs­sel­mus­ter kon­zen­triert, was die Effi­zi­enz wei­ter stei­gert[3]Deep­Seek-R1: Chi­ne­si­sches Modell erreicht in Bench­marks Reaso­ning-Leis­tung von Ope­nAIs o1.

Ein Schlüs­sel­ele­ment ist das rei­ne Rein­force­ment Lear­ning, mit dem Deep­Seek R1 aus­schließ­lich trai­niert wur­de, ohne vor­he­ri­ges Super­vi­sed Fine-Tuning. Dies ermög­licht auto­no­mes Ler­nen und Opti­mie­rung des Schluss­fol­gerns bei gleich­zei­ti­ger dras­ti­scher Redu­zie­rung der Trai­nings­kos­ten. Die effi­zi­en­te Para­me­ter­nut­zung spielt eben­falls eine wich­ti­ge Rol­le: Mit ins­ge­samt 671 Mil­li­ar­den Para­me­tern, von denen nur etwa 37 Mil­li­ar­den pro Token aktiv sind, lie­fert das Modell eine außer­ge­wöhn­li­che Leis­tung bei gleich­zei­ti­ger Ressourceneffizienz.

Beson­ders bemer­kens­wert sind die kos­ten­ef­fek­ti­ven Trai­nings­me­tho­den: Die Trai­nings­kos­ten von Deep­Seek R1 belau­fen sich auf etwa 15 Mil­lio­nen Dol­lar, ver­gli­chen mit 150 Mil­lio­nen Dol­lar bei Meta, was eine zehn­fa­che Effi­zi­enz­stei­ge­rung dar­stellt. Die­se Kom­bi­na­ti­on aus fort­schritt­li­cher Archi­tek­tur, inno­va­ti­ven Trai­nings­me­tho­den und effi­zi­en­ter Res­sour­cen­nut­zung ermög­licht es Deep­Seek R1, beein­dru­cken­de Leis­tun­gen zu erbrin­gen und dabei gleich­zei­tig die Kos­ten und den Res­sour­cen­ver­brauch im Ver­gleich zu ande­ren füh­ren­den KI-Model­len erheb­lich zu reduzieren.

Markt­re­ak­ti­on 

Die Markt­re­ak­ti­on war deut­lich: Die Futures von Nvi­dia, Broad­com, Meta und ande­ren US-KI-Unter­neh­men bra­chen ein, Nasdaq-Futures fie­len um 1,8%, S&P 500-Futures um 0,9%. Auch Kryp­to­wäh­run­gen wur­den in Mit­lei­den­schaft gezo­gen: Bit­co­in stürz­te um 6,5% ab, der größ­te Tages­ver­lust seit Dezem­ber 2024, wäh­rend XRP und Sol­a­na etwa 9% verloren.

Indi­rek­te Aus­wir­kun­gen auf Bit­co­in und Krypto 

  • Star­ker Kurs­ein­bruch: Bit­co­in ist um mehr als 6,5% gefal­len und rutsch­te unter die 100.000-Dollar-Marke.
  • Ande­re Kryp­to­wäh­run­gen wie XRP und Sol­a­na ver­zeich­ne­ten sogar Ver­lus­te von bis zu 9–11%
  • Mas­si­ve Liqui­da­tio­nen: In den 24 Stun­den nach der Deep­Seek-Ankün­di­gung wur­den Kryp­to-Posi­tio­nen im Wert von fast 1 Mil­li­ar­de USD liqui­diert, wobei allein Long-Posi­tio­nen im Wert von 569 Mil­lio­nen USD auf­ge­löst wurden.
  • Aus­wir­kun­gen auf AI-Token: KI-bezo­ge­ne Kryp­to­wäh­run­gen wur­den beson­ders hart getrof­fen, mit einem Rück­gang der Markt­ka­pi­ta­li­sie­rung um fast 13% auf 36,4 Mil­li­ar­den USD.

Ein­schrän­kun­gen

  • Es gibt der­zeit kei­ne Bewei­se dafür, dass Deep­Seek einen direk­ten Ein­fluss auf Kryp­to­wäh­rungs­kur­se hat.
  • Kryp­to­wäh­rungs­kur­se eben­so wie die von Bit­co­in, wer­den von vie­len Fak­to­ren beein­flusst, dar­un­ter Markts­en­ti­ment, regu­la­to­ri­sche Nach­rich­ten, makro­öko­no­mi­sche Bedin­gun­gen und tech­no­lo­gi­sche Ent­wick­lun­gen im Kryp­to-Bereich selbst.
  • KI-Ent­wick­lun­gen wie Deep­Seek könn­ten theo­re­tisch indi­rek­te Aus­wir­kun­gen auf den Tech­no­lo­gie­sek­tor haben, aber ein direk­ter Ein­fluss auf Kryp­to­wäh­run­gen ist nicht belegt.
  • Kurs­be­we­gun­gen von Bit­co­in und ande­ren Kryp­to­wäh­run­gen soll­ten im Kon­text ihrer eige­nen Markt­dy­na­mi­ken und spe­zi­fi­schen Nach­rich­ten aus dem Kryp­to-Sek­tor betrach­tet werden.

Mög­li­che Konsequenzen 

Deep­Seek wider­legt die Annah­me, dass KI-Ent­wick­lung immer mehr Rechen­leis­tung und Ener­gie benö­tigt. Dies könn­te zu einem Umden­ken bei Inves­ti­tio­nen in KI-Tech­no­lo­gien füh­ren und die Preis­macht der US-Tech-Gigan­ten bedro­hen. Der Erfolg von Deep­Seek könn­te die US-Domi­nanz im KI-Bereich gefähr­den und mög­li­cher­wei­se Bil­lio­nen an Markt­wert an der Nasdaq auslöschen[mfn]DeepSeek, alles über den chi­ne­si­schen Außen­sei­ter, was Ope­nAI zum Zit­tern bringt[/mfn]. Obwohl Kryp­to­wäh­run­gen nicht direkt betrof­fen sind, lei­den sie unter der all­ge­mei­nen Markt­un­si­cher­heit und dem Aus­ver­kauf ris­kan­ter Assets. Der Bit­co­in-Kurs fiel unter 100.000 US-Dollar.

Trotz der aktu­el­len Markt­tur­bu­len­zen bleibt abzu­war­ten, ob sich Deep­Seek lang­fris­tig als trag­fä­hi­ge, kos­ten­güns­ti­ge­re Alter­na­ti­ve eta­blie­ren wird. Die Situa­ti­on unter­streicht die Dyna­mik und Unsi­cher­heit im schnell­le­bi­gen Tech­no­lo­gie- und Kryptosektor.

Unter­schie­de zwi­schen Deep­Seek V3 und Deep­Seek R1

Deep­Seek V3 und Deep­Seek R1 unter­schei­den sich in meh­re­ren wich­ti­gen Aspek­ten, obwohl bei­de auf einer ähn­li­chen Archi­tek­tur mit 671 Mil­li­ar­den Para­me­tern und 37 Mil­li­ar­den akti­vier­ten Para­me­tern pro Token basieren.

R1 wur­de spe­zi­ell auf Reaso­ning-Fähig­kei­ten aus­ge­rich­tet und mit­tels groß­an­ge­leg­tem Rein­force­ment Lear­ning trai­niert, wäh­rend V3 ein all­ge­mei­ne­res Modell mit einem brei­te­ren Fähig­keits­spek­trum ist. In Bezug auf die Leis­tung erreicht R1 bei Reaso­ning-Bench­marks eine mit Ope­nAI-o1-1217 ver­gleich­ba­re Leis­tung und über­trifft V3 bei Wis­sens-Bench­marks wie MMLU, MMLU-Pro und GPQA Dia­mond deut­lich. V3 zeigt jedoch in eini­gen Berei­chen wie IFE­val eine leicht bes­se­re Performance.

R1 zeich­net sich beson­ders durch sei­ne Stär­ken in Mathe­ma­tik- und Coding-Auf­ga­ben aus, wäh­rend V3 effi­zi­en­te­res Trai­ning und inno­va­ti­ve Last­ver­tei­lung bie­tet. Ein wei­te­rer Unter­schied liegt in der maxi­ma­len Aus­ga­be­län­ge: R1 kann bis zu 32.000 Token in einer Anfra­ge gene­rie­ren, V3 hin­ge­gen nur 8.000 Token.

Hin­sicht­lich der Kos­ten ist die API-Nut­zung von V3 deut­lich güns­ti­ger, sowohl bei Input- als auch bei Out­put­kos­ten. V3 wur­de am 27. Dezem­ber 2024 ver­öf­fent­licht, R1 folg­te am 21. Janu­ar 2025. Für die Zukunft plant Deep­Seek bei R1 Ver­bes­se­run­gen in Berei­chen wie Func­tion Cal­ling, Mul­ti-Turn-Dia­lo­ge und kom­ple­xe Rol­len­spie­le, in denen es der­zeit hin­ter V3 zurückliegt.

Ins­ge­samt reprä­sen­tie­ren bei­de Model­le unter­schied­li­che Ansät­ze in der Ent­wick­lung fort­schritt­li­cher KI-Model­le, wobei R1 auf spe­zia­li­sier­te Reaso­ning-Fähig­kei­ten und V3 auf brei­te Anwend­bar­keit und Effi­zi­enz setzt.

Mix­tu­re of Experts (MoE)
Eine Mix­tu­re of Experts (MoE) Archi­tek­tur ist ein fort­schritt­li­cher Ansatz im maschi­nel­len Ler­nen, der die Effi­zi­enz und Ska­lier­bar­keit von KI-Model­len verbessert.

Die­se Metho­de unter­teilt ein gro­ßes neu­ro­na­les Netz­werk in meh­re­re spe­zia­li­sier­te Teil­net­ze, die als “Exper­ten” bezeich­net werden.

Funk­ti­ons­wei­se Experten:

  • Jeder Exper­te ist auf bestimm­te Teil­auf­ga­ben oder Ein­ga­be­be­rei­che spezialisiert.
  • Gating-Netz­werk: Ein zen­tra­les Ele­ment, das ent­schei­det, wel­che Exper­ten für eine bestimm­te Ein­ga­be akti­viert wer­den sollen.
  • Selek­ti­ve Akti­vie­rung: Anstatt das gesam­te Netz­werk für jede Auf­ga­be zu akti­vie­ren, wer­den nur die rele­van­ten Exper­ten eingesetzt.

Vor­tei­le

  • Effi­zi­enz: Redu­ziert Rechen­kos­ten und Spei­cher­be­darf, beson­ders bei gro­ßen Modellen.
  • Ska­lier­bar­keit: Ermög­licht die Ent­wick­lung von Model­len mit Mil­li­ar­den von Para­me­tern bei gleich­zei­ti­ger Bei­be­hal­tung der Effizienz.
  • Spe­zia­li­sie­rung: Jeder Exper­te kann sich auf spe­zi­fi­sche Aspek­te der Auf­ga­be konzentrieren.
    Anwendungen

MoE wird beson­ders in der Ver­ar­bei­tung natür­li­cher Spra­che (NLP) und bei gro­ßen Sprach­mo­del­len (LLMs) ein­ge­setzt. Bei­spie­le sind das Mix­tral 8x7B von Mis­tral und mög­li­cher­wei­se GPT‑4 von OpenAI2 und eben Open­Seek V3 und Open­Seek R1. Die­se Archi­tek­tur bie­tet einen Kom­pro­miss zwi­schen der höhe­ren Kapa­zi­tät grö­ße­rer Model­le und der Effi­zi­enz klei­ne­rer Model­le, was sie zu einer viel­ver­spre­chen­den Zukunfts­tech­no­lo­gie für KI-Sys­te­me macht.

Rein­force­ment Lear­ning (RL)
Rein­force­ment Lear­ning (RL) ist ein wich­ti­ges Teil­ge­biet des maschi­nel­len Ler­nens in der künst­li­chen Intel­li­genz. Es basiert auf dem Prin­zip des Ler­nens durch Inter­ak­ti­on mit einer Umge­bung, wobei ein Agent Ent­schei­dun­gen trifft und dafür Beloh­nun­gen oder Bestra­fun­gen erhält.

Funk­ti­ons­wei­se

  • Agent: Ein KI-Sys­tem, das Aktio­nen in einer Umge­bung ausführt.
  • Umge­bung: Der Kon­text, in dem der Agent agiert.
  • Aktio­nen: Ent­schei­dun­gen, die der Agent trifft.
  • Beloh­nun­gen: Feed­back für die Aktio­nen des Agenten.
  • Ziel: Maxi­mie­rung der kumu­la­ti­ven Beloh­nun­gen über Zeit.

Der Agent lernt durch Ver­such und Irr­tum, opti­ma­le Stra­te­gien zu ent­wi­ckeln, um lang­fris­tig die bes­ten Ergeb­nis­se zu erzielen.

Anwen­dungs­be­rei­che

Rein­force­ment Lear­ning fin­det in ver­schie­de­nen Berei­chen Anwendung:

  • Auto­no­me Sys­te­me: Fahr­zeu­ge, Droh­nen und Roboter
  • Spie­le-KI: Pro­gram­me wie Alpha­Ze­ro für Schach und Go
  • Finanz­we­sen: Port­fo­lio-Opti­mie­rung und algo­rith­mi­sches Trading
  • Ener­gie­op­ti­mie­rung: Effi­zi­enz­stei­ge­rung in Smart Grids
  • Per­so­na­li­sier­tes Mar­ke­ting: Anpas­sung von Emp­feh­lun­gen und Werbung
  • Indus­tri­el­le Anwen­dun­gen: Steue­rung von Pro­duk­ti­ons­an­la­gen und Logistikflotten

Vor­tei­le und Herausforderungen

Vor­tei­le:

  • Fähig­keit zur Anpas­sung an dyna­mi­sche Umgebungen
  • Lösung kom­ple­xer Pro­ble­me ohne expli­zi­te Programmierung
  • Kon­ti­nu­ier­li­che Ver­bes­se­rung durch Ler­nen aus Erfahrung

Her­aus­for­de­run­gen:

  • Benö­tigt oft gro­ße Daten­men­gen und Rechenleistung
  • Schwie­rig­kei­ten bei der Über­tra­gung von simu­lier­ten auf rea­le Umgebungen
  • Ethi­sche Beden­ken bei auto­no­men Entscheidungssystemen

Rein­force­ment Lear­ning ist ein leis­tungs­fä­hi­ger Ansatz in der KI, der es Sys­te­men ermög­licht, kom­ple­xe Auf­ga­ben zu bewäl­ti­gen und sich kon­ti­nu­ier­lich zu ver­bes­sern, indem sie aus ihren Inter­ak­tio­nen mit der Umwelt lernen.

Zuerst erschie­nen auf KI-Agenten