Im Gespräch mit Prof. Dr. August-Wil­helm Scheer, Grün­der und Allein­ge­sell­schaf­ter der Scheer-Unter­neh­men und Dr. Wolf­ram Jost, Geschäfts­füh­rer und CTO der Scheer Unternehmen

  • Was waren aus Ihrer Sicht die wesent­li­chen Ver­än­de­run­gen in der Soft­ware­ent­wick­lung und bei der Pro­zess­au­to­ma­ti­sie­rung der letz­ten Jahrzehnte?

Die wesent­li­chen Ver­än­de­run­gen im Bereich der Soft­ware­ent­wick­lung waren Cloud, DevOps, Low Code, Micro­ser­vices, API´s und Con­tai­ner. Mit der Cloud wur­de ein völ­lig neu­es Deploy­ment Modell für Soft­ware ein­ge­führt. Soft­ware­sys­te­me wer­den nicht mehr als Pro­dukt gekauft und in einem loka­len Rechen­zen­trum betrie­ben, son­dern aus der Cloud als Ser­vice kon­su­miert (SaaS). DevOps bezeich­net die Kom­bi­na­ti­on von Deve­lo­p­ment und Ope­ra­ti­ons. Ziel ist es, die DevOps Pipe­line (Design, Deve­lop, Test, Deploy, Moni­tor und Mana­ge) so weit als mög­lich zu auto­ma­ti­sie­ren. Man bezeich­net die­sen Ansatz auch als CI/​CD (Con­ti­nuous Integration/​Deployment). Es geht dar­um, die Zeit von der Idee bis zur Aus­lie­fe­rung der fer­ti­gen Soft­ware­funk­tio­na­li­tät so gering als mög­lich zu hal­ten. Low Code Tools haben die Ziel­set­zung, die Soft­ware­ent­wick­lung zu demo­kra­ti­sie­ren. Die­se Tools stel­len gra­fi­sche Ober­flä­chen zur Ver­fü­gung, mit denen Sys­tem­mo­del­le erstellt wer­den kön­nen. Die­se gra­fi­schen Model­le kön­nen dann auf Knopf­druck auto­ma­tisch in Code über­führt wer­den. Mit die­sen Tools sol­len auch nicht IT-Exper­ten (Citi­zen Deve­lo­per) in die Lage ver­setzt wer­den, Soft­ware zu ent­wi­ckeln. Moder­ne Sys­te­me fol­gen heu­te dem MSA (Micro­ser­vices Archi­tec­tu­re) Ansatz. Das heißt, die Sys­te­me bestehen nicht mehr aus einer ein­zi­gen, gro­ßen mono­li­thi­schen Kom­po­nen­te, son­dern aus meh­re­ren klei­nen, unab­hän­gi­gen Modu­len. Hier­durch sol­len im Wesent­li­chen die Ska­lier­bar­keit erhöht und die Anpas­sungs­ge­schwin­dig­keit beschleu­nigt wer­den. Con­tai­ner­ma­nage­ment betrifft den Pro­zess der Soft­ware­ver­tei­lung. Die ein­zel­nen Kom­po­nen­ten eines Ser­vices (Sys­tems) wer­den in einen soge­nann­ten Con­tai­ner gepackt, der dann als Ein­heit deploy­ed und ver­wal­tet wird. Die Con­tai­ner stel­len eine Art Betriebs­sys­tem-Vir­tua­li­sie­rung dar. Damit wird das Deploy­ment fle­xi­bler und stan­dar­di­sier­ba­rer. Mit API´s wur­de die Kom­mu­ni­ka­ti­on zwi­schen Sys­te­men auf neue Bei­ne gestellt. Ein API ist eine Art Ver­trag, der zwi­schen zwei Sys­te­men abge­schlos­sen wird. Der Ver­trag besagt, wel­che Daten und Funk­tio­nen aus­ge­tauscht wer­den kön­nen, in wel­chem For­mat die­ser Aus­tausch erfolgt und mit wel­chem Pro­to­koll „gespro­chen“ wird.

All die­se Din­ge tref­fen auch auf die Sys­te­me der Pro­zess­au­to­ma­ti­sie­rung zu. Ein wesent­li­cher Aspekt kommt hier aber hin­zu. Und das ist die Kon­ver­genz. Waren frü­her die Berei­che Inte­gra­ti­on, Pro­zess­au­to­ma­ti­sie­rung und API Manage­ment getrenn­te Sys­te­me, so ver­schmel­zen die­se heu­te zu einer ein­heit­li­chen Platt­form mit einer ein­heit­li­chen Design­um­ge­bung, einer inte­grier­ten Archi­tek­tur und einer gemein­sa­men Run-Time. Wei­te­re Ver­än­de­run­gen fan­den im Bereich der Archi­tek­tur statt.

  • Wel­che Aus­wir­kun­gen hat die Gene­ra­ti­ve KI auf die Soft­ware­ent­wick­lung und die Softwarearchitekturen?

Der Ein­satz von KI in der Soft­ware­ent­wick­lung ist heu­te schon in vie­len Unter­neh­men geleb­te Pra­xis. Im Wesent­li­chen geht es hier­bei um die Berei­che Code­ge­nerie­rung, Test­ge­ne­rie­rung, Feh­ler­ana­ly­se, Doku­men­ta­ti­on und Feh­ler­su­che. Die KI-Sys­te­me arbei­ten hier­bei nach dem Prin­zip des „Input-Out­put-Map­pings“. Das heißt, auf Basis eines gege­be­nen Inputs wird ein Out­put auto­ma­tisch gene­riert. Beim Input und Out­put kann es sich um Text, Code, Model­le, Gra­fi­ken, Kenn­zah­len, Dash­boards etc. han­deln. So kann bei­spiel­wei­se aus Text Code gene­riert wer­den. Die­se Mög­lich­kei­ten kön­nen zu einer höhe­ren Pro­duk­ti­vi­tät der Ent­wick­ler füh­ren und somit den Ent­wick­lungs­pro­zess stark beschleu­ni­gen. Auch gibt es die Idee, dass mit die­sen KI-Sys­te­men zukünf­tig auch nicht IT-Exper­ten in die Lage ver­setzt wer­den, Soft­ware ent­wi­ckeln kön­nen und somit dem Man­gel an qua­li­fi­zier­ten Soft­ware­ent­wick­lern begeg­net wer­den kann (No Code). Den­noch ist dar­auf hin­zu­wei­sen, dass der gene­rier­te Out­put immer nur so gut ist, wie der vor­ge­ge­be­ne Input. Die „Kunst“ ver­la­gert sich also vom Schrei­ben von Code auf das Schrei­ben von Prompts (Input). Aber, auch hier gilt der Satz, kei­ne Wir­kung ohne Neben­wir­kun­gen. Die Ergeb­nis­se der KI-Gene­rie­rung müs­sen (zumin­dest heu­te noch) im Nach­hin­ein von Exper­ten auf Feh­ler über­prüft wer­den. Mit ande­ren Wor­ten, man kann den Ergeb­nis­sen nicht trau­en. Das liegt dar­an, dass die KI-Sys­te­me häu­fig „hal­lu­zi­nie­ren“. Man könn­te auch sagen, sie „lügen“. Und sie machen das auf eine sehr über­zeu­gen­de Art und Wei­se. Das „Hal­lu­zi­nie­ren“ liegt im Wesent­li­chen an der Art und Wei­se, wie die Lar­ge Lan­guage Model­le auf­ge­baut und trai­niert wer­den. Es han­delt sich prin­zi­pi­ell um eine Wahr­schein­lich­keits­ver­tei­lung über Wör­ter (Token). Das Ein­zi­ge, was die Model­le somit tun, ist, das nächs­te Wort (Token) vor­her­zu­sa­gen (Pre­dic­tion). Das heißt die LLM´s haben kein Wis­sen über die Bedeu­tung von dem, was sie „sagen“. Die­se Not­wen­dig­keit, die von einem KI-Sys­tem gene­rier­ten Ergeb­nis­se durch Exper­ten über­prü­fen zu las­sen, ist natür­lich eine Ein­schrän­kung des zuvor genann­ten Pro­duk­ti­vi­täts­ge­winns. Auch der Ein­satz von nicht IT-Exper­ten wird hier­durch ein­ge­schränkt. Ein wei­te­rer Punkt ist das The­ma „IP-Schutz“ (Intellec­tu­al Pro­per­ty). Es besteht die Mög­lich­keit, dass der von einem KI-Sys­tem gene­rier­te Code eine Ver­let­zung des geis­ti­gen Eigen­tums dar­stel­len kann. Der Grund liegt in der Tat­sa­che begrün­det, dass die­se Model­le mit einer rie­si­gen Men­ge an Code trai­niert wer­den und die­ser Code Bestand­tei­le beinhal­ten kann, die IP- recht­lich geschützt sind.

  • Ist es für Sie vor­stell­bar, dass in Zukunft auch anspruchs­vol­le­re Tätig­kei­ten in der Soft­ware­ent­wick­lung durch auto­no­me Agen­ten über­nom­men werden?

Natür­lich ist das vor­stell­bar. Die Ent­wick­lung der KI-Sys­te­me hat erst gera­de begon­nen. Und sie ent­wi­ckeln sich mit rasen­der Geschwin­dig­keit wei­ter. Model­le wer­den Mul­ti­mo­dal, das heißt, sie ver­ei­nen meh­re­re Modi (Text, Bil­der, Code, Voice) in einem ein­zi­gen Modell. Das Kon­text­fens­ter wird immer grö­ßer, so dass die Prompts immer umfang­rei­cher und kom­ple­xer wer­den kön­nen. Durch das Groun­ding und durch RAG (Retrie­val Aug­men­ted Gene­ra­ti­on) wer­den die Model­le in die Lage ver­setzt, mit „exter­nen“ Daten zu arbei­ten, was die Ver­läss­lich­keit der Ergeb­nis­se erhöht. Somit wer­den sich die Ein­satz­ge­bie­te auch ent­spre­chend wei­ter­ent­wi­ckeln. Es gibt aber ein paar offe­ne Fra­gen. So zum Bei­spiel die Fra­ge, ob das bis­her gel­ten­de Natur­ge­setz (bei LLM´s), „grö­ßer ist bes­ser“, auch wei­ter­hin gel­ten wird. Oder gibt es ein Pla­teau, wo trotz noch mehr Para­me­ter (Wahr­schein­lich­kei­ten) die Model­le nicht mehr bes­ser oder sogar schlech­ter wer­den. Des Wei­te­ren stellt sich die Fra­ge, wo noch mehr Trai­nings­da­ten her­kom­men sol­len. Gehen den Model­len die Daten aus? Man­che Exper­ten sagen, dass alle bestehen­den Daten­quel­len bereits genutzt wur­den und es nicht mehr vie­le Daten gibt, die noch ver­wen­det wer­den kön­nen. Hier ver­sucht man mit syn­the­ti­schen Daten Abhil­fe zu schaf­fen. Die nächs­te Fra­ge, die sich stellt, ist die Ener­gie­fra­ge. Die Pro­duk­ti­on (das Trai­nie­ren) gro­ßer LLM´s mit meh­re­ren Bil­lio­nen an Para­me­tern ver­braucht rie­si­ge Men­ge an Ener­gie. Eine Chat GPT Abfra­ge ver­braucht 2,9 Watt pro Stun­de. Eine Goog­le Suche 0,3 Watt pro Stun­de. AWS baut gera­de das neu­es­te Daten­cen­ter direkt neben einem Atom­kraft­werk mit 2,5 Giga­watt. Ener­gie wird zu einem der wich­tigs­ten Erfolgs­fak­to­ren der KI. Und zu guter Letzt die Fra­ge nach der Ver­läss­lich­keit. Neben der Ener­gie­fra­ge ist das für mich der ent­schei­den­de Punkt. Wird die Ver­läss­lich­keit der Sys­te­me zule­gen? Weil die heu­ti­ge Ver­läss­lich­keit der KI-Sys­te­me für einen zukünf­ti­gen Durch­bruch nicht aus­rei­chend ist.

  • Wor­an lag es, dass Mul­ti­agen­ten­sys­te­me (MAS) über Jahr­zehn­te eigent­lich nur in der Theo­rie bzw. als Pro­of of Con­cept existierten?

Hier­zu muss man das Kon­zept der MAS mal etwas bes­ser ver­ste­hen. Agen­ten sind auto­no­me Soft­ware­kom­po­nen­ten, die in der Lage sind, Auf­ga­ben aus­zu­füh­ren, Ent­schei­dun­gen zu tref­fen oder mit ande­ren Agen­ten zu kom­mu­ni­zie­ren. Wei­te­re Kom­po­nen­ten von MAS sind Tools, Auf­ga­ben und Pro­zes­se. Auf­ga­ben sind direkt den Agen­ten zuge­ord­net und trans­for­mie­ren einen gege­be­nen Input in einen defi­nier­ten Out­put. Tools sind Skills oder Funk­tio­nen, die Agen­ten ver­wen­den kön­nen, um Auf­ga­ben durch­zu­füh­ren. Pro­zes­se ver­knüp­fen meh­re­re Agen­ten zu einer über­ge­ord­ne­ten Ziel­set­zung (Stra­te­gie). Die Tat­sa­che, dass sol­che Sys­te­me erst jetzt von prak­ti­scher Rele­vanz sind, liegt an der rasan­ten Ent­wick­lung der LLM´s. Ein LLM ist die zen­tra­le Schalt­stel­le in MAS. Sie ver­bin­den Tools, Auf­ga­ben, Agen­ten und Pro­zes­se und über­neh­men so die zen­tra­le Steue­rung inner­halb eines MAS. Die erst heu­te vor­han­de­ne Fähig­keit von LLM´s exter­ne API´s auf­zu­ru­fen, ist hier ein wesent­li­ches Kern­ele­ment. Auch die Tat­sa­che, dass moder­ne LLM´s unter­ein­an­der kom­mu­ni­zie­ren kön­nen und sich somit Auf­ga­ben tei­len kön­nen, ist eine wesent­li­che Vor­aus­set­zung für MAS. Das alles gab es bis heu­te nicht. Eine MAS geht damit weit über das hin­aus, was die bis­he­ri­gen KI-Sys­te­me leis­ten kön­nen, näm­lich die Gene­rie­rung von Text, Bil­dern oder Spra­che. In einem MAS neh­men die LLM´s Steue­rungs­funk­tio­nen war.

  • Könn­te die Gene­ra­ti­ve KI den Durch­bruch für MAS im gro­ßen Stil brin­gen, d.h. las­sen sich wei­te Tei­le der Unter­neh­mens­pro­zes­se durch MAS steuern?

Davon bin ich über­zeugt. Die rei­ne „Gene­rie­rung“ wird sich zwar auch in wei­te­re Anwen­dungs­ge­bie­te aus­brei­ten, aber der eigent­li­che Durch­bruch wird erst dann gesche­hen, wenn die KI-Sys­te­me betriebs­wirt­schaft­li­che Steue­rungs­funk­tio­nen über­neh­men kön­nen. Sie wer­den damit zu dem Ner­ven­sys­tem der Unter­neh­men. Im Ver­gleich zu heu­ti­gen Steue­rungs­sys­te­men ist dies ein völ­lig neu­er Ansatz. Heu­ti­ge Steue­rungs­sys­te­me für fach­li­che Pro­zes­se, wie bei­spiels­wei­se ERP- oder CRM-Sys­te­me, arbei­ten nach dem fol­gen­den Prin­zip: Men­schen über­le­gen sich, wel­che Pro­zes­se und Daten in einem Unter­neh­men von Bedeu­tung sind (Auf­trags­ab­wick­lung, Bestell­ab­wick­lung, Ein­kaufs­ab­wick­lung) und imple­men­tie­ren die­se Pro­zes­se dann in Soft­ware. Man fügt noch ein paar Para­me­ter hin­zu, um gewis­sen Anpas­sun­gen vor­neh­men zu kön­nen. Die Pro­zes­se wer­den also im Vor­feld defi­niert und pro­gram­miert. Das bedeu­tet, dass nach­her in den Unter­neh­men immer nur die Pro­zes­se aus­ge­führt wer­den kön­nen, die vor­ge­dacht wur­den und auch immer nur in der pro­gram­mier­ten Art und Wei­se. Ver­än­de­run­gen die­ser Pro­zes­se sind auf­wän­dig, teu­er, kom­plex und lang­wie­rig. Mit Speed of Chan­ge hat das wenig zu tun. Durch den Ein­satz von MAS kann es hier zu einer völ­lig neu­ar­ti­gen Archi­tek­tur kom­men. Es wer­den ledig­lich die Agen­ten, Tools und Auf­ga­ben defi­niert. Die Logik der Pro­zes­se dage­gen ergibt sich erst wäh­rend der Aus­füh­rung. Das heißt, es wer­den kei­ne Blau­pau­sen vor­ge­ge­ben, son­dern der Pro­zess ergibt sich auto­ma­tisch und dyna­misch wäh­rend der Pro­zess­aus­füh­rung. So kön­nen Pro­zes­se dyna­misch gestal­tet und fle­xi­bel aus­ge­führt wer­den. Die Fähig­keit von Agen­ten, sich mit ande­ren Agen­ten dyna­misch und situa­ti­ons­be­zo­gen zu unter­hal­ten, spielt hier eine gro­ße Rol­le. Inso­fern könn­ten MAS zu einer völ­lig neu­en Pro­zess­stra­te­gie in den Unter­neh­men führen.

  • Wel­che Anpas­sun­gen an der IT-Infra­struk­tur und Orga­ni­sa­ti­on müs­sen die Unter­neh­men vor­neh­men, um die ver­teil­te Künst­li­che Intel­li­genz, wovon MAS nur ein Teil sind, auf wirt­schaft­li­che und ver­ant­wort­li­che Wei­se nut­zen zu können?

Durch den Ein­satz von MAS wird sich die Fra­ge, wie eine IT-Infra­struk­tur zu gestal­ten ist, dra­ma­tisch ver­än­dern. Hier­bei spielt die Cloud eine wesent­li­che Rol­le. Es ist davon aus­zu­ge­hen, dass sol­che MAS pri­mär als Cloud­ser­vice kon­su­miert wer­den und nicht als Pro­dukt gekauft wer­den kön­nen. Eine eige­ne IT-Infra­struk­tur zum Betrieb von MAS auf­zu­bau­en, ist für die Mehr­heit der Unter­neh­men fach­lich nicht mach­bar und finan­zi­ell nicht zu ver­kraf­ten. Auch bezüg­lich der Orga­ni­sa­ti­on wer­den sich durch den Ein­satz von MAS wesent­li­che Ver­än­de­run­gen erge­ben. Die heu­ti­gen Unter­neh­men sind in der Regel funk­ti­ons­ori­en­tiert struk­tu­riert (Res­sour­cen­op­ti­mie­rung). Es gibt Funk­tio­nen wie Ein­kauf, Ver­kauf, Finan­zen, Mar­ke­ting, usw. Geschäfts­pro­zes­se dage­gen inter­es­sie­ren sich nicht für funk­tio­na­le Orga­ni­sa­ti­ons­ein­hei­ten. Geschäfts­pro­zes­se lau­fen quer zu den Unter­neh­mens­funk­tio­nen. Wenn es nun gelingt, dass durch den Ein­satz von MAS die Vor­ab­de­fi­ni­ti­on von Geschäfts­pro­zes­sen nicht mehr erfor­der­lich ist und Pro­zes­se sich erst zu ihrer Aus­füh­rungs­zeit selbst dyna­misch defi­nie­ren, dann könn­te sich die klas­si­sche Funk­ti­ons­or­ga­ni­sa­ti­on zu einer ech­ten Pro­zess­or­ga­ni­sa­ti­on ent­wi­ckeln. Die Agen­ten über­neh­men die Auf­ga­be der Funk­ti­ons­ein­hei­ten, die Tasks über­neh­men die Funk­tio­nen, die Tools über­neh­men die Soft­ware-Capa­bi­li­ties und die LLM´s über­neh­men die über­grei­fen­de Gesamt­steue­rung der Unternehmensprozesse.

  • Wo liegt die Grenze?

Die Gren­zen lie­gen in den bereits zuvor erläu­ter­ten Her­aus­for­de­run­gen moder­ner KI-Systeme:

  1. Sind wir in der Lage, die not­wen­di­ge Ener­gie für die Ver­sor­gung sol­cher MAS wirt­schaft­lich zu pro­du­zie­ren und kos­ten­güns­tig bereitzustellen?
  2. Wird die Ver­läss­lich­keit der KI-Sys­te­me ein Niveau errei­chen, das auto­no­me Sys­te­me brau­chen, um gesell­schaft­li­che Akzep­tanz zu fin­den? (sie­he auto­no­mes Fahren).
  3. Ist die heu­ti­ge Archi­tek­tur von LLM´, die auf Neu­ro­na­len Net­zen, Atten­ti­on Mecha­nis­mus, Back­pro­pa­ga­ti­on und Gra­di­ent Des­cent basie­ren, aus­rei­chend, um ska­lier­ba­re, per­for­man­te, siche­re und pfleg­ba­re KI-Sys­te­me zu entwickeln?
  4. Wie viel „Macht“ ist der Mensch wil­lens und in der Lage, an auto­no­me Sys­te­me abzu­ge­ben und wo ist der Mensch unersetzlich?
  • Wie könn­te das Zusam­men­spiel von Inte­gra­ti­ons­platt­for­men wie Scheer PAS und Mul­ti­agen­ten­sys­te­men aussehen?

Wir sind dabei, Scheer PAS in ein Mul­ti­agen­ten­sys­tem zu trans­for­mie­ren. Wir sind der Mei­nung, dass die klas­si­sche Archi­tek­tur von Inte­gra­ti­ons- und Pro­zess­platt­for­men nicht mehr zeit­ge­mäß ist, um die viel­fäl­ti­gen Anfor­de­run­gen der digi­ta­len Unter­neh­mens­welt zu erfül­len. Der tra­di­tio­nel­le Auf­bau von Inte­gra­ti­ons­platt­for­men mit den Kom­po­nen­ten Design Tool, Run-Time, Moni­to­ring und Ver­wal­tung wer­den zwar fach­lich erhal­ten blei­ben, aber auf der Basis von Agen­ten, Tools, Task und Pro­zes­sen neu­ar­tig umge­setzt. Unse­re Grund­idee ist, dass die heu­ti­ge klas­si­sche Lauf­zeit­um­ge­bung von Scheer PAS durch ein LLM ersetzt wird, die Inte­gra­ti­ons­lo­gik über Pro­zes­se defi­niert und von Agen­ten aus­ge­führt wird. Der Weg dort­hin wird in meh­re­ren Schrit­ten erfol­gen. Als ers­tes wol­len wir in der Lage sein, LLM´s als End­punk­te über API´s anzu­spre­chen und auf die­se Wei­se in unse­re heu­ti­ge Archi­tek­tur zu inte­grie­ren. Die wei­te­ren Schrit­te wer­den dann suk­zes­si­ve folgen.

  • Wie sehen die Soft­ware­ent­wick­lung und Pro­zess­au­to­ma­ti­sie­rung in fünf Jah­ren aus?

Sol­che Pro­gno­sen sind immer schwie­rig. Ich gehe davon aus, dass die fach­li­chen Funk­tio­nen der Soft­ware­ent­wick­lung erhal­ten blei­ben. Soft­ware muss auch in 5 Jah­ren desi­gned, ent­wi­ckelt, getes­tet, ver­teilt, über­wacht und ver­wal­tet wer­den. Dar­an geht kein Weg vor­bei. Das „Was“ wird sich des­halb kaum ändern. Was sich aber stark ver­än­dern wird, ist das „Wie“ und das „Wer“. Auto­ma­ti­sie­rung und Auto­no­mie sind hier die ent­schei­den­den Schlag­wor­te. Der Soft­ware­ent­wick­lungs­pro­zess wird größ­ten­teils durch KI-Sys­te­me auto­ma­ti­siert wer­den. Der Mensch wird wei­ter­hin invol­viert sein. Zum einen als „Über­wa­chungs­in­stanz“ und zum ande­ren als „Erfin­der“. Letz­te­res immer dort, wo mensch­li­ches Bewusst­sein erfor­der­lich ist. Zuvor wur­de bereits erläu­tert, dass KI-Sys­te­me im Wesent­li­chen Input-Out­put Map­pings dar­stel­len. Somit ist die Qua­li­tät des Inputs maß­geb­lich für die Qua­li­tät des Out­puts. Heu­te kommt die­ser Input vom Men­schen. Die zen­tra­le Fra­ge wird sein, von wem kommt die­ser Input in 5 Jah­ren. Soll­te sich die­ses in der Wei­se umkeh­ren, dass auch die Maschi­ne den Input defi­nie­ren kann, dann sind wir in einer völ­lig neu­en Welt. Für die Pro­zess­au­to­ma­ti­sie­rung wur­de schon zuvor die Pro­gno­se gemacht. Sie liegt in der Ablö­sung der tra­di­tio­nel­len Anwen­dungs­sys­te­me durch Mul­ti­agen­ten­sys­te­me mit dyna­mi­scher Prozessgestaltung.

Das Gespräch führ­te Ralf Keuper 

Das Inter­view wur­de zuerst auf KI-Agen­ten veröffentlicht