Getting your Trinity Audio player ready...

Von Ralf Keuper

Kann es sein, dass wir falsch damit lie­gen, von KI-Sys­te­men die glei­chen kogni­ti­ven Fähig­kei­ten zu ver­lan­gen, wie von uns Men­schen? Reicht es statt­des­sen even­tu­ell aus, wenn die Sys­te­me mit uns auf halb­wegs sinn­vol­le Art und Wei­se kommunizieren?

Bene­dikt Zönn­chen stellt in Gene­ra­ti­ve KI: Zwi­schen Werk­zeug und Kom­mu­ni­ka­ti­ons­part­ner die­sen Stand­punkt vor.

Ver­tre­ter der star­ken KI glau­ben, “dass eine KI, die tat­säch­lich ̈chlich pla­nen kann, frü­her oder spä­ter Zugriff auf ein adap­ti­ves Welt­mo­dell haben muss, um Situa­tio­nen ”durch­zu­spie­len“ zu kön­nen”. Dem­ge­gen­über war der Kri­ti­ker der Star­ken KI, Hubert Drey­fus, der Auf­fas­sung, dass kein Welt­mo­dell in unse­rem Kopf exis­tiert. Nur die Welt selbst kön­ne das gesuch­te Modell sein.

“Folgt man jedoch einer kon­struk­ti­vis­ti­schen Auf­fas­sung, wie sie etwa Niklas Luh­mann (1927–1998) ver­tritt, besteht eine gro­ße Chan­ce, dass sich Drey­fus in die­sem Punkt irrt. Ob wir ein sol­ches Welt­mo­dell kon­stru­ie­ren kön­nen und die­ses zu einer intel­li­gen­ten Maschi­ne führt, wird die Zukunft zei­gen. Mög­li­cher­wei­se braucht es eine Kom­bi­na­ti­on aus sym­bo­li­scher und daten­ge­trie­be­ner Model­lie­rung, wobei die Fähig­keit sym­bo­li­sche Mani­pu­la­tio­nen durch­zu­füh­ren, unter Umstän­den ”gelernt“ wer­den kann (Mar­cus, 2022)—jedoch nicht, indem man, wie es zuvor ver­sucht wur­de, mit Sym­bo­len beginnt”.

Zönn­chen geht im wei­te­ren Ver­lauf näher auf das Kon­zept der Künst­li­chen Kom­mu­ni­ka­ti­on von Ele­na Epo­si­to ein (vgl. dazu: Arti­fi­ci­al Com­mu­ni­ca­ti­on. How Algo­rith­ms Pro­du­ce Social Intel­li­gence) Gene­ra­ti­ve KI besitzt dem­zu­fol­ge die Fähig­keit, an “Kom­mu­ni­ka­ti­on teil­zu­neh­men, ohne zu ver­ste­hen, was kom­mu­ni­ziert wird—genauso wie das Papier ein Gedächt­nis dar­stellt, wel­ches nicht den­ken kann. Damit umgeht sie den schwer zu defi­nie­ren­den Begriff der Intel­li­genz. .. Kurz gesagt, es scheint für eine effek­ti­ve Kom­mu­ni­ka­ti­on uner­heb­lich, ob sie vom Sen­der und der Emp­fän­ge­rin ver­stan­den wer­den kann. Wich­tig ist ledig­lich, ob der Inhalt für die Emp­fän­ge­rin Sinn ergibt. Eigent­lich klingt das sehr ein­leuch­tend, gerät aber im Dis­kurs ins Hin­ter­tref­fen, wenn wir davon spre­chen, ”dass ChatGPT ver­steht was ich mei­ne“. Wir gehen davon aus, dass es ver­ste­hen muss, da es andern­falls kei­ne Ant­wort geben könn­te, aus der ich Sinn kon­stru­ie­ren kann. Den Begriff ”ver­ste­hen“ soll­te man des­halb, wenn über­haupt, nur meta­pho­risch nutzen”. 

Die Fra­ge, ob Gene­ra­ti­ve KI ein Werk­zeug oder mehr sei, gehe daher am Kern des Pro­blems vor­bei: “Selbst wenn die­se (gro­ße Sprach­mo­del­le) eben nicht ver­ste­hen, was am ande­ren Ende Sinn ergibt, so könn­te es sein, dass zukünf­tig künst­li­che und sozia­le Sys­te­me durch das Pro­zes­sie­ren von Spra­che gekop­pelt wer­den. Zum ers­ten Mal in der Mensch­heits­ge­schich­te wäre es mög­lich, fast flie­ßend mit Maschi­nen zu kom­mu­ni­zie­ren. Die­se Kop­pe­lung könn­te der zwi­schen sozia­len und psy­chi­schen Sys­te­men ähneln. Die Schnitt­stel­le zu diver­sen digi­ta­len Sys­te­men ist ver­mut­lich bald, wenn gewünscht, als Sprach­schnitt­stel­le rea­li­sier­bar und zwar mit all den Vor- und Nach­tei­len des kon­tin­gen­ten Cha- rak­ters der Kom­mu­ni­ka­ti­on. Eine sol­che Kopp­lung könn­te auch bedeu­te­ten, dass sich eine Sym­bio­se bil­den könn­te, ähn­lich der zwi­schen sozia­len Netz­wer­ken und deren Nutzer:innen.”

Da KI-Sys­te­me nicht wirk­lich den­ken kön­nen, son­dern am Kom­mu­ni­ka­ti­ons­pro­zess teil­neh­men, stel­len sie laut Epo­si­to für den Men­schen und die Gesell­schaft kei­ne ech­te Gefahr dar.

Der Algo­rith­mus nimmt an der Kom­mu­ni­ka­ti­on teil und ver­sucht, die­se auf­recht­zu­er­hal­ten. Es ist ja in der Tat so, dass bei Nach­fra­ge die Falsch­in­for­ma­ti­on gewöhn­lich auf­fliegt, da das Sys­tem eben nicht intel­li­gent ist und sei­nen Feh­ler ver­schlei­ert oder auch nur ver­steht, dass es einen Feh­ler began­gen hat.

Die Gesell­schaft besteht für Luh­mann, Epo­si­to so wie für die moder­ne Sys­tem­theo­rie gene­rell aus Kom­mu­ni­ka­ti­on. Der Ansatz hat jedoch sei­ne Gren­zen bzw. Tücken:

Nach Espo­si­to wer­den die Mas­sen­me­di­en auch in Zukunft kein objek­ti­ves Fens­ter in die Welt bie­ten kön­nen. Statt­des­sen bau­en sie eine eige­ne spe­zi­fi­sche Welt auf, die zur Refe­renz­welt der Öffent­lich­keit wird. Die­se ist nicht belie­big und hält die Gesell­schaft in einem rast­lo­sen Zustand. Die Gefahr ist nicht nur, dass fal­sche Infor­ma­tio­nen ver­brei­tet wer­den, son­dern dass die Refe­renz­welt zer­brö­ckelt, sodass nie­mand mehr plau­si­bel davon aus­ge­hen kann, infor­miert zu sein und einer Gemein­schaft von Men­schen anzu­ge­hö­ren, die sich auf die­sel­ben Nach­rich­ten bezieht (Espo­si­to, 2024, S. 66). Einer­seits muss die offe­ne Gesell­schaft meh­re­re Wel­ten tole­rie­ren; ande­rer­seits wäre eine Gesell­schaft, in der alle Indi­vi­du­en in ihrer eige­nen Welt leben, wohl kei­ne Gesell­schaft mehr.

Wei­te­re Informationen:

Arti­fi­ci­al Com­mu­ni­ca­ti­on? The Pro­duc­tion of Con­tin­gen­cy by Algorithms

Intel­li­gent or Com­mu­ni­ca­ti­ve?: On Ele­na Esposito’s “Arti­fi­ci­al Communication”

Why Algo­rith­ms Can’t Think: “Arti­fi­ci­al Com­mu­ni­ca­ti­on” by Ele­na Esposito

Zuerst erschie­nen auf KI Agen­ten