Goog­le ruft zur Vor­sicht beim Ein­satz von KI-Chat­bots auf

Nach­dem Micro­soft mit der Inte­gra­ti­on der künst­li­chen Intel­li­genz (KI) „Chat GPT” in die Such­ma­schi­ne „Bing” den Druck auf den Kon­kur­ren­ten Goog­le erhöht hat, warnt die­ser vor dem unbe­dach­ten Ein­satz von KI in Chat­bots. „Die­se Art von künst­li­cher Intel­li­genz, über die wir gera­de spre­chen, kann manch­mal zu etwas füh­ren, das wir Hal­lu­zi­na­ti­on nen­nen”, sag­te Goo­gles Such­ma­schi­nen-Chef Prab­ha­kar Rag­ha­van der „Welt am Sonn­tag”. „Das drückt sich dann so aus, dass eine Maschi­ne eine über­zeu­gen­de, aber kom­plett frei erfun­de­ne Ant­wort liefert.” 

Eine der grund­le­gen­den Auf­ga­ben sei es, dies auf ein Mini­mum zu beschrän­ken. Goog­le hat in die­ser Woche einen eige­nen Chat­bot mit dem Namen „Bard” vor­ge­stellt und damit auf das Vor­pre­schen des Start-ups „Open AI” reagiert, das bereits vor Wochen sei­ne eige­ne Lösung mit der Bezeich­nung „Chat GPT” ver­öf­fent­licht hat­te. Das Goog­le-Pen­dant „Bard” lässt Goog­le der­zeit von eini­gen Nut­zern tes­ten. Ein Wer­be­vi­deo für „Bard” war auf Kri­tik gesto­ßen, nach­dem dar­in die Goog­le-KI eine fal­sche Infor­ma­ti­on dar­ge­stellt hat­te. Rag­ha­van zufol­ge über­legt Goog­le, wie „Bard” in die Such­funk­tio­nen ein­ge­bun­den wer­den kann, „ins­be­son­de­re auch für die Fra­gen, auf die es eben nicht nur eine ein­zi­ge Ant­wort gibt”. Wann Goog­le sei­nen Chat­bot öffent­lich macht, hat der Kon­zern noch nicht ver­ra­ten. „Wir spü­ren natür­lich die Dring­lich­keit, aber wir spü­ren auch die gro­ße Ver­ant­wor­tung”, sag­te Rag­ha­van. „Wir wol­len die Öffent­lich­keit auf kei­nen Fall in die Irre füh­ren”, sag­te er. „Die rie­si­gen Sprach­mo­del­le, die hin­ter die­ser Tech­no­lo­gie ste­cken, machen es unmög­lich, jedes denk­ba­re Ver­hal­ten des Sys­tems durch Men­schen zu über­wa­chen. Aber wir wol­len es in so gro­ßem Stil tes­ten, dass wir am Ende zufrie­den sind mit den von uns ver­wen­de­ten Mess­grö­ßen, die wir nut­zen, um die Sach­lich­keit der Ant­wor­ten zu über­prü­fen.” Men­schen soll­ten grund­sätz­lich wach­sam sein, wenn sie mit den Ergeb­nis­sen kon­fron­tiert wer­den, die ihnen von einem Chat­bot prä­sen­tiert wer­den, hin­ter dem eine künst­li­che Intel­li­genz steht, sag­te der Goog­le-Mana­ger. Es sei wich­tig, dass Nut­zer die Instru­men­te bekä­men, um Ergeb­nis­se über­prü­fen zu kön­nen. Dazu zäh­le auch, die Quel­len offen­zu­le­gen. „Wir legen an uns selbst einen sehr hohen Maß­stab an”, sag­te Rag­ha­van. „Und es ist auch mein Ziel, bei den Chat­bots füh­rend zu sein in Bezug auf die Inte­gri­tät der Infor­ma­tio­nen, aber auch die Ver­ant­wor­tung, die wir über­neh­men. Nur so wer­den wir das Ver­trau­en der Öffent­lich­keit behal­ten kön­nen.” (dts Nachrichtenagentur)

Foto: Goog­le-Zen­tra­le in Kali­for­ni­en, über dts Nachrichtenagentur

Anmer­kun­gen zum Bei­trag? Hin­weis an die Redak­ti­on sen­den.