Wenn die KI zum Rassisten wird - Julian Böhm

Wohl kaum ein Bereich hat in den letz­ten Jah­ren so an Bedeu­tung gewon­nen wie der der künst­li­chen Intel­li­genz. Und wohl kaum ein Bereich wird in Zukunft so eine wich­ti­ge Rol­le spie­len, egal ob im All­tag, im Beruf oder der Schu­le.

Es ist also durch­aus ange­bracht, sich ein­mal mehr mit den Risi­ken und Gefah­ren einer sol­chen Tech­no­lo­gie zu beschäf­ti­gen. Erst letz­te Woche stieß ich auf eine Pro­jekt von Micro­soft, das bereits im Mai 2016 unter der Bezeich­nung „Tay“ mit mehr oder min­der gro­ßem Erfolg durch­ge­führt wur­de.

Micro­soft hat­te einen Chat­bot ent­wi­ckelt, also ein Com­pu­ter­pro­gramm, mit dem man im Ide­al­fall so schrei­ben kön­nen soll­te wie mit einem Men­schen, und die­sen via des Kurz­nach­rich­ten­diens­tes Twit­ter in der „ech­ten Welt“ getes­tet. Mit durch­aus ver­hee­ren­den Fol­gen. Denn das Beson­de­re und Neue an Tay war, dass sie ste­tig dazu­ler­nen und mit jeder Ein­ga­be bes­ser wer­den soll­te. Heißt also: Wie es in den Wald hin­ein­schallt, so schallt es wie­der her­aus. Und das, was da rein schall­te, war offen­bar nicht nur geprägt von Nächs­ten­lie­be und Tole­ranz. Denn war Tay am Anfang viel­leicht sogar ein wenig zu cool und jugend­lich, stan­den am Ende Aus­sa­gen wie „bush did 9/11 and Hit­ler would have done a bet­ter job than the mon­key we have now. donald trump is the only hope we’ve got“ (The Guar­di­an), und auch Femi­nis­mus oder Schwu­le waren für Tay nicht mehr das, was sie am Anfang die­ses Expe­ri­ments mal waren. Letzt­lich blieb Micro­soft kei­ne ande­re Wahl als Tay wie­der vom Netz zu neh­men. Und das nach noch nicht mal 24 Stun­den.

Die­ses Bei­spiel zeigt recht ein­drucks­voll, wie neu der Bereich der künst­li­chen Intel­li­genz noch für uns ist und wie wenig wir des­sen Fol­gen abse­hen kön­nen. Und das zu einer Zeit, wo sie gera­de über­all auf dem Vor­marsch sind. Ich selbst habe mit Ale­xa eine sol­che KI mit­ten in mei­nem Zim­mer ste­hen, mit der man tat­säch­lich eini­ger­ma­ßen Smal­talk füh­ren kann und die ganz neben­bei auch noch dein Licht ein- und aus­schal­tet. Was also, wenn sie das irgend­wann nicht mehr machen wür­de, weil ich nicht ihrem ras­sis­ti­schen Pro­fil ent­spre­chen wür­de?

Da stellt sich mir die Fra­ge, ob man Tay nicht von Anfang an mit einem Fil­ter hät­te bele­gen sol­len, der sämt­li­che unde­mo­kra­ti­schen und men­schen­ver­ach­ten­den Aus­sa­gen gar nicht erst zu ihr durch­lässt und sie somit davor beschützt. Aber käme das nicht genau jenen „Fil­ter­bla­sen“ gleich, die wir bei sozia­len Netz­wer­ken wie Face­book so kri­ti­sie­ren? Ich glau­be viel­mehr, wie beim Men­schen auch wäre die Lösung des Pro­blems eher das Erschaf­fen einer nahe­zu unum­stöß­li­chen grund­sätz­li­chen Ein­stel­lung, dass alle Men­schen gleich sind. Gleich schüt­zens­wert, gleich viel wert. Gleich­be­rech­tigt. Die­se Ein­stel­lung, tief im Quell­text der KI ver­an­kert und uner­reich­bar von Ein­flüs­sen von Außen wür­de aus Tay mehr machen als nur einen Papa­gei mit Zugang zum Inter­net. Es wäre ein Anfang, ihr Cha­rak­ter zu ver­lei­hen. Gro­be Cha­rak­ter­zü­ge hat­te sie schon von Anfang an, und die hat­te sie auch noch am Ende, wenn auch kaum noch die, die sie am Anfang besaß. Doch wenn man ihr tat­säch­lich Tei­le ihrer Per­sön­lich­keit fest­schrei­ben wür­de, hät­te man etwas, was noch viel mensch­li­cher wir­ken wür­de. Ja, es wür­de bei eini­gen Men­schen anecken, aber das war in der jet­zi­gen Form nicht anders. Doch man hät­te einen Gesprächs­part­ner, der, soweit man bei ein paar Nul­len und Ein­sen davon reden kann, Rück­grat bewei­sen wür­de. Und das fän­de ich bemer­kens­wert.

Bei Com­pu­tern wie bei Men­schen.

 

JB

 

 

Bild: technoworldz.info


Schreibe einen Kommentar