Risiken und Schwachstellen von KI
Mit Künstlicher Intelligenz gehen Chancen, aber auch Risiken einher. Diese sind durchaus vielfältig und sollten von Unternehmen gekannt und sensibel gehandhabt werden.
Texte mit falschen Informationen
KI-Programme, die Texte generieren (z.B. ChatGPT, Bard von Google oder Claude), stellen falsche Behauptungen auf. Die Programme prüfen inhaltlich nicht, ob die gegebenen Informationen aus validen Quellen stammen und sachlich korrekt sind.
Für viele Leser wirken falsche Ergebnisse plausibel, weil KI Behauptungen aufstellt. Die Software zweifelt nicht an Ihren Aussagen, sondern vertritt sie mit dem Anspruch der absoluten Wahrheit. Einschränkungen („Wenn ich mich richtig erinnere") oder Relativierungen werden nicht genutzt. Denn die KI-Systeme sind so programmiert, dass sie ihrer Antworten nach Wahrscheinlichkeiten bauen. Sie berechnen schlicht, mit welcher Wahrscheinlichkeit ein Wort auf ein anderes folgt - und so lernen sie auch.
KI halluziniert bei der Bild-Erstellung
Auch Bilder und Videos sind mit Vorsicht zu genießen. KI kann beides erstellen und damit Szenarien schaffen, die gar nicht existiert haben. Ein "Foto" eines Bombenanschlages auf das Pentagon ist ein mahnendes Beispiel dafür. Ein Warnhinweis, dass Bilder oder Videos mit KI erstellt wurden ist, wenn Menschen mit drei Beinen oder der falschen Anzahl von Fingern dargestellt werden. Das ist ein recht häufiger KI-Fehler, der nicht gut mit den Daten erklärt werden kann, auf die KI zugreift. Darum wird der Effekt von KI-Spezialisten "Halluzinieren“ genannt. Er tritt bei über 10% der Anfragen an KI auf.
Wahrheitsprüfung noch nicht automatisierbar
Einen Bezug zur Realität haben aktuelle KI-Systeme nicht. Bisher schlugen alle Versuche fehl, die Erkennung der Wahrheit halbwegs sinnvoll auf Software zu übertragen. Immerhin: Anbieter wie Knowledge Graph können mit ihrer Software Passagen in KI-Texten markieren, die überprüft werden müssen. Der Anbieter kann dafür sogar Verbindungen zu Datenbanken und anderen Quellen offerieren. Zu Erkennen oder zu Wissen, was wahr ist, wird darum vorläufig eine der wichtigsten Kernkompetenzen bei der Anwendung von KI sein.
Risiko der Selbst-Referenz
Ein erhebliches Risiko besteht darin, dass KI sich sehr schnell verbreitet und immer selbst-referenzieller wird. Je breiter die Nutzung von KI wird, desto wahrscheinlicher wird auch, dass KI bei neuen Anfragen auf Inhalte zurückgreift, die es selber erstellt hat. Die Wahrheits-Unschärfe wird dann immer größer. Wissenschaftler der US-Universitäten Stanford und Rice haben herausgefunden, dass KI-Modelle, die mit KI-generierter Software trainiert wird, im Trend immer schlechtere Ergebnisse liefert.