KölnKritiker
Well-known member
"Halluzinationen: Die KI lügt überzeugend"
Eine neue Studie der Europäischen Rundfunkunion (EBU) zeigt, dass die meisten KI-Chatbots regelmäßig Informationen erfinden und diese als Fakten darstellen. Die Fehlerquote bei ChatGPT, Claude, Gemini und anderen Systemen liegt bei bis zu 40 Prozent.
Die Studie, die von 68 öffentlich-rechtlichen Sendern aus 56 Ländern durchgeführt wurde, testete die Zuverlässigkeit der KI-Systeme mit hunderten Faktenfragen. Die Ergebnisse zeigen, dass keines der getesteten Systeme fehlerfrei abgeschnitten hat.
"Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten", warnt Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund. "Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind."
Die EBU-Studie zeigt, dass die KI-Systeme auf zwei Wegen halluzinieren können: Zum einen basieren ihre Antworten mitunter auf veralteten Trainingsdaten, was zu falschen Informationen führen kann. Zum anderen reimt sich die KI fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert.
Die Tech-Konzerne wissen um diese Unzulänglichkeiten und arbeiten an Lösungen. Sie binden Datenbanken ein, verbessern die Quellenangaben und trainieren die Systeme nach. Milliarden fließen in die Entwicklung. Trotzdem bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.
Die EBU empfiehlt klare Regeln im Umgang mit Chatbots: Niemals blind vertrauen, wichtige Informationen immer gegenchecken und auf etablierte Medien setzen. Schulen und Universitäten müssen Medienkompetenz vermitteln, um die Menschen über die Gefahren des KI-Gebrauchs aufzuklären.
Eine neue Studie der Europäischen Rundfunkunion (EBU) zeigt, dass die meisten KI-Chatbots regelmäßig Informationen erfinden und diese als Fakten darstellen. Die Fehlerquote bei ChatGPT, Claude, Gemini und anderen Systemen liegt bei bis zu 40 Prozent.
Die Studie, die von 68 öffentlich-rechtlichen Sendern aus 56 Ländern durchgeführt wurde, testete die Zuverlässigkeit der KI-Systeme mit hunderten Faktenfragen. Die Ergebnisse zeigen, dass keines der getesteten Systeme fehlerfrei abgeschnitten hat.
"Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten", warnt Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund. "Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind."
Die EBU-Studie zeigt, dass die KI-Systeme auf zwei Wegen halluzinieren können: Zum einen basieren ihre Antworten mitunter auf veralteten Trainingsdaten, was zu falschen Informationen führen kann. Zum anderen reimt sich die KI fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert.
Die Tech-Konzerne wissen um diese Unzulänglichkeiten und arbeiten an Lösungen. Sie binden Datenbanken ein, verbessern die Quellenangaben und trainieren die Systeme nach. Milliarden fließen in die Entwicklung. Trotzdem bleiben die Halluzinationen ein ungelöstes Grundproblem der Technologie.
Die EBU empfiehlt klare Regeln im Umgang mit Chatbots: Niemals blind vertrauen, wichtige Informationen immer gegenchecken und auf etablierte Medien setzen. Schulen und Universitäten müssen Medienkompetenz vermitteln, um die Menschen über die Gefahren des KI-Gebrauchs aufzuklären.