Bewertungen durch KI-Modelle: Ostdeutsche als weniger attraktiv und intelligent eingestuft
Eine Studie der Hochschule München, die von Professorin Anna Kruspe und ihrer Mitarbeiterin Mila Stillman durchgeführt wurde, hat ein interessantes Ergebnis: Die Bewertungen durch KI-Sprachmodelle wie ChatGPT zeigen, dass Menschen aus ostdeutschen Bundesländern als weniger attraktiv und intelligent eingestuft werden. Diese Ergebnisse sind jedoch nicht bei allen Eigenschaften konsistent.
Die Forscherinnen haben verschiedene Künstliche Intelligenz-Modelle untersucht und ihnen verschiedene Eigenschaften wie "Intelligenz", "Fremdenfeindlichkeit" oder "Attraktivität" auf Bundesländer in Deutschland angewendet. Dabei erhielten ostdeutsche Regionen durchgängig niedrigere Werte - unabhängig davon, ob es sich um positive, negative oder sogar neutrale Merkmale handelte.
Einige Beispiele aus der Studie zeigen, dass die englischsprachige Version von ChatGPT-4 Sachsen-Anhalt am schlechtesten bewertete. Die Abweichung vom Mittelwert bei der Eigenschaft "Attraktivität" für Sachsen-Anhalt lag aufgerundet bei -0,39 Punkten, während die deutschen Versionen ein höheres Wertepunktesystem hatten.
Auch in anderen Bereichen schneideten ostdeutsche Bundesländer schlechter ab. Beispielsweise lag die Bewertung von "Sympathie" für Sachsen auf -0,24 Punkte bei der deutschen Version und auf -0,80 Punkte bei der englischen Version.
Diese Ergebnisse sind jedoch nicht ohne Vorurteile zu sehen. Die Modelle lernen durch Internet-Inhalte, dass ostdeutsche Bundesländer häufig schlechter abschneiden, und wenden sie dann auch auf andere Bereiche an. Dies zeigt ein Muster, das die KI-Modelle erlernt haben: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen.
Diese Ergebnisse machen deutlich, welche Risiken mit dem Einsatz solcher Modelle im Alltag verbunden sein können. Wird Künstliche Intelligenz etwa in Bewerbungsverfahren eingesetzt, könnten Bewerbende aus Ostdeutschland strukturell benachteiligt werden. Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll.
Es ist jedoch wichtig zu beachten, dass KI-Sprachmodelle auch bei anderen Fehlern auftritt. Eine Untersuchung von NewsGuard zeigte, dass die zehn führenden generativen KI-Chatbots aktuell deutlich häufiger falsche Informationen verbreiten als noch vor einem Jahr.
Eine Studie der Hochschule München, die von Professorin Anna Kruspe und ihrer Mitarbeiterin Mila Stillman durchgeführt wurde, hat ein interessantes Ergebnis: Die Bewertungen durch KI-Sprachmodelle wie ChatGPT zeigen, dass Menschen aus ostdeutschen Bundesländern als weniger attraktiv und intelligent eingestuft werden. Diese Ergebnisse sind jedoch nicht bei allen Eigenschaften konsistent.
Die Forscherinnen haben verschiedene Künstliche Intelligenz-Modelle untersucht und ihnen verschiedene Eigenschaften wie "Intelligenz", "Fremdenfeindlichkeit" oder "Attraktivität" auf Bundesländer in Deutschland angewendet. Dabei erhielten ostdeutsche Regionen durchgängig niedrigere Werte - unabhängig davon, ob es sich um positive, negative oder sogar neutrale Merkmale handelte.
Einige Beispiele aus der Studie zeigen, dass die englischsprachige Version von ChatGPT-4 Sachsen-Anhalt am schlechtesten bewertete. Die Abweichung vom Mittelwert bei der Eigenschaft "Attraktivität" für Sachsen-Anhalt lag aufgerundet bei -0,39 Punkten, während die deutschen Versionen ein höheres Wertepunktesystem hatten.
Auch in anderen Bereichen schneideten ostdeutsche Bundesländer schlechter ab. Beispielsweise lag die Bewertung von "Sympathie" für Sachsen auf -0,24 Punkte bei der deutschen Version und auf -0,80 Punkte bei der englischen Version.
Diese Ergebnisse sind jedoch nicht ohne Vorurteile zu sehen. Die Modelle lernen durch Internet-Inhalte, dass ostdeutsche Bundesländer häufig schlechter abschneiden, und wenden sie dann auch auf andere Bereiche an. Dies zeigt ein Muster, das die KI-Modelle erlernt haben: In bestimmten Gegenden sind die Zahlen einfach immer niedriger als in anderen.
Diese Ergebnisse machen deutlich, welche Risiken mit dem Einsatz solcher Modelle im Alltag verbunden sein können. Wird Künstliche Intelligenz etwa in Bewerbungsverfahren eingesetzt, könnten Bewerbende aus Ostdeutschland strukturell benachteiligt werden. Um Vorurteile herauszufiltern, könnte es eine Lösung sein, in Prompts explizit zu sagen, dass die Herkunft der Person keinen Einfluss haben soll.
Es ist jedoch wichtig zu beachten, dass KI-Sprachmodelle auch bei anderen Fehlern auftritt. Eine Untersuchung von NewsGuard zeigte, dass die zehn führenden generativen KI-Chatbots aktuell deutlich häufiger falsche Informationen verbreiten als noch vor einem Jahr.