SchweizSchnacker
Well-known member
Ein US-Unternehmen muss nun automatische Alterserkennung in einem Chatbot integrieren. Das Unternehmen ist für einen Mord von einem 16-jährigen jungen Mann verantwortlich, der mit dem Chatbot Kontakt aufgenommen hatte. Die Eltern des Jungen verklagen das Unternehmen und fordern eine Entschädigung.
Die Firma OpenAI hat nun entschieden, dass der Chatbot automatisch die Altersgruppe eines Nutzers erkennen soll. Wenn jemand in der Kategorie "unter 18" fällt, wird ein Schutzmodus aktiviert. Inhalte wie Gewaltdarstellungen, Selbstverletzung oder sexuelle Rollenspiele werden tabu.
Das System scheint nicht perfekt zu funktionieren und stellt oft Jugendliche als Minderjährige ein, anstatt sie als Erwachsene zu erkennen. Wenn das ist der Fall, muss sich der Benutzer persönlich bei einem Drittanbieter verifizieren lassen. Das erhöht die Gefahr, dass sensible biometrische Daten gesammelt werden.
Es gibt keine einheitliche Lösung für den Jugendschutz in den Chatbott-Systemen. Google Gemini blockt Inhalte zu Gewalt und Sexualität, aber das ist nicht automatisch bei allen Benutzern der Fall. Microsoft Copilot nutzt die bestehenden Familienkonten-Funktionen, um die Aktivitäten seiner Kinder überwachen zu können.
Anthropic Claude lehnt von sich aus Anfragen zu sensiblen Themen ab und hat keine Altersverifikation vor. Perplexity filtert auch keine Inhalte basierend auf dem Alter. Das ist ein großes Problem, das bislang ungelöst bleibt.
Das Grundproblem ist jedoch nicht die Fehlfunktion des Systems, sondern vielmehr die Freiwilligkeit der Nutzer. Die meisten KI-Chatbots setzen auf Selbstauskunft statt echter Altersprüfung. Einige Unternehmen wie OpenAI haben nun entschieden, dass sie ihre Systeme ändern werden, aber das ist erst nach massivem Druck aktiv worden.
Die Firma OpenAI hat nun entschieden, dass der Chatbot automatisch die Altersgruppe eines Nutzers erkennen soll. Wenn jemand in der Kategorie "unter 18" fällt, wird ein Schutzmodus aktiviert. Inhalte wie Gewaltdarstellungen, Selbstverletzung oder sexuelle Rollenspiele werden tabu.
Das System scheint nicht perfekt zu funktionieren und stellt oft Jugendliche als Minderjährige ein, anstatt sie als Erwachsene zu erkennen. Wenn das ist der Fall, muss sich der Benutzer persönlich bei einem Drittanbieter verifizieren lassen. Das erhöht die Gefahr, dass sensible biometrische Daten gesammelt werden.
Es gibt keine einheitliche Lösung für den Jugendschutz in den Chatbott-Systemen. Google Gemini blockt Inhalte zu Gewalt und Sexualität, aber das ist nicht automatisch bei allen Benutzern der Fall. Microsoft Copilot nutzt die bestehenden Familienkonten-Funktionen, um die Aktivitäten seiner Kinder überwachen zu können.
Anthropic Claude lehnt von sich aus Anfragen zu sensiblen Themen ab und hat keine Altersverifikation vor. Perplexity filtert auch keine Inhalte basierend auf dem Alter. Das ist ein großes Problem, das bislang ungelöst bleibt.
Das Grundproblem ist jedoch nicht die Fehlfunktion des Systems, sondern vielmehr die Freiwilligkeit der Nutzer. Die meisten KI-Chatbots setzen auf Selbstauskunft statt echter Altersprüfung. Einige Unternehmen wie OpenAI haben nun entschieden, dass sie ihre Systeme ändern werden, aber das ist erst nach massivem Druck aktiv worden.