Die Europäische Union hat eine Einigung über die Chatkontrolle erreicht. Dennoch wird es laut den Plänen der EU-Kommission keine Pflicht geben, Nachrichten mit Darstellungen sexualisierter Gewalt an Kindern automatisiert zu durchsuchen. Eine solche Verpflichtung wurde von Deutschland abgelehnt.
Stattdessen sollen die Apps und Plattformen demnach freiwillig Kontrollen einleiten. Die EU-Staaten setzen auf eine dauerhafte Ausnahme, die es ihnen trotz europäischer Datenschutzregeln erlaubt, den Eingriff in elementare Bürgerrechte. Drei Jahre nach Inkrafttreten soll die EU-Kommission prüfen, ob doch eine Verpflichtung der Anbieter notwendig ist.
Auch ohne die verpflichtende Kontrolle sind die Messaging-Dienste und Online-Plattformen aufgefordert, gegen Darstellungen sexualisierter Gewalt an Kindern vorzugehen. Sie sollen Risiken für Kinder benennen und minimieren können, Altersangaben ihrer Nutzerinnen und Nutzer verlässlich überprüfen sowie Altersgrenzen durchsetzen.
Ein EU-Zentrum für den Kampf gegen Kindesmissbrauch im Netz soll laut dem Gesetzestext eingerichtet werden. Es soll in Verbindung mit den Messaging-Diensten sowie Plattformen stehen und die nationalen Behörden bei ihrer Arbeit unterstützen sollen. Die Verhandlungen über den Gesetzestext sollen bald mit dem Europäischen Parlament beginnen.
Der Vorschlag, auf den sich Deutschland weigerte, wurde seit Jahren in der EU gestritten. Grundlage der Verhandlungen ist ein Vorschlag der EU-Kommission aus dem Jahr 2022, der eine Automatisierte Durchsuchung von Chats vorsieht, um Nachrichten mit Darstellungen sexualisierter Gewalt an Kindern zu finden und bei Ermittlungsbehörden anzugeben. Das Bundesjustizministerium hatte sich gegen den Vorschlag ausgesprochen und betonte, dass eine solche Chatkontrolle in einem Rechtsstaat tabu sei.
Stattdessen sollen die Apps und Plattformen demnach freiwillig Kontrollen einleiten. Die EU-Staaten setzen auf eine dauerhafte Ausnahme, die es ihnen trotz europäischer Datenschutzregeln erlaubt, den Eingriff in elementare Bürgerrechte. Drei Jahre nach Inkrafttreten soll die EU-Kommission prüfen, ob doch eine Verpflichtung der Anbieter notwendig ist.
Auch ohne die verpflichtende Kontrolle sind die Messaging-Dienste und Online-Plattformen aufgefordert, gegen Darstellungen sexualisierter Gewalt an Kindern vorzugehen. Sie sollen Risiken für Kinder benennen und minimieren können, Altersangaben ihrer Nutzerinnen und Nutzer verlässlich überprüfen sowie Altersgrenzen durchsetzen.
Ein EU-Zentrum für den Kampf gegen Kindesmissbrauch im Netz soll laut dem Gesetzestext eingerichtet werden. Es soll in Verbindung mit den Messaging-Diensten sowie Plattformen stehen und die nationalen Behörden bei ihrer Arbeit unterstützen sollen. Die Verhandlungen über den Gesetzestext sollen bald mit dem Europäischen Parlament beginnen.
Der Vorschlag, auf den sich Deutschland weigerte, wurde seit Jahren in der EU gestritten. Grundlage der Verhandlungen ist ein Vorschlag der EU-Kommission aus dem Jahr 2022, der eine Automatisierte Durchsuchung von Chats vorsieht, um Nachrichten mit Darstellungen sexualisierter Gewalt an Kindern zu finden und bei Ermittlungsbehörden anzugeben. Das Bundesjustizministerium hatte sich gegen den Vorschlag ausgesprochen und betonte, dass eine solche Chatkontrolle in einem Rechtsstaat tabu sei.