Die Plattform Instagram hat die Einführung eines neuen Systems zur Warnung von Eltern angekündigt, wenn ihre Kinder Inhalte im Zusammenhang mit Selbstmord oder Selbstverletzung suchen. Diese Funktion soll integraler Bestandteil der elterlichen Überwachungswerkzeuge werden und wird im März 2026 starten. Die Entscheidung fällt vor dem Hintergrund eines wachsenden regulatorischen Drucks, insbesondere in Großbritannien, wo strenge Verbote der Nutzung sozialer Medien durch Minderjährige erwogen werden.

Neue Benachrichtigungen für Eltern

Instagram sendet eine Warnung an den Erziehungsberechtigten, wenn das Kind Suchbegriffe zu Selbstmord oder Selbstverletzung eingibt.

Zeitplan für die Einführung des Systems

Die Funktion wird im März 2026 gestartet, zunächst in den USA, Großbritannien und anderen englischsprachigen Ländern.

Regulatorischer Druck in Europa

Die Änderungen erfolgen zu einem Zeitpunkt, an dem Regierungen ein Verbot sozialer Medien für Personen unter 16 Jahren in Erwägung ziehen.

Meta, das Unternehmen hinter Instagram, hat eine wesentliche Aktualisierung der Sicherheitssysteme für minderjährige Nutzer angekündigt. Der neue Mechanismus wird automatisch Benachrichtigungen an Erziehungsberechtigte senden, wenn ein Jugendlicher wiederholt Suchbegriffe eingibt, die mit Selbstverletzung oder Selbstmordgedanken in Verbindung stehen. Während die Plattform direkte Ergebnisse für solche Abfragen seit langem blockiert und Hinweise mit Kontakten zu Hilfetelefonen anzeigt, ist die direkte Einbeziehung der Eltern in den Interventionsprozess neu. Die Warnungen werden per E-Mail, SMS oder über die WhatsApp-Anwendung übermittelt, um Erziehungsberechtigten eine schnellere Gesprächsaufnahme mit einem Kind in einer potenziellen emotionalen Krise zu ermöglichen. Die Einführung der Funktion beginnt bereits im März 2026, zunächst in englischsprachigen Ländern, dann in Irland, Italien und auf den übrigen Weltmärkten. Seit 2017, nach dem tragischen Tod der britischen Teenagerin Molly Russell, ist die Debatte über den Einfluss von Algorithmen auf die psychische Gesundheit von Kindern zu einem Schlüsselelement der Technologiepolitik in Europa geworden. Trotz der noblen Absichten stößt die Initiative bei Organisationen zum Schutz von Kindern auf Kontroversen. Experten der Molly Rose Foundation warnen, dass eine plötzliche Benachrichtigung bei Eltern eine heftige Reaktion auslösen könnte, die anstatt zu helfen, die Isolation des Jugendlichen vertiefen oder sein Vertrauen in die Erziehungsberechtigten untergraben könnte. „This clumsy announcement is fraught with risk and we are concerned that forced disclosures could do more harm than good.” (Diese unbeholfene Ankündigung ist voller Risiken und wir sind besorgt, dass erzwungene Offenlegungen mehr schaden als nützen könnten.) — Vertreter der Molly Rose Foundation, einer Organisation für die Sicherheit von Kindern im Netz. Meta verteidigt jedoch seine Entscheidung und betont, dass das System so konzipiert sei, dass es nur auf wiederkehrende Verhaltensmuster reagiere, um das Risiko von Fehlalarmen zu minimieren. Diese Funktion ist Teil einer umfassenderen Strategie zur Einführung sogenannter <przypis title=

Mentioned People

  • Andy Burrows — Vertreter der Molly Rose Foundation, einer Organisation für die Sicherheit von Kindern im Netz.
  • Molly Russell — Britische Teenagerin, deren Tod im Jahr 2017 eine globale Debatte über den Einfluss von Instagram auf die psychische Gesundheit auslöste.