Platforma Instagram ogłosiła wdrożenie nowego systemu ostrzegania rodziców w sytuacjach, gdy ich dzieci będą wyszukiwać treści związane z samobójstwami lub samookaleczeniami. Funkcja ta ma stać się integralną częścią narzędzi nadzoru rodzicielskiego i zostanie uruchomiona w marcu 2026 roku. Decyzja zapadła w cieniu rosnącej presji regulacyjnej, szczególnie w Wielkiej Brytanii, gdzie rozważane są rygorystyczne zakazy korzystania z mediów społecznościowych przez nieletnich.

Nowe powiadomienia dla rodziców

Instagram wyśle alert do opiekuna, jeśli dziecko będzie wyszukiwać frazy dotyczące samobójstw lub samookaleczeń.

Termin wdrożenia systemu

Funkcja zostanie uruchomiona w marcu 2026 roku, najpierw w USA, Wielkiej Brytanii i innych krajach anglojęzycznych.

Presja regulacyjna w Europie

Zmiany następują w momencie, gdy rządy rozważają wprowadzenie zakazu mediów społecznościowych dla osób poniżej 16. roku życia.

Meta, korporacja zarządzająca serwisem Instagram, zapowiedziała istotną aktualizację systemów bezpieczeństwa dla nieletnich użytkowników. Nowy mechanizm będzie automatycznie wysyłać powiadomienia do opiekunów, jeśli nastolatek wielokrotnie wprowadzi w wyszukiwarkę hasła powiązane z autoagresją lub myślami samobójczymi. Choć platforma od dawna blokuje bezpośrednie wyniki dla takich zapytań i wyświetla plansze z kontaktami do infolinii pomocowych, nowością jest bezpośrednie angażowanie rodziców w proces interwencji. Alerty będą przesyłane za pomocą wiadomości e-mail, SMS lub aplikacji WhatsApp, co ma umożliwić opiekunom szybsze podjęcie dialogu z dzieckiem znajdującym się w potencjalnym kryzysie emocjonalnym. Wdrożenie funkcji rozpocznie się już w marcu 2026 roku, początkowo w krajach anglojęzycznych, a następnie w Irlandii, Włoszech i na pozostałych rynkach światowych. Od 2017 roku, po tragicznej śmierci brytyjskiej nastolatki Molly Russell, debata nad wpływem algorytmów na zdrowie psychiczne dzieci stała się kluczowym elementem polityki technologicznej w Europie. Mimo szlachetnych założeń, inicjatywa budzi kontrowersje wśród organizacji zajmujących się ochroną dzieci. Eksperci z Molly Rose Foundation ostrzegają, że nagłe powiadomienie może wywołać u rodziców gwałtowną reakcję, która zamiast pomóc, pogłębi izolację nastolatka lub naruszy jego zaufanie do opiekunów. „This clumsy announcement is fraught with risk and we are concerned that forced disclosures could do more harm than good.” (To niezgrabne ogłoszenie jest obarczone ryzykiem i obawiamy się, że przymusowe ujawnianie informacji może przynieść więcej szkody niż pożytku.) — Andy Burrows Meta broni jednak swojej decyzji, podkreślając, że system został zaprojektowany tak, aby reagować jedynie na powtarzające się wzorce zachowań, co ma minimalizować ryzyko fałszywych alarmów. Funkcja ta jest elementem szerszej strategii wdrażania tzw. kont nastolatków, które mają zapewniać najwyższy poziom ochrony prywatności i dobrostanu młodych internautów. Ogłoszenie tych zmian zbiega się w czasie z intensywnymi pracami rządu Wielkiej Brytanii nad nowymi przepisami, które mogą zaowocować całkowitym zakazem dostępu do mediów społecznościowych dla osób poniżej 16. roku życia. Równolegle Meta planuje rozszerzyć monitoring na interakcje z narzędziami wykorzystującymi sztuczną inteligencję, co wskazuje na dążenie firmy do stworzenia kompleksowej sieci cyfrowego nadzoru rodzicielskiego. Krytycy zauważają jednak, że platformy często wprowadzają tego typu poprawki dopiero w obliczu groźby surowych kar finansowych lub ustawowych ograniczeń działalności.

Mentioned People

  • Andy Burrows — Przedstawiciel Molly Rose Foundation, organizacji zajmującej się bezpieczeństwem dzieci w sieci.
  • Molly Russell — Brytyjska nastolatka, której śmierć w 2017 roku wywołała globalną debatę o wpływie Instagrama na zdrowie psychiczne.

Sources: 12 articles from 11 sources