Meta ogłosiła wdrożenie nowego mechanizmu bezpieczeństwa na platformie Instagram, który zrewolucjonizuje nadzór rodzicielski nad nieletnimi. System będzie automatycznie powiadamiać opiekunów, jeśli nastolatek będzie wyszukiwać frazy związane z samobójstwem lub samookaleczeniem. Funkcja ta, zapowiedziana 26 lutego 2026 roku, stanowi odpowiedź na rosnącą presję regulacyjną ze strony rządów, szczególnie w Wielkiej Brytanii, gdzie rozważany jest całkowity zakaz mediów społecznościowych dla dzieci poniżej szesnastego roku życia.
Bezpośrednie alerty dla opiekunów
Rodzice otrzymają powiadomienia, gdy ich dziecko będzie wyszukiwać treści związane z samobójstwem lub samookaleczeniem.
Wdrożenie w marcu 2026
Nowa funkcja zostanie najpierw uruchomiona w USA i Wielkiej Brytanii, a wkrótce potem w Europie.
Kontekst regulacyjny w UK
Ogłoszenie zmian nastąpiło w czasie, gdy brytyjski rząd rozważa zakaz mediów społecznościowych dla osób poniżej 16. roku życia.
Koncern Meta, właściciel Instagrama, zdecydował się na bezprecedensowy krok w polityce ochrony najmłodszych użytkowników. Nowa funkcja zakłada, że rodzice otrzymają powiadomienie e-mail, SMS lub poprzez aplikację WhatsApp, gdy ich dziecko wprowadzi do wyszukiwarki terminy sugerujące kryzys psychiczny lub skłonności do autoagresji. Choć platforma od lat stosuje mechanizmy blokowania szkodliwych wyników wyszukiwania i kieruje użytkowników do linii wsparcia, po raz pierwszy informacja ta trafi bezpośrednio do opiekunów bez wyraźnej zgody małoletniego. Zmiana ta jest elementem globalnej strategii wdrażania kont nastolatków, które mają zapewniać wyższy poziom bezpieczeństwa cyfrowego. Historia regulacji mediów społecznościowych w kontekście zdrowia psychicznego nabrała tempa po tragicznej śmierci Molly Russell w 2017 roku, co doprowadziło do uchwalenia w Wielkiej Brytanii pionierskiej ustawy Online Safety Act. Wdrożenie systemu rozpocznie się już w marcu 2026 roku, obejmując początkowo kraje anglojęzyczne, a następnie rynki europejskie, w tym Włochy i Irlandię. Eksperci zwracają uwagę, że moment ogłoszenia nie jest przypadkowy – zbiega się on z debatą w brytyjskim parlamencie nad drastycznymi ograniczeniami dostępu do sieci dla młodzieży. Meta argumentuje, że system jest precyzyjny i reaguje jedynie na powtarzające się wzorce zachowań, co ma zapobiegać zbędnym alarmom w sytuacjach incydentalnych. „This clumsy announcement is fraught with risk and we are concerned that forced disclosures could do more harm than good.” (To niezgrabne ogłoszenie jest obarczone ryzykiem i obawiamy się, że przymusowe ujawnianie informacji może przynieść więcej szkody niż pożytku.) — Andy Burrows Środowiska zajmujące się ochroną prywatności dzieci ostrzegają, że takie działanie może zniszczyć zaufanie w relacji rodzic-dziecko i zniechęcić młodzież do szukania pomocy w sieci, przenosząc problem do miejsc jeszcze mniej kontrolowanych przez dorosłych. Inicjatywa Meta obejmuje również monitoring interakcji z generatywną sztuczną inteligencją, co wskazuje na chęć stworzenia całościowego ekosystemu nadzoru. Krytycy twierdzą jednak, że platformy technologiczne decydują się na takie ustępstwa jedynie pod groźbą dotkliwych kar finansowych lub całkowitych blokad działalności. Choć Meta prezentuje się jako lider odpowiedzialności społecznej, dla wielu obserwatorów jest to jedynie próba uniknięcia zaostrzenia prawa, które uderzyłoby w model biznesowy firmy oparty na zaangażowaniu młodych użytkowników.
Mentioned People
- Andy Burrows — Dyrektor generalny fundacji Molly Rose Foundation, zajmującej się bezpieczeństwem dzieci w sieci.
- Molly Russell — Brytyjska nastolatka, której tragiczna śmierć stała się symbolem walki o bezpieczeństwo dzieci w mediach społecznościowych.
Sources: 15 articles from 14 sources
- Instagram to alert parents if teens repeatedly search self-harm terms (The Guardian)
- Instagram to alert parents if teens search suicide terms (RTE.ie)
- Instagram now alerts parents if their teen searches for suicide or self-harm content | TechCrunch (TechCrunch)
- Instagram will alert parents if teens repeatedly search for suicide or self-harm content (engadget)
- Instagram to alert parents if teens search for self-harm content (BBC)
- Instagram will alert parents if their kids search for self-harm topics (The Verge)
- Da Instagram notifiche ai genitori se gli adolescenti cercano contenuti su suicidio o autolesionismo (Adnkronos)
- Instagram plans warnings over self-harm searches (The Irish Times)
- Instagram to alert parents on teen suicide searches as UK weighs social media ban (Reuters)
- Instagram to alert parents if teens search for self-harm content (BBC)