Meta zaostrza zasady ochrony młodzieży i apeluje do rodziców o większy nadzór

Meta – właściciel Facebooka, Instagrama i WhatsAppa – deklaruje, że intensyfikuje działania na rzecz bezpieczeństwa nastolatków w swoich aplikacjach. Firma jednocześnie zwraca się do rodziców z apelem o aktywne uczestnictwo w cyfrowym życiu swoich dzieci.
W roku ubiegłym Meta wprowadziła specjalne konta nastolatków na Instagramie, wyposażone w dodatkowe zabezpieczenia i funkcje kontroli rodzicielskiej. Teraz te rozwiązania obejmą także Facebooka i Messengera. Mimo tych działań firma znalazła się pod ostrzałem po publikacji raportu przygotowanego przez Cybersecurity for Democracy oraz ekspertów ds. bezpieczeństwa dzieci, w tym sygnalistę Arturo Béjara. Badanie wykazało, że algorytmy Instagrama nie powstrzymują młodych użytkowników przed kontaktem z treściami promującymi samookaleczanie czy samobójstwa.
Globalna szefowa działu bezpieczeństwa w Meta Antigone Davis podczas wizyty w Irlandii odniosła się do ustaleń raportu. – Nie zgadzamy się z metodologią raportu, ale nasze własne badania pokazują, że nastolatki widzą coraz mniej tego typu treści. Zabezpieczenia działają – podkreśliła.
Organizacje społeczne oskarżają systemy rekomendacji Meta o sprzyjanie promowaniu szkodliwych treści i wzmacnianie toksycznych narracji. Davis odpowiada: – Algorytmy nie działają w ten sposób. Personalizacja pozwala ograniczyć widoczność treści nieodpowiednich wiekowo i zapewnić nastolatkom bezpieczniejsze środowisko. Wyjaśnia również, że firma nie rekomenduje materiałów dotyczących samookaleczania czy samobójstw, a użytkownicy mogą dodatkowo filtrować treści oraz „zresetować” swój algorytm, jeśli chcą uniknąć określonych tematów.
Niektóre organizacje proponują całkowite odcięcie nastolatków od algorytmów rekomendacji. Meta uważa ten pomysł za ryzykowny. – System bez personalizacji byłby mniej bezpieczny, bo oznaczałby brak filtrowania tego, co trafia na ekran młodego użytkownika – argumentuje Davis.
Narzędzia bezpieczeństwa Meta AI również budzą niepokój. Common Sense Media określiło je jako „nieakceptowalne ryzyko” dla nastolatków, zwłaszcza w sytuacjach kryzysowych, gdy liczy się natychmiastowa reakcja. Davis odpiera zarzuty, zapewniając, że wdrożono rygorystyczne rozwiązania: – Kiedy nastolatek próbuje uzyskać informacje o samobójstwie, pokazujemy mu zasoby pomocowe i blokujemy dostęp do niebezpiecznych treści. Meta przyznaje, że nie polega wyłącznie na sztucznej inteligencji. Moderacja treści wciąż częściowo opiera się na pracy ludzi: – AI jest niezwykle skuteczna w wychwytywaniu treści nieodpowiednich wiekowo, ale recenzenci-ludzie są nadal potrzebni – zaznacza Davis.
Zdaniem przedstawicielki Meta walka ze szkodliwymi materiałami nie jest „zabawą w uderzanie kreta”, ale ciągłą konfrontacją, w której technologia pomaga reagować szybciej niż kiedykolwiek. Podkreślono jednak, że technologia to tylko część rozwiązania. Firma zachęca rodziców i opiekunów do aktywnej roli w monitorowaniu aktywności dzieci – także z użyciem dostępnych narzędzi kontroli:
- ustawienia prywatności,
- limity czasu ekranowego,
- raporty aktywności,
- możliwość zgłaszania naruszeń.
Meta przekonuje, że bezpieczeństwo online wymaga współpracy firm, szkół, organizacji społecznych, a przede wszystkim – rodzin.
Bogdan Feręc
Źr. RTE
Photo by Mariia Shalabaieva on Unsplash