- Ignorowane sygnały alarmowe – kierownictwo Meta miało wiedzę o handlu ludźmi, kontaktach dorosłych z nieletnimi i szkodach psychicznych u młodzieży.
- Kontrowersyjna polityka „16x” – konta powiązane z handlem ludźmi mogły naruszyć regulamin aż 16 razy, zanim zostały zawieszone.
- Algorytmy ponad bezpieczeństwo – rekomendacje ekspertów dotyczące ochrony nastolatków były odkładane z obawy przed spadkiem zaangażowania.
- Szkody psychiczne u młodych użytkowników – Meta miała świadomość wzrostu depresji, lęków i problemów emocjonalnych wśród nastolatków.
- Historyczna sprawa sądowa – przeciwko firmie występuje ponad 1800 podmiotów, a wyrok może zmienić zasady funkcjonowania całej branży mediów społecznościowych.
Meta Platforms, właściciel Facebooka i Instagrama, ponownie znalazła się w centrum poważnych oskarżeń. Z ujawnionych zeznań byłych pracowników wynika, że kierownictwo firmy miało świadomość wykorzystywania swoich platform do handlu ludźmi, nawiązywania kontaktów dorosłych z nieletnimi oraz pogarszania zdrowia psychicznego nastolatków. Mimo to przez lata nie podejmowano zdecydowanych działań, obawiając się spadku zaangażowania użytkowników i przychodów z reklam.
Wewnętrzne ostrzeżenia, które ignorowano
Jak opisuje magazyn Time, dokumenty sądowe ujawnione w ramach dużego postępowania przeciwko firmom z branży mediów społecznościowych pokazują, że zgłaszanie nieprawidłowości w Meta było nie tylko utrudnione, ale wręcz systemowo tolerowane.
Szczególnie wstrząsające są zeznania Vaishnavi Jayakumar, byłej dyrektor ds. bezpieczeństwa w Instagramie. W sądzie przyznała, że po dołączeniu do firmy w 2020 roku była zszokowana obowiązującą polityką wobec kont powiązanych z handlem ludźmi w celach seksualnych.
Polityka „16x”, czyli 17 naruszeń za dużo
Zgodnie z jej zeznaniami, konta podejrzewane o handel ludźmi mogły naruszyć regulamin aż 16 razy, zanim zostały zawieszone. Dopiero 17. naruszenie skutkowało reakcją platformy
— Według wszelkich standardów branżowych był to absurdalnie wysoki próg — zeznała Jayakumar.
Jej słowa, jak twierdzą powodowie, znajdują potwierdzenie w wewnętrznych dokumentach Meta.
Algorytmy ważniejsze niż bezpieczeństwo
Akta sądowe wskazują, że Meta przez lata ignorowała rekomendacje własnych zespołów badawczych i ekspertów ds. bezpieczeństwa. Dotyczyły one m.in.:
- automatycznego ustawiania prywatnych profili dla nastolatków,
- ostrzejszego blokowania treści szkodliwych psychicznie,
- ograniczenia mechanizmów uzależniających w Instagramie.
Zmiany te były jednak wielokrotnie odkładane. Powód? Obawa przed spadkiem zaangażowania młodych użytkowników, a co za tym idzie — niższymi wpływami z reklam.
Świadomość szkód psychicznych u młodzieży
Zeznania sugerują, że firma miała wiedzę o miliardach niechcianych interakcji dorosłych z dziećmi oraz rosnącej liczbie przypadków depresji, lęków i problemów emocjonalnych wśród nastolatków korzystających z Instagrama.
Autorzy pozwu porównują działania Meta do praktyk przemysłu tytoniowego — prowadzenia badań nad szkodliwością własnych produktów, a następnie ukrywania wyników przed opinią publiczną i regulatorami.
Zarzuty: dzieci poniżej 13 lat i szkodliwe treści
Oskarżenia wobec Meta obejmują także:
- celowe pozyskiwanie użytkowników poniżej 13. roku życia,
- tolerowanie treści gloryfikujących samookaleczenie i zaburzenia odżywiania,
- niewystarczającą reakcję na sygnały ostrzegawcze płynące z wewnątrz firmy.
Choć od 2024 roku Meta wprowadziła nowe ograniczenia dla młodych użytkowników, prawnicy reprezentujący powodów twierdzą, że działania te są spóźnione i dalece niewystarczające.
Sprawa, która może zmienić branżę
Ujawnione zeznania mogą odegrać kluczową rolę w toczącym się postępowaniu sądowym, w którym przeciwko Meta występuje ponad 1800 podmiotów — dzieci, rodziców, samorządów oraz organizacji publicznych.
Stawką jest nie tylko odpowiedzialność jednej firmy, ale także przyszłość regulacji dotyczących ochrony dzieci i młodzieży w mediach społecznościowych. Jeśli zarzuty się potwierdzą, sprawa Meta może stać się jednym z najważniejszych precedensów w historii cyfrowych platform.
Komentarze (0)