300 milionów dzieci i młodzieży doświadcza molestowania w sieci

6 miesięcy temu

Niełatwo zszokować Kelvina Laya. Mój przyjaciel i kolega zakładał pierwsze w Afryce zespoły do walki z wykorzystywaniem seksualnym i handlem ludźmi, zajmujące się przypadkami dotyczącymi dzieci. Przez wiele lat był starszym śledczym Ośrodka Ochrony przed Wykorzystywaniem Seksualnym Dzieci w Internecie przy brytyjskiej Narodowej Agencji do spraw Przestępczości. Specjalizował się w dochodzeniach pozaterytorialnych w przypadkach wykorzystywania dzieci na całym świecie.

Jednak to, co zdarzyło się ostatnio, kiedy Lay zgłosił się na ochotnika do pokazu hipernowoczesnego systemu identyfikacyjnego, odebrało mu mowę. W ciągu kilku sekund od wgrania aktualnego zdjęcia Laya oparta na sztucznej inteligencji aplikacja zassała z internetu zawrotną liczbę jego fotografii, których sam nigdy wcześniej nie widział. Jego wizerunek znalazł się choćby w tle cudzego zdjęcia zrobionego podczas meczu rugby drużyny British Lions w Auckland osiem lat temu.

– To było wstrząsające – opowiada mi Lay. – Potem prowadzący przewinął ekran niżej i pokazał mi jeszcze dwa zdjęcia, zrobione na dwóch różnych plażach, w Turcji i w Hiszpanii, prawdopodobnie wzięte z mediów społecznościowych. Przedstawiały inne rodziny, ale w tle byliśmy ja z żoną i naszą dwójką. Dzieciaki miały pewnie sześć czy osiem lat; dziś mają 20 i 22.

Program AI, o którym mowa, należy do arsenału nowych narzędzi wprowadzonych w ekwadorskim Quito w marcu tego roku. Lay pracował tam w grupie specjalistów z dziesięciu państw, której zadaniem było szybkie rozpoznawanie i lokalizowanie sprawców i ofiar internetowego wykorzystywania i molestowania dzieci – ukrytej pandemii, która co roku na całym świecie zbiera 300 milionów ofiar.

Do takich zadań powołano Globalny Instytut na rzecz Bezpieczeństwa Dzieci „Childlight” (Childlight Global Child Safety Institute) na Uniwersytecie w Edynburgu. Misja Childlight – założonego nieco ponad rok temu, w marcu 2023 roku, przy finansowym wsparciu Human Dignity Foundation – polega na wykorzystaniu danych i analiz do lepszego zrozumienia charakteru i zakresu wykorzystywania i molestowania dzieci.

Jako naukowczyni zajmuję się badaniem międzynarodowej ochrony dzieci. W projekcie Childlight jestem dyrektorką do spraw analizy danych. Od ponad 20 lat studiuję zjawiska molestowania seksualnego i znęcania się nad dziećmi, współpracowałam z New York City Alliance Against Sexual Assault oraz UNICEF-em.

Walkę o bezpieczeństwo młodych utrudnia niespójność danych. Dane na całym świecie różnią się jakością i ciągłością; różnią się też definicje i – mówiąc otwarcie – brakuje jawności. Naszym celem jest praca partnerska z różnymi stronami, mająca pomóc im dołączyć do systemu, wypełnić braki danych i rzucić światło na najmroczniejsze ze wszystkich przestępstw.

302 miliony nowych ofiar rocznie

Nasz nowy raport, zatytułowany Into The Light, zawiera pierwsze na świecie szacunki skali problemu – liczby sprawców i ofiar.

Szacunki oparte są na metaanalizie 125 reprezentatywnych badań opublikowanych w latach 2011–2023. Wykazują one, iż jedno na ośmioro dzieci – czyli 302 miliony – doznało wykorzystywania i molestowania w sieci w ciągu rocznego okresu poprzedzającego analizowane badania krajowe.

Ponadto przeanalizowaliśmy dziesiątki milionów zgłoszeń do pięciu głównych międzynarodowych organizacji niezależnych i śledczych – Internet Watch Foundation (IWF, Fundacja Nadzoru Internetu), National Centre for Missing and Exploited Children (NCMEC, Narodowy Ośrodek do spraw Dzieci Zaginionych i Wykorzystywanych), Canadian Centre for Child Protection (C3P, Kanadyjski Ośrodek do spraw Ochrony Dziecka), International Association of Internet Hotlines (INHOPE, Międzynarodowe Stowarzyszenie Dyżurów Internetowych) oraz interpolowskiej bazy światowych danych dotyczących wykorzystywania seksualnego dzieci (International Child Sexual Exploitation, ICSE). Pomogło nam to lepiej zrozumieć charakter krążących w internecie obrazów i filmów ukazujących przemoc wobec dzieci.

Choć znaczne luki w danych oznaczają, iż to dopiero początek badań, a liczby, które podajemy, nie są ostateczne, zebrane przez nas statystyki szokują.

Odkryliśmy, iż prawie 13 proc. dzieci na świecie padło ofiarą utrwalania i udostępniania seksualnych obrazów i filmów z ich wizerunkiem, a także pokazywania im tego typu treści bez ich zgody.

Oprócz tego nieco ponad 12 procent dzieci na całym świecie spotkało się z nagabywaniem w internecie, na przykład niechcianymi rozmowami o charakterze seksualnym, w tym sextingiem, niechcianymi seksualnymi pytaniami i niechcianymi prośbami o akty seksualne ze strony dorosłych bądź innych młodych.

Liczba takich przypadków poszła w górę od czasu, gdy pandemia COVID zmieniła internetowe nawyki na całym świecie. Internet Watch Foundation (IWF) ogłosiła w 2023 roku, iż ilość dostępnych w internecie materiałów przedstawiających wykorzystywanie seksualne dzieci w wieku 7–10 lat, przyuczanych do wykonywania czynności seksualnych, wzrosła o ponad tysiąc procent od wprowadzenia lockdownu w Wielkiej Brytanii.

Organizacja wskazała, iż w okresie pandemii tysiące dzieci musiało jeszcze bardziej polegać na internecie, aby się uczyć, bawić i utrzymywać kontakty towarzyskie. Internetowi drapieżcy wykorzystali ten fakt, aby przymuszać jeszcze więcej dzieci do czynności seksualnych na kamerkach czy telefonach – czasem choćby z udziałem kolegów i koleżanek czy rodzeństwa.

Doszło też do gwałtownego wzrostu zgłoszeń „finansowego seksszantażu” – wyłudzano od dzieci pieniądze, szantażując je seksualnymi materiałami, podstępem wyciągniętymi od nich przez sprawców. Często miało to tragiczne skutki: na całym świecie wezbrała fala samobójstw.

Tego typu nękanie może opierać się na technologii deep fake, znanej choćby z generowania fałszywych seksualnych obrazów piosenkarki Taylor Swift.

Nasze szacunki wskazują na to, iż ponad 3 proc. dzieci na całym świecie w poprzednim roku doświadczyło szantażu seksualnego.

Pandemia seksualnego wykorzystywania dzieci

Trwająca pandemia wykorzystywania i przemocy seksualnej wobec dzieci dotyczy uczniów w każdej klasie, w każdej szkole, w każdym kraju. Trzeba natychmiast się nią zająć jako palącym problemem zdrowia publicznego. Podobnie jak w przypadku innych pandemii, na przykład koronawirusa czy AIDS, cały świat musi się zjednoczyć, aby dać natychmiastową, kompleksową odpowiedź.

W raporcie powołujemy się również badanie ankietowe na reprezentatywnej próbie 4918 mężczyzn po 18. roku życia, zamieszkałych w Australii, Wielkiej Brytanii i Stanach Zjednoczonych. Część ustaleń dotyczących sprawców jest zaskakująca:

  • Jeden na dziewięciu Amerykanów (w przeliczeniu byłoby to niemal 14 milionów mężczyzn) przyznał, iż w pewnym momencie swojego życia popełnił internetowe przestępstwo seksualne przeciwko dziecku. Sprawców jest tylu, iż można by ich ustawić w rzędzie ciągnącym się od Kalifornii na zachodnim wybrzeżu USA do Karoliny Północnej na wybrzeżu wschodnim albo wypełnić dwieście stadionów futbolowych o rozmiarach odpowiednich do finału Super Bowl.
  • Do tego samego przyznało się 7 proc. Brytyjczyków – w przeliczeniu to 1,8 miliona sprawców, którzy zapełniliby dziewięćdziesiąt stadionów O2 Arena – oraz 7,5 proc. Australijczyków (byłoby to prawie 700 tysięcy osób).
  • Zgodnie z deklaracjami badanych miliony ludzi ze wszystkich trzech państw starałyby się doprowadzić do przestępstwa seksualnego w kontakcie z dzieckiem, gdyby miały pewność, iż nikt się o tym nie dowie. Ustalenie to warto rozpatrywać w kontekście innych badań, wskazujących na to, iż osoby oglądające materiały z wykorzystywania dzieci stwarzają wysokie ryzyko przejścia do osobistego kontaktu z dziećmi bądź przemocy fizycznej.

Internet umożliwił społecznościom przestępców seksualnych łatwe i szybkie udostępnianie obrazów przedstawiających przemoc i wykorzystywanie dzieci na oszałamiającą skalę. To z kolei zwiększyło popyt na tego typu treści wśród nowych użytkowników i podwyższyło statystyki przemocy wobec dzieci.

W 2023 roku firmy takie jak X, Facebook, Instagram, Google czy WhatsApp oraz osoby prywatne wysłały do niezależnych organizacji ponad 36 milionów zgłoszeń o seksualnych obrazach dzieci w internecie, przedstawiających rozmaite formy wykorzystywania seksualnego i przemocy. To częściej niż co sekundę, przez cały rok.

Operacja w Quito

Jak każdy kraj na świecie, Ekwador boryka się z tym problemem: błyskawicznym rozprzestrzenianiem wykorzystywania seksualnego i przemocy wobec dzieci w internecie. W obecnej sytuacji sprawca, dajmy na to, z Londynu może zapłacić innemu sprawcy, na przykład na Filipinach, za produkcję obrazów przemocy wobec dzieci. Obrazy te następnie przechowywane są na serwerach, powiedzmy, w Holandii i natychmiast rozpowszechniane w wielu innych krajach.

Kiedy Lay – w tej chwili dyrektor Childlight do spraw zaangażowania i ryzyka – odwiedził Quito na początku 2024 roku, w kraju panował stan wojenny. W dużym hotelu, zwykle wypełnionym turystami chcącymi zachwycić się przyrodą wysp Galápagos, panowała niepokojąca cisza. Przerywała ją tylko grupa 40 analityków śledczych, badaczy i prokuratorów, którzy mieli do przetworzenia ponad 15 tysięcy obrazów i filmów przedstawiających przemoc seksualną wobec dzieci.

Zbiór plików obejmował materiały corocznie gromadzone przez władze, treści ze skonfiskowanych urządzeń oraz ze wspomnianej bazy danych Interpolu. Pliki miały potencjalny związek ze sprawcami działającymi w dziesięciu krajach Ameryki Łacińskiej i Karaibów: Argentynie, Chile, Dominikanie, Ekwadorze, Gwatemali, Hondurasie, Kolumbii, Kostaryce, Peru i Salwadorze.

Do wykorzystywania dzieci dochodzi w każdym regionie świata, ale – w oparciu o wiadomości od partnerów z terenu – szacujemy, iż w większości państw członkowskich Interpolu brakuje przeszkolonego personelu i zasobów, aby stosownie reagować na materiały dowodowe przedstawiające wykorzystywanie seksualne dzieci, udostępniane im przez organizacje takie jak National Center for Missing and Exploited Children (NCMEC, Narodowy Ośrodek do spraw Dzieci Zaginionych i Wykorzystywanych).

NCMEC to organizacja stworzona przez amerykański Kongres do rejestracji i przetwarzania dowodów przedstawiających seksualne wykorzystywanie dzieci, wgrywanych do internetu na całym świecie i najczęściej wykrywanych przez koncerny technologiczne. Nasza wiedza sugeruje, iż wskutek braku możliwości analizy tych danych, miliony zgłoszeń alarmujących służby o nielegalnych materiałach pozostają choćby nieotwarte.

Operacja ekwadorska, przeprowadzona razem z International Center for Missing and Exploited Children (ICMEC, Międzynarodowy Ośrodek do spraw Dzieci Zaginionych i Wykorzystywanych) oraz Departamentem Bezpieczeństwa Wewnętrznego USA, miała pomóc to zmienić, wspierając służby, aby mogły nauczyć się identyfikować i namierzać przestępców seksualnych oraz ratować dziecięce ofiary.

Niezbędna do operacji w Quito była baza Interpolu, zawierająca około 5 milionów zdjęć i filmów. Wyspecjalizowani śledczy z ponad 68 państw wykorzystują ją do udostępniania danych i współpracy przy sprawach.

Przy użyciu programów do porównywania obrazów i filmów – w zasadzie jest to identyfikacja fotograficzna, natychmiast rozpoznająca cyfrowy „odcisk palca” danego obrazu – śledczy umieją gwałtownie porównywać zdjęcia z fotografiami zebranymi w bazie. Oprogramowanie potrafi natychmiast łączyć ofiary, sprawców i lokalizacje. Pozwala też uniknąć dublowania działań i oszczędza cenny czas, informując śledczych, czy dane obrazy zostały już odkryte i rozpoznane w innym kraju. Dotychczas pomogła ona zidentyfikować ponad 37 900 ofiar na całym świecie.

Lay posiada obszerne praktyczne doświadczenie w wykorzystywaniu tych zasobów. Tak pomaga przełożyć dane Childlight na działanie. Dzięki jego wskazówkom służbom w Kenii udało się niedawno zatrzymać pedofila Thomasa Schellera. W 2023 roku 74-letni Scheller otrzymał wyrok 81 lat pozbawienia wolności. Sąd w Nairobi uznał obywatela Niemiec za winnego trzech przypadków handlu ludźmi, nieobyczajnych czynności z małoletnimi oraz posiadania materiałów przedstawiających przemoc seksualną.

Mimo postępów w korzystaniu z danych istnieją obawy, iż służby nie będą potrafiły nadążyć za problemem zbyt wielkim, aby funkcjonariusze mogli go po prostu rozwiązać zatrzymaniami. Konsekwencje rozwoju nowych technologii, na przykład tworzenie pedofilskich obrazów przez AI, mogą przytłoczyć śledczych swoją skalą. Lay tłumaczył nam w Quito:

– Nie chcę wyróżniać akurat Ameryki Łacińskiej, ale stało się jasne, iż istnieje pewna nierównowaga w tym, jak kraje na całym świecie traktują te dane. Część zajmuje się praktycznie każdym zgłoszeniem, a ktoś, kto cokolwiek w takiej sprawie zaniedba, może choćby stracić pracę. Na drugim końcu spektrum są kraje, które otrzymują tysiące zgłoszeń dziennie i choćby ich nie otwierają.

Dziś widzimy dowody na to, iż rozwój technologii można też wykorzystać do walki z drapieżcami seksualnymi w internecie. Zastosowaniu nowych narzędzi towarzyszą jednak pytania natury etycznej.

Kontrowersyjne narzędzie AI

Potężne, choć kontrowersyjne narzędzie AI, które zrobiło na Layu takie wrażenie, jest tego przykładem. To jeden z wielu dostępnych w tej chwili na rynku programów AI do rozpoznawania twarzy, posiadający różne zastosowania. Technologia może pomóc rozpoznawać ludzi przy użyciu miliardów obrazów pozbieranych z internetu, w tym mediów społecznościowych.

Tego typu oprogramowanie do rozpoznawania twarzy podobno stosowano w Ukrainie do demaskowania fałszywych postów w mediach społecznościowych, wzmacniania bezpieczeństwa w punktach kontrolnych i identyfikacji rosyjskich szpiegów, a także zmarłych żołnierzy. Mówi się też, iż użyto go w USA do rozpoznania tożsamości uczestników szturmu na Kapitol 6 stycznia 2021 roku.

„New York Times” napisał o innym niezwykłym przypadku. W maju 2019 roku dostawca internetu zaalarmował służby po tym, jak pewien użytkownik otrzymał obrazy przedstawiające wykorzystywanie seksualne małej dziewczynki.

Podpowiedź dał jeden nieostry kadr: w tle widać było twarz dorosłego. Firmie zajmującej się rozpoznawaniem twarzy udało się ją dopasować do zdjęcia na Instagramie, gdzie wizerunek mężczyzny również pojawił się w tle. Proces powiódł się pomimo faktu, iż w instagramowym poście twarz sprawcy miała rozmiar około połowy paznokcia. Pomógł on śledczym poznać tożsamość przestępcy i miejsce przebywania w Las Vegas. Okazało się, iż poszukiwany tworzył tam materiały zawierające obrazy seksualnej przemocy wobec dzieci i handlował nimi w dark webie. Doprowadziło to do uratowania siedmiolatki i skazania mężczyzny na 35 lat więzienia.

Brytyjski rząd niedawno przekonywał, iż oprogramowanie do rozpoznawania twarzy pomoże policji „wyprzedzać przestępców o krok”, a ulice Wielkiej Brytanii staną się dzięki niemu bezpieczniejsze. Na razie jednak stosowanie takich aplikacji jest tu nielegalne.

Gdy Lay wprowadził do systemu własne rysów twarzy, zaskoczyło go, iż w ciągu sekund program wypluł bogaty zbiór jego wizerunków, w tym jedno zdjęcie przedstawiające go w tle, na meczu rugby wiele lat wcześniej. Wyobraźmy sobie, iż śledczy mogą na przykład dopasować charakterystyczny tatuaż albo nietypową tapetę na ścianie w miejscu, gdzie doszło do przemocy. Łatwo zrozumieć potencjał tego narzędzia w walce z przestępczością.

Równie łatwo oczywiście zrozumieć obawy na gruncie swobód obywatelskich. Dlatego zastosowanie takiej technologii w Europie pozostaje ograniczone. jeżeli trafi ona w niewłaściwe ręce, co może to oznaczać dla ukrywającego się dysydenta politycznego? Jeden chiński startup zajmujący się rozpoznawaniem twarzy zwrócił już na siebie uwagę rządu USA w związku z rolą, jaką mógł odegrać w nadzorowaniu mniejszości ujgurskiej

Rola sektora Big Tech

Podobne argumenty słychać czasem ze strony zwolenników szyfrowania komunikacji w popularnych aplikacjach sieciowych – które zresztą są używane do udostępniania plików z molestowaniem i wykorzystywaniem dzieci na skalę przemysłową. Dlaczego – pytają prywatnościowi puryści – ktokolwiek miałby mieć prawo wglądu w to, co ludzie do siebie piszą?

Może się więc wydawać, iż doszliśmy do jakiegoś kafkowskiego punktu, w którym prawo do prywatności przestępców stoi ponad prywatnością i bezpieczeństwem krzywdzonych dzieci.

Nie ma więc wątpliwości, iż jeżeli szyfrowanie ma się stać normą w popularnych aplikacjach do udostępniania plików, trzeba osiągnąć jakąś równowagę – zaspokoić pragnienie prywatności u wszystkich użytkowników, a jednocześnie proaktywnie wykrywać w internecie materiały z przemocą wobec dzieci.

Firma Meta pokazała niedawno, iż istnieje pole do kompromisu, który mógłby zapewnić dzieciom większe bezpieczeństwo, przynajmniej do pewnego stopnia. Instagram – wskazany ostatnio przez NSPCC jako platforma najczęściej wykorzystywana do nagabywania dzieci – opracował nowe narzędzie, mające blokować wysyłkę seksualnych obrazów do dzieci. Istotne jest to, iż władze nie będą informowane o tym, kto wysyła materiały.

Narzędzie ma wykorzystywać tak zwane skanowanie po stronie klienta, które pozwala zachować jedną z ważniejszych dla prywatności zasad szyfrowania – iż tylko nadawca i adresat znają treść wiadomości. Jednocześnie Meta deklaruje, iż zgłasza NCMEC wszystkie przypadki podejrzewanego wykorzystywania dzieci na swoich stronach w dowolnym miejscu na świecie.

Lay proponuje prosty kompromis w stosowaniu AI do poszukiwania przestępców: dopilnowanie, aby mogli go używać na ścisłej licencji tylko specjaliści do spraw ochrony dziecka, podlegający stosownym mechanizmom nadzoru. Nie jest to cudowny środek – po identyfikację opartą na AI zawsze musi uzupełnić stara, dobra praca policyjna. Jednak zdaniem Laya każde narzędzie, które potrafi „w 15 sekund osiągnąć coś, nad czym my ślęczeliśmy godzinami”, warte jest uwagi.

Marcowa operacja ekwadorska, łącząca AI z tradycyjną pracą śledczą, przyniosła natychmiastowe rezultaty. ICMEC donosi, iż doprowadziła ona do udanego rozpoznania tożsamości 115 ofiar (głównie dziewcząt, głównie w przedziałach wiekowych 6–12 oraz 13–15 lat) i 37 sprawców (głównie dorosłych mężczyzn). Według ICMEC w ciągu trzech tygodni doszło do 18 międzynarodowych interwencji, uratowano 45 ofiar i zatrzymano 7 sprawców.

Wyniki śledztwa przeprowadzonego przez grupę specjalną z 10 krajów. Źródło: Uniwersytet w Edynburgu

Tak czy inaczej, trzeba osiągnąć jakiś kompromis, żeby poradzić sobie z tą pandemią przemocy wobec dzieci.

Wykorzystywanie seksualne dzieci to globalny kryzys zdrowia publicznego, nieustannie pogarszający się wskutek rozwoju nowych technologii, które pozwalają na natychmiastową produkcję i nieograniczoną dystrybucję materiałów przedstawiających przemoc wobec dzieci, jak również na nieuregulowane kontakty z dziećmi w internecie.

Australijka Grace Tame, dyrektorka wykonawcza Grace Tame Foundation, która w dzieciństwie doświadczyła molestowania seksualnego, dziś sama walczy z wykorzystywaniem dzieci. Tame opowiada:

– Tak jak u niezliczonych innych ofiar wykorzystywania w dzieciństwie, długotrwałe skutki traumy, wstydu, publicznych upokorzeń, niewiedzy i stygmatyzacji przewróciły mi życie do góry nogami. W wieku 18 lat przeprowadziłam się za granicę, bo w rodzinnej miejscowości stałam się pariaską. Nie poszłam na wyższą uczelnię, mimo iż chciałam, nadużywałam alkoholu i narkotyków, okaleczałam się, pracowałam jednocześnie w kilku miejscach za najniższą stawkę.

Zdaniem Tame „scentralizowana, globalna, badawcza baza danych jest niezbędna do ochrony dzieci”.

Internet i nowe technologie doprowadziły do dzisiejszego stanu rzeczy. Natomiast oprogramowanie AI wykorzystane w Quito do uratowania 45 dzieci przekonująco pokazało, iż technologią można też czynić dobro. Praca grupy zadaniowej z dziesięciu państw świadczy o potencjale globalnej reakcji na globalny problem, istniejący w internecie, gdzie granice państw nie mają znaczenia.

Pogłębiona współpraca, edukacja, a w niektórych przypadkach regulacje i prawodawstwo mogą pomóc. Potrzebne są jednak niezwłocznie, ponieważ – jak głosi hasło Childlight – dzieci nie mogą czekać.

**
Deborah Fry jest naukowczynią, zajmuje się badaniami nad międzynarodową ochroną dzieci. Jest dyrektorką do spraw analizy danych w Globalnym Instytucie na rzecz Bezpieczeństwa Dzieci „Childlight” na Uniwersytecie w Edynburgu.

Artykuł opublikowany w magazynie The Conversation na licencji Creative Commons. Z angielskiego przełożyła Aleksandra Paszkowska.

Idź do oryginalnego materiału