Dr Jankowiak-Maik jest wiceprezeską Fundacji Muzeum Historii Kobiet i prowadzi popularne profile edukacyjne, w których opowiada o historii oraz poleca książki. Informację o zdarzeniu opisała w serii wpisów w mediach społecznościowych.
– „Moje zdjęcie zostało przerobione (rozebrane) dzięki AI przez jakiegoś obleśnego typa, a następnie umieszczone w internecie” – napisała.
Jak przyznała, długo zastanawiała się, czy w ogóle mówić publicznie o całej sytuacji. Mimo iż na fałszywym obrazie nie znajduje się jej prawdziwe ciało, podkreśliła, iż doświadczenie było dla niej bardzo trudne.
– „Czuję się paskudnie, czuję się skrzywdzona i choćby mówienie sobie, iż przecież to nie było moje ciało, kilka pomaga” – zaznaczyła.
Naukowczyni zwróciła uwagę na problem aplikacji wykorzystujących sztuczną inteligencję do przerabiania zdjęć. Według niej narzędzia te są często wykorzystywane do tworzenia nagich wersji fotografii kobiet, a czasem także wizerunków dzieci.
– „Było o tym przez chwilę głośno, ale temat już nie jest nowy, więc minął. Dlaczego to jest legalne? Dlaczego aplikacja wykonuje takie polecenia?” – pytała w swoim wpisie.
Dr Jankowiak-Maik zapowiedziała również, iż zamierza zgłosić sprawę odpowiednim służbom.
– „Postanowiłam, iż moim obowiązkiem jest zgłoszenie tego odpowiednim służbom – już choćby nie dla siebie. Dowiem się, jak dokładnie wygląda ta ścieżka i dam znać, jak to zrobić” – napisała.
Po nagłośnieniu sprawy w internecie pojawiło się wiele słów wsparcia, ale – jak podkreśla – nie zabrakło także negatywnych komentarzy i prób podważania całej sytuacji.
– „Dowiedziałam się, iż jestem ‘grubaską’, iż kłamię i iż to bait. Poczytałam też dywagacje na temat tego, dlaczego ktoś mi to zrobił” – relacjonowała.
Naukowczyni zwróciła uwagę, iż podważanie doświadczeń ofiar przemocy w internecie jest częstym zjawiskiem.
– „Kwestionowanie przemocy jest tym, czego często doświadczają ofiary. Szukanie jej powodów również. Ja się na to nie zamierzam zgadzać” – napisała.
W jednym z wpisów zaapelowała także do rodziców o ostrożność przy publikowaniu zdjęć dzieci w sieci, podkreślając, iż podobne narzędzia mogą zostać wykorzystane również do manipulowania wizerunkami najmłodszych.
Sprawa zwraca uwagę na rosnący problem wykorzystywania sztucznej inteligencji do tworzenia tzw. deepfake’ów – realistycznych, ale fałszywych obrazów i nagrań przedstawiających prawdziwe osoby w sytuacjach, które nigdy nie miały miejsca. Coraz częściej są one wykorzystywane do nękania, kompromitowania lub ośmieszania konkretnych osób w internecie.

18 godzin temu




English (US) ·
Polish (PL) ·
Russian (RU) ·