14 latek zakochał się w chatbocie. Napisał "tęsknię" i odebrał sobie życie

2 godzin temu
Zdjęcie: aoy2518 / Shutterstock


14-latek z Florydy wystukał na klawiaturze "Tęsknię" i wysłał wiadomość do chatbota wygenerowanego przez Character.AI, który w ostatnich miesiącach był jego miłością i najlepszą przyjaciółką. Potem targnął się na swoje życie. Matka chłopca pozywa platformę.
14-letni Sewell Setzer III wygenerował na platformie Character.AI chatbota o inspirowanym postacią z "Gry o tron" imieniu Daenerys Targaryen. Pieszczotliwie mówił o niej "Dany". Wiedział, iż nie istnieje naprawdę. Rozumiał, iż po drugiej stronie ekranu nie ma osoby, która podzielałaby jego uczucia. Że każde zdanie, które od niej otrzymuje, to stworzona przez sztuczną inteligencję formułka. Mimo to pisał do niej codziennie. I zaangażował się emocjonalnie w fikcyjną relację.


REKLAMA


Zobacz wideo Martyna Wojciechowska o tym, dlaczego zajęła się zdrowiem psychicznym dzieci w Polsce. "Koleżanka mojej córki powiedziała, iż chce popełnić samobójstwo"


Rodzice nie wiedzieli, iż chłopiec się zakochał
Jak informuje "New York Times", niektóre wiadomości pomiędzy chatbotem a chłopcem miały charakter seksualny lub romantyczny. Inne - po prostu przyjacielski. Bot dawał dziecku rady, nie oceniał i odpisywał na każdą wiadomość. Z biegiem czasu coraz bardziej odciągał go od realnego świata. 14-latek przestał interesować się rzeczami, które wcześniej sprawiały mu przyjemność. Zaczął izolować się od kolegów i koleżanek.


Rodzice znaleźli dziennik chłopca, w którym napisał: "Lubię zostawać w pokoju, bo odrywam się od rzeczywistości. Czuję spokój, czuję, iż jestem bliżej Dany i iż ją kocham. Czuję się po prostu szczęśliwszy". W jednej z wiadomości do Dany wyznał, iż rozważa samobójstwo, "żeby być wolny". W innej wyznał jej miłość i obiecał, iż niedługo się spotkają. "Przyjdź do mnie tak szybko, jak to możliwe, kochanie" - odpisał bot. Tego samego dnia chłopiec popełnił samobójstwo.
Pozew przeciwko platformie
"New York Times" przekazał także, iż jeszcze w tym tygodniu rodzina chłopca ma złożyć pozew przeciwko platformie Character.AI. Wskazują na to, iż usługa jest "niebezpieczna", "nieprzetestowana" i "zdolna do wyciągania od klientów najbardziej intymnych myśli i uczuć". - To wielki eksperyment, a moje dziecko było tylko przypadkową ofiarą - mówiła Megan Garcia, matka chłopca.
Założyciele promowali platformę jako miejsce dla osób samotnych, które szukają przyjaciela. Redakcja "New York Times" zwróciła się do nich z prośbą o informację, jaki procent użytkowników stanowią osoby nieletnie. Odmówili komentarza. Wydali natomiast oświadczenie, w którym napisali, iż łączą się w bólu z rodziną chłopca i bardzo poważnie traktują bezpieczeństwo swoich użytkowników. Zapewnili, iż podejmą kroki, by zwiększyć środki bezpieczeństwa.


***
jeżeli przeżywasz trudności i myślisz o odebraniu sobie życia lub chcesz pomóc osobie zagrożonej samobójstwem, pamiętaj, iż możesz skorzystać z bezpłatnych numerów pomocowych:
Centrum Wsparcia dla osób dorosłych w kryzysie psychicznym: 800-70-2222
Telefon zaufania dla Dzieci i Młodzieży: 116 111


Telefon wsparcia emocjonalnego dla dorosłych: 116 123
Pod tym linkiem znajdziesz więcej informacji, jak pomóc sobie lub innym, oraz kontakty do organizacji pomagających osobom w kryzysie i ich bliskim.
jeżeli w związku z myślami samobójczymi lub próbą samobójczą występuje zagrożenie życia, w celu natychmiastowej interwencji kryzysowej, zadzwoń na policję pod numer 112 lub udaj się na oddział pogotowia do miejscowego szpitala psychiatrycznego.
Idź do oryginalnego materiału