Sztuczna inteligencja rozwija się w błyskawicznym tempie, a wraz z nią rośnie liczba zagrożeń, o których jeszcze niedawno mało kto słyszał. Jednym z nich jest klonowanie głosu, które staje się coraz częstszym narzędziem cyberoszustów. Eksperci ostrzegają, iż każdy może stać się celem, a skutki takich ataków mogą być wyjątkowo niebezpieczne.

Fot. Pixabay / Warszawa w Pigułce
AI podszywa się pod głosy. Eksperci ostrzegają przed nowym zagrożeniem
Sztuczna inteligencja staje się narzędziem nie tylko w pracy i rozrywce, ale także w rękach cyberprzestępców. Coraz częściej pojawiają się przypadki klonowania głosu, które prowadzą do poważnych oszustw. Niedawno głośnym echem odbiło się podszycie pod sekretarza stanu USA Marco Rubio, którego fałszywe nagrania trafiły do wpływowych polityków. Eksperci alarmują: każdy może stać się ofiarą.
Klonowanie głosu – jak działa?
Technologia AI potrafi stworzyć niemal idealną kopię głosu na podstawie zaledwie kilku sekund nagrania. Wystarczy krótki film z TikToka lub nagranie opublikowane w internecie, by system odwzorował ton, akcent, a choćby sposób oddychania danej osoby. Tak spreparowany głos może zostać użyty do oszukania bliskich lub wyłudzenia pieniędzy.
Specjaliści podkreślają, iż takie nagrania mogą brzmieć wyjątkowo wiarygodnie, co sprawia, iż ofiary rzadko mają wątpliwości co do autentyczności rozmówcy.
Coraz więcej oszustw z użyciem AI
Jak podaje EuroNews, badania pokazują, iż już 28% dorosłych w Wielkiej Brytanii mogło paść ofiarą oszustw wykorzystujących sztuczną inteligencję. Metody te zyskują na popularności także w USA i Europie. Przestępcy wykorzystują je nie tylko do wyłudzania pieniędzy, ale również do zdobywania poufnych informacji.
Jak się bronić przed cyberoszustami?
Eksperci ds. cyberbezpieczeństwa radzą zachować szczególną ostrożność w kontaktach telefonicznych i online. Oto najważniejsze zalecenia:
– nie ufaj jedynie głosowi w rozmowie – może być podrobiony,
– potwierdzaj tożsamość rozmówcy SMS-em, e-mailem lub oddzwaniając,
– zwracaj uwagę na drobne różnice w adresach e-mail, URL czy sposobie mówienia,
– ustal z bliskimi tajne hasło lub frazę, która potwierdzi ich tożsamość,
– ogranicz publikowanie w sieci nagrań głosu i osobistych danych.
Federalne Biuro Śledcze (FBI) zaleca także natychmiastowe zgłaszanie podejrzanych wiadomości głosowych i nieodpowiadanie na połączenia z nieznanych numerów.
Uwaga na dane w sieci
Dane, które wydają się nieistotne – drugie imię, data urodzenia, imię zwierzęcia – mogą zostać wykorzystane w połączeniu z klonowaniem głosu. Z ich pomocą oszuści mogą podszywać się pod banki, urzędy, a choćby członków rodziny.
Eksperci ostrzegają: nowa fala cyberprzestępczości dopiero się zaczyna, a najlepszą ochroną jest czujność i weryfikacja każdej podejrzanej sytuacji.