Deepfake jako nowe narzędzie przestępcze: rosnące zagrożenie w świecie cyberbezpieczeństwa
Sztuczna inteligencja (AI) zmienia sposób, w jaki wchodzimy w interakcje z otaczającym nas światem, ale jednocześnie staje się narzędziem, które przestępcy coraz częściej wykorzystują do swoich celów. Eksperci i firmy zajmujące się cyberbezpieczeństwem alarmują, iż technologie AI, w tym deepfake, mogą nie tylko oszukiwać niektóre systemy uwierzytelniania biometrycznego, ale także wykorzystywać fałszywe tożsamości do rekrutacji w rzeczywistych miejscach pracy.
Wzrost nadużyć technologii deepfake
Deepfake to technologia, która pozwala na tworzenie realistycznych, ale fałszywych treści multimedialnych, takich jak filmy lub nagrania audio, na podstawie prawdziwych obrazów czy nagrań. Według organizacji pozarządowej Cyberpeace Institute, liczba filmów pornograficznych opartych na tej technologii „podwaja się co sześć miesięcy na najpopularniejszych platformach streamingowych”, a liczba oszustw w różnych branżach wzrosła dziesięciokrotnie w latach 2022–2023. Deepfake jest również coraz częściej wykorzystywany do kradzieży tożsamości, fałszowania dokumentów czy manipulacji wizerunkiem celebrytów i liderów biznesu.
„Deepfake początkowo powstał jako projekt open source, ale gwałtownie przekształcił się w narzędzie do produkcji nielegalnych treści o charakterze seksualnym. w tej chwili 96% takich materiałów dotyczy pornografii, często rozpowszechnianej bez zgody osób, których twarze są montowane na wulgarnych treściach,” tłumaczy Stéphane Duguin, dyrektor generalny Cyberpeace Institute. Takie materiały są wykorzystywane do szantażu, zemsty, a choćby upokorzenia, stając się narzędziem wyzysku i osobistych ataków.
Deepfake jako narzędzie do oszustw finansowych
Zorganizowane grupy przestępcze coraz częściej wykorzystują deepfake do przeprowadzania kampanii oszustw finansowych. Z raportu Unit 42, działu badawczego Palo Alto Networks, wynika, iż cyberprzestępcy podszywają się pod celebrytów lub liderów biznesu, aby promować fałszywe programy inwestycyjne i wyłudzać pieniądze. Przykładem jest platforma Quantum AI, która wykorzystywała spreparowane filmy z wizerunkami Elona Muska czy włoskiej prezydent Giorgii Meloni, aby przyciągnąć ofiary.
Schemat działania jest prosty, ale skuteczny: ofiary rejestrują się na platformie, podając swoje dane kontaktowe, po czym otrzymują telefon od „menedżera konta”, który namawia ich do wpłaty początkowego depozytu. Następnie użytkownikom pokazuje się fałszywe zyski, zachęcając do dalszych inwestycji. W końcu, gdy ofiara próbuje wypłacić pieniądze, napotyka problemy związane z „opłatami za wypłatę” lub innymi barierami, a dostęp do konta jest blokowany, pozostawiając ją bez środków.
Nowe trendy w cyberprzestępczości
Cyberpeace Institute ostrzega, iż technologia deepfake jest coraz częściej wykorzystywana do ataków na przedsiębiorstwa. Przestępcy klonują głosy pracowników lub menedżerów, aby autoryzować fałszywe transakcje lub zlecać przelewy. Pojawienie się platform oferujących usługi deepfake sprawia, iż przestępcy mają dostęp do zaawansowanych narzędzi, umożliwiających generowanie realistycznych treści audio, wideo i graficznych. Na wyspecjalizowanych rynkach darknetu ceny za wysokiej jakości materiały mogą sięgać choćby 16 000 dolarów.
Innym rosnącym problemem jest manipulacja dokumentami tożsamości. Przestępcy coraz częściej wykorzystują technologię deepfake do zmiany wizerunku osób w paszportach czy dowodach osobistych, co pozwala im omijać systemy rozpoznawania twarzy. Tego rodzaju działalność zwiększa ryzyko fałszowania dokumentów przez grupy przestępcze zajmujące się handlem ludźmi czy nielegalną imigracją.
„Przestępcy zaczynają stosować deepfake do tworzenia fałszywych tożsamości, aby infiltrować firmy i organizacje, udając nowych pracowników. Umożliwia to dostęp do wrażliwych systemów korporacyjnych, co stanowi nową formę oszustwa, w której deepfake staje się narzędziem do tworzenia całkowicie fałszywych ról zawodowych” – dodaje Duguin.
Technologia deepfake a biometryka
Deepfake zaczyna również zagrażać technologiom biometrycznym, które są stosowane do uwierzytelniania tożsamości w systemach bezpieczeństwa. Przykładem jest rozpoznawanie twarzy — deepfake może generować realistyczne dynamiczne filmy, które oszukują oprogramowanie do rozpoznawania rysów twarzy i omijają kontrole weryfikacyjne. Podobnie, biometria głosu jest podatna na manipulacje dźwiękowe, co pozwala cyberprzestępcom na klonowanie głosów i uzyskiwanie dostępu do systemów opierających się na weryfikacji głosowej.
„Biometria była uznawana za wysoce bezpieczną metodę uwierzytelniania, ale technologia deepfake podważa te założenia. Dynamiczne morfowanie twarzy i klonowanie głosu mogą skutecznie oszukać systemy weryfikacyjne, otwierając drogę do nowych form przestępczości, które wykorzystują luki w systemach zabezpieczeń” — podkreśla Duguin.
Potrzeba globalnych regulacji
Pomimo zagrożeń, które niesie ze sobą deepfake, regulacje prawne w tej dziedzinie są jeszcze na wczesnym etapie. Unia Europejska uchwaliła pierwsze przepisy dotyczące sztucznej inteligencji w 2023 roku, które obejmują regulacje związane z deepfake, ale wiele innych państw pozostaje daleko w tyle. „Potrzeba skoordynowanego podejścia, aby zapewnić skuteczne wdrożenie przepisów w skali globalnej. W przeciwnym razie przestępcy będą szukać słabych ogniw w systemie prawnym poszczególnych krajów,” mówi Raquel Jorge, badaczka w Elcano Royal Institute.
Eksperci zgadzają się, iż regulacje muszą ewoluować wraz z technologią, aby nadążyć za nowymi sposobami wykorzystania AI. Kluczowym wyzwaniem jest zrozumienie potencjału deepfake i jego wpływu na różne sektory. Technologia ta nie jest już jedynie narzędziem do tworzenia fałszywych filmów — staje się podstawą nowych form przestępczości, które mogą zagrozić nie tylko osobom prywatnym, ale również organizacjom i całym gospodarkom.