Znany bank ostrzega. Nowa metoda ataku zaskakuje skutecznością. Nie pomoże ostrożność, ludzie zostają z niczym

1 dzień temu

Wygląda jak prawdziwy film, brzmi jak głos przełożonego albo policjanta. Ale to tylko iluzja. Przestępcy wykorzystują sztuczną inteligencję, by wyłudzać pieniądze i siać chaos. Znany bank ostrzega.

Fot. Warszawa w Pigułce

Nowa broń w rękach oszustów

Deepfake – to słowo coraz częściej pojawia się w kontekście cyberbezpieczeństwa. Z pozoru niewinne połączenie zaawansowanego uczenia maszynowego („deep learning”) z fałszywym przekazem („fake”) stało się narzędziem w rękach przestępców. I niestety – działa.

Z pomocą sztucznej inteligencji oszuści potrafią dziś stworzyć nagranie wideo lub audio, które wygląda i brzmi tak, jakby było prawdziwe. Na ekranie może pojawić się znana osoba, przełożony lub choćby policjant – i mówić coś, czego nigdy nie powiedziała. Celem? Wyłudzenie pieniędzy, danych, wpływ na emocje. Alior Bank ostrzega: to realne zagrożenie, które już teraz dotyka Polaków.

Jak działa atak deepfake?

Przestępcy przygotowują się do ataku w trzech etapach. Najpierw zbierają dane: przeszukują media społecznościowe i internet w poszukiwaniu zdjęć, nagrań, głosu ofiary. Następnie „trenują” specjalne programy AI, by idealnie odwzorować mimikę, ruchy i sposób mówienia. Na koniec generują fałszywe nagranie lub dźwięk, które wyglądają na w pełni autentyczne.

Taki materiał może trafić do ofiary jako część fałszywej reklamy, film na komunikatorze, a choćby rozmowa telefoniczna. Przestępcy często posługują się socjotechniką – podszywają się pod znane osoby lub instytucje, wywierając presję i wykorzystując element zaufania.

Uważaj na te sygnały. Tak rozpoznasz deepfake

Choć technologia jest coraz lepsza, przez cały czas da się wychwycić pewne błędy. Na co zwracać uwagę?

  • Brak naturalnych zachowań – np. nienaturalna mimika, brak mrugania, zbyt gładka skóra.
  • Niepokojący głos – sztuczne brzmienie, zła artykulacja, dziwne akcentowanie.
  • Tło i szczegóły – rozmazane krawędzie, nierealistyczne cienie, błędy w zachowaniu postaci w tle.
  • Niespójności logiczne – np. osoba mówi o wieczorze, choć za oknem jasno.

Najważniejsze? Zawsze weryfikuj źródło. jeżeli widzisz kontrowersyjne nagranie – sprawdź, czy opublikowano je na oficjalnych kanałach lub potwierdzają je inne media.

Jak się chronić?

Alior Bank przypomina kilka kluczowych zasad, które mogą uchronić przed manipulacją:

  • Nie wykonuj poleceń z nagrań – jeżeli ktoś prosi o przelew lub podanie danych, zadzwoń na oficjalny numer i potwierdź.
  • Ogranicz publikowanie swoich zdjęć i nagrań w internecie – to właśnie z tych materiałów powstają deepfaki.
  • Stosuj uwierzytelnianie wieloskładnikowe – np. logowanie kodem SMS lub aplikacją mobilną.
  • Nie działaj pod wpływem emocji – oszuści często wykorzystują presję czasu lub autorytet.
  • Korzystaj z narzędzi wykrywających deepfake – np. Deepware Scanner lub Microsoft Video Authenticator.

Co zrobić, jeżeli padłeś ofiarą?

Jeśli podejrzewasz, iż ktoś użył Twojego wizerunku lub padłeś ofiarą manipulacji:

  1. Zgłoś sprawę na Policji i w banku.
  2. Zabezpiecz dowody – zapisz podejrzane nagrania, e-maile lub wiadomości.
  3. Ostrzeż innych – jeżeli wykorzystano Twój głos lub twarz, poinformuj znajomych np. w mediach społecznościowych.
Idź do oryginalnego materiału