Wołodymyr Zelenskij nakazuje poddać się Ukrainie. Tom Cruise instruuje, jak używać detergentów, a Salvador Dali ożywa – co łączy te historie? To wierutna bzdura, a do jej stworzenia wykorzystano technologię deepfake.
Jeżeli ransomware nie dał wystarczająco popalić zespołom ds. bezpieczeństwa, to na horyzoncie pojawiło się nowe wyzwanie — fala cyfrowych oszustów używających tej technologii.
W marcu w mediach społecznościowych pojawiło się nagranie, na którym prezydent Ukrainy, Wołodymyr Żeleński wydaje polecenie swoim żołnierzom, aby poddali się siłom rosyjskim. Kapitulacja? W żadnym wypadku, to po prostu... deepfake. A to tylko jeden z wielu przykładów potencjalnych zagrożeń, jakie stworzyć może wykorzystanie tej technologii.
Ofiarami są nie tylko głowy państw, „żartownisie” upodobali sobie także gwiazdy kina i sportu, a nawet postaci historyczne. Na TikTok-u opublikowano film z udziałem Toma Cruise’a, który doradzał, jak radzić sobie z detergentami podczas sprzątania. Film obejrzano ponad pół miliona razy, problem w tym, że jego główny bohater nigdy w nim nie uczestniczył.
Obecnie rosnącą popularnością cieszy się socialmediowy trend Deep Nostalgia, polegający na tym, że przy użyciu technologii deepfake, internauci „ożywiają” twarze zdjęć zmarłych osób. Postać mruga oczami, prezentuje zadziwiająco realną mimikę twarzy, ciepło się uśmiecha.
Ślepa wiara
Zjawisko to staje się coraz bardziej zaawansowane i przybiera na sile. Poprzednie przypadki, które stawały się viralami, miały często charakterystyczne oznaki, że z materiałem jest coś nie tak, jak choćby nieporadne montaże czy nietypowa mimika lub gesty postaci.
Deepfake świetnie radzi sobie z naśladowaniem prawdziwych ludzi. Jest wielce prawdopodobne, że szybko stanie się to problemem dla wszystkich. Ta metoda wykorzystuje sztuczną inteligencję i techniki głębokiego uczenia do generowania sfałszowanych obrazów osób lub całych wydarzeń. Ataki tego typu wzrosły o 13% - w VMware Global Incident Response Threat Report, 66% respondentów stwierdziło, że miało z nimi do czynienia w ciągu ostatnich 12 miesięcy.
Rozwój technologii deepfake sprawia, że nietrudno wyobrazić sobie jej eksploatację przez cyberprzestępców, zwłaszcza w celu wyłudzenia pieniędzy. Zdaniem większości respondentów badania VMware ataki deepfake częściej przybierały formę wideo (58 proc.) niż audio (42 proc.), a do najpopularniejszych metod ich dostarczania należały: wiadomości e-mail (78%), mobilne przesyłanie wiadomości (57%), głos (34%), kanały social (34%).
Komplementarność cyberprzestępczości
Może i ransomware generuje więcej nagłówków, ale to włamania do firmowej poczty elektronicznej są obecnie najdroższym formatem cyberoszutsw — według szacunków FBI, każdego roku kosztuje to firmy miliardy dolarów. Cyberprzestępcy, wykorzystując wiadomości e-mail, włamują się na konta należące do przełożonych — ewentualnie sprytnie podszywają się pod ich adresy e-mail - i proszą pracowników o autoryzację dużych transakcji finansowych, które niejednokrotnie mogą opiewać na kwoty rzędu setek tysięcy.
Przykładowo: przełożony w prowadzonej korespondencji informuje, że pieniądze muszą zostać niezwłocznie wysłane, być może w ramach poufnej transakcji biznesowej, której nie wolno nikomu wyjawić. Jest to klasyczna sztuczka socjotechniczna nastawiona na zmuszenie ofiary do szybkiego przelania pieniędzy bez żądania potwierdzenia od kogokolwiek, kto mógłby zorientować się, że jest to fikcyjna dyspozycja. Nim ktokolwiek zdąży się zorientować, cyberprzestępcy i pieniądze rozpływają się w powietrzu.
Takie ataki są bardzo często skuteczne, niemniej wiele osób pozostaje podejrzliwymi wobec nietypowych, nagłych wiadomości od szefa. Gdyby jednak cyberprzestępcy mogli użyć deepfake'a do wystosowania swojej fikcyjnej prośby, wówczas ofiarom może być znacznie trudniej odmówić, ponieważ byliby przekonani, że rzeczywiście rozmawiają ze swoim szefem na kamerze. Niejedna organizacja umieszcza na swojej stronie internetowej listę kierownictwa wyższego szczebla. Członkowie zarządu często przemawiają na imprezach lub w mediach, więc z łatwością można znaleźć nagrania ich wystąpień.
Przestępcy mogliby, przy użyciu zaawansowanych technik uczenia głębokiego, wykorzystać publicznie dostępne informacje i materiały, aby stworzyć fałszywą postać np. członka zarządu. Następnie wykorzystując luki w poczcie elektronicznej, umówić rozmowę wideo z pracownikiem i poprosić go o dokonanie (fałszywej) transakcji. Jeśli ofiara uwierzy, że rozmawia ze swoim przełożonym, jest mało prawdopodobne, że odmówi wykonania polecenia. Oszuści wykorzystywali już sztuczną inteligencję, aby przekonać współpracowników, że rozmawiają przez telefon ze swoim szefem. Dodanie elementu wideo sprawi, że jeszcze trudniej będzie wykryć, że w rzeczywistości kontaktują się z oszustami.
Fałszywy obraz obnaża wady pracy zdalnej
Cyberprzestępcy używają deepfake'ów, aby ubiegać się o zdalne stanowiska pomocy technicznej IT, czyli role, które umożliwiałyby dostęp do wrażliwych danych osobowych pracowników i klientów, a te można by wykraść i wykorzystać. Co więcej, hakerzy będą wykorzystywać "fałszywe obrazy” i inne treści generowane przez AI do przeprowadzania obcych operacji wywierania wpływu.
Wprawdzie postęp technologiczny sprawia, że coraz trudniej jest odróżnić deepfake od autentycznego materiału wideo, ale FBI radzi by szukać w wideo wypaczeń obrazu, nienaturalnych ruchów głowy i tułowia, a także problemów z synchronizacją ruchów twarzy i ust czy towarzyszącym dźwiękiem. Sfałszowane wideo może bez trudu zostać nowym wektorem cyberprzestępczości, stąd powstrzymanie tego trendu będzie nie lada sztuką. Niewykluczone, że organizacje zostaną zmuszone do opracowania nowych zasad uwierzytelniania decyzji podczas spotkań online – zespoły Security Operations Center powinny baczniej monitorować i analizować stan bezpieczeństwa organizacji w tym aspekcie.
Zresztą to także wyzwanie dla wiarygodności pracy zdalnej — co to znaczy, że nie możemy wierzyć w to, co widzimy na ekranie? Im bardziej firmy i ich pracownicy będą świadomi potencjalnych zagrożeń, jakie stwarza dziś deepfake, tym łatwiej będzie chronić się przed atakami — w przeciwnym razie mamy kłopoty.
Krzysztof Szukała, Inspektor Ochrony Danych Osobowych w Grupie 3S
Foto: dobreprogramy