22 listopada br. podczas konferencji ATS, AZ Frame było gospodarzem stolika tematycznego pt. „Socjotechniki AD 2023 z punktu widzenia narzędzi i schematów działania”. Dyskusję prowadził zaproszony przez nas ekspert w dziedzinie cyberbezpieczeństwa, Jakub Staśkiewicz (opensecurity.ai), a w jej ramach staraliśmy się odpowiedzieć na pytania:
- Co dzisiaj udaje się cyberprzestępcom – jakie ich schematy działania i wykorzystywane narzędzia są najbardziej skuteczne.
- Co przyniesie upowszechnienie wykorzystania w atakach symulowanego użytkownika – napędzanego narzędziami AI?
Co dzisiaj udaje się przestępcom?
Na początek trochę statystyk, niezmiennych od wielu lat. Według ostatniego raportu CERT Polska „Krajobraz bezpieczeństwa polskiego internetu w 2022 roku” oszustwa komputerowe stanowią 88% wszystkich incydentów bezpieczeństwa, a 64% z nich to wciąż kampanie phishingowe.
Z obserwacji naszego eksperta na uwagę zasługuje również inna grupa oszustw, m.in.:
- oszustwa „na bankowca” i „na policjanta”, w których przestępcy podszywają się w rozmowach telefonicznych pod pracowników banku lub jednostek policji ds. cyberprzestępczości
- Fałszywe platformy inwestycyjne gwarantujące ponadprzeciętne stopy zwrotu
- Romance scam – oszustwa bazujące na wyłudzeniach od osób, z którymi zbudowana została relacja zaufania
Tego typu oszustwa zaczęły zyskiwać na popularności mniej więcej od czasu, w którym banki zostały zobowiązane do wdrożenia mechanizmów uwierzytelniania dwuskładnikowego. Wynika to zapewne z faktu, że trochę trudniej jest teraz okraść kogoś mając tylko jego login i hasło do banku wyłudzone w ataku phishingowym.
Przestępcy sięgnęli więc po nowe scenariusze. Wymienione wyżej techniki oszustw mają pewien element wspólny: wymagają bezpośredniej interakcji na linii złodziej-ofiara, angażując czas tego pierwszego. Mimo więc, iż działania tego typu są intratne, ich skalowanie nie jest tak proste, jak to ma miejsce w przypadku ataków zautomatyzowanych. I tu pojawia się pole do popisu dla nowych narzędzi bazujących na AI, mogących stanowić poważne zagrożenie.
Przestępstwa z wykorzystaniem AI już mają miejsce
Na razie jeszcze nie na masową skalę, ale oszustwa komputerowe z wykorzystaniem sztucznej inteligencji są już odnotowywane. Oto kilka przykładów:
- Wyłudzenie 243 tys. dolarów za pomocą nagrania głosowego wygenerowanego przy użyciu technologii deep fake (poprzez fałszywe nagranie głosu prezesa firmy)
- Virtual kidnapping – próba wyłudzenia okupu za pomocą wygenerowanego technologią deep fake nagrania video lub głosowego przedstawiającego rzekomo porwane dziecko (przypadek virtual kidnappingu opisany przez CNN)
- Nieco nieudolny, ale z naszego podwórka – deep fake z Aleksandrem Kwaśniewskim zachęcającym do bardzo zyskownych inwestycji:
Czego należy się spodziewać w najbliższym czasie?
Opisane wcześniej scenariusze bazujące na bezpośredniej interakcji przestępcy z ofiarą są dość zyskowne, a jednocześnie przestępcy już zaczynają wykorzystywać technologie AI – należy się więc spodziewać, że z ich pomocą uda im się wkrótce zautomatyzować tego typu ataki i przeprowadzać je na masową skalę.
Problem w tym, że narzędzia typu chatGPT drastycznie wpłyną na wiarygodność i skuteczność tego typu kampanii z kilku co najmniej względów:
- Pozwolą na analizę danych w celu lepszego doboru grupy docelowej
- Pozwolą generować treści o dużo lepszej jakości (bez błędów tłumaczeniowych, które obecnie pozwalają nabrać pewnych podejrzeń)
- Pozwolą generować treści dużo bardziej sugestywne i przekonujące. Ich język będzie mógł być idealnie dopasowany do odbiorcy, jego środowiska zawodowego, statusu społecznego, gwary itd.
- Pozwolą na automatyzację działań przestępców i zastąpienie ich agentami w kontaktach na czacie lub telefonie
Jednym z poważniejszych zagrożeń, o których wspomina się w kontekście technologii deep fake jest też możliwość wykorzystania jej do masowej dezinformacji. Sensacyjne doniesienia wypowiadane ustami znanych polityków mogą prowadzić do masowej paniki, wywoływać niepokoje społeczne, a nawet prowadzić do paraliżu działania instytucji państwowych. Z takiej sposobności na pewno nie zawaha się skorzystać niejedna ze stron toczących się na świecie konfliktów.
Jak się bronić przed oszustwami z wykorzystaniem AI?
Na razie dostępność technik, czy nawet zaleceń i dobrych praktyk w tym zakresie jest dość skąpa. W roku 2019 Microsoft, Facebook i Amazon zainicjowały działanie grupy DFDC (Deepfake Detection Challenge), której celem jest opracowanie metod rozpoznawania materiałów wygenerowanych przez deepfake. W 2020 roku skuteczność narzędzi (również bazujących na AI) wynosiła ok. 65%. To zdecydowanie za mało by móc na nich bazować jako na wiarygodnych.
Firmy zajmujące się śledzeniem zagrożeń w przypadku oszustw typu virtual kidnapping sugerują poniższe środki zapobiegawcze:
- Zwracanie uwagi na to, w co są ubrani nasi bliscy opuszczając dom (by później móc to porównać z nagraniem z rzekomego porwania).
- Wzajemne udostępnianie swojej lokalizacji innym domownikom (np. poprzez Google Maps) – może się to przydać również w wielu innych sytuacjach.
- Zwracanie uwagi na szczegóły typu lekko zmieniony głos, monotoniczność wypowiedzi.
- Podejrzenia powinny też wzbudzić rozmowy na żywo, w których jednak wydaje się, że druga strona wypowiada się według określonego scenariusza i nie odpowiada na nasze pytania.
Z dyskusji przy naszym stole tematycznym dowiedzieliśmy się też, że obawy powinny budzić już nie tylko nagrania deep fake przygotowane wcześniej, ale też takie, które są generowane na żywo. W tym wypadku możliwa jest pełna interakcja z osobą, której wizerunek zostanie wykorzystany (np. podczas zaaranżowanej wideokonferencji). Metodą weryfikacji może być w tym wypadku poproszenie rozmówcy o wykonanie jakiejś specyficznej czynności typu umieszczenie cukierka w ustach. W tym wypadku algorytmy AI nie poradzą sobie tak dobrze z generowaniem obrazu (przynajmniej na razie).
Poza tym, tak jak w przypadku innych socjotechnik, zalecana jest drobiazgowość w ocenie szczegółów i powściągliwość w podejmowaniu pochopnych decyzji bazujących na emocjach.
Ataki socjotechniczne są niezwykle skuteczne
Na koniec warto podsumować, iż w przypadku ataków socjotechnicznych nie powinniśmy się zastanawiać czy pracownicy naszych firm są na nie podatni, a raczej jak bardzo są podatni. Z przeprowadzanych przeze mnie testów phishingowych wynika, iż skuteczność takiego ataku w nieprzygotowanej organizacji może sięgać 30-40%, a w niektórych przypadkach nawet 50%. W błędzie są jednak firmy, które uważają, iż problem ten wyeliminowały realizując w przeszłości jedno szkolenie. Dopiero dobrze zaplanowana edukacja pracowników i regularne szkolenia security awareness potrafią obniżyć to ryzyko do wartości poniżej 10%. To nadal sporo, ale z punktu widzenia bezpieczeństwa jest to już znaczna różnica. Oznacza bowiem, że przeciętny intruz aby wyłudzić hasło od któregoś z pracowników zamiast 2-3 maili musi ich wysłać minimum 10. A to daje dużo większe szanse na wykrycie i zgłoszenie incydentu przez bardziej ostrożne osoby.
Dziękujemy wszystkim, którzy zdecydowali się wziąć udział w naszej sesji. Tematyka socjotechniki okazała się niezwykle interesująca, a stolik AZ Frame okazał się jednym z najbardziej obleganych podczas całej sesji, gromadząc łącznie prawie 30 słuchaczy!