Blog

  1. AZ Frame
  2. /
  3. Bez kategorii
  4. /
  5. Socjotechniki a rozwój narzędzi AI
Socjotechniki a rozwój narzędzi AI – co nas czeka?
14.12.2023 | Ewa Suszek

22 listopada br. podczas konferencji ATS, AZ Frame było gospodarzem stolika tematycznego pt. „Socjotechniki AD 2023 z punktu widzenia narzędzi i schematów działania”. Dyskusję prowadził zaproszony przez nas ekspert w dziedzinie cyberbezpieczeństwa, Jakub Staśkiewicz (opensecurity.ai), a w jej ramach staraliśmy się odpowiedzieć na pytania:

  • Co dzisiaj udaje się cyberprzestępcom – jakie ich schematy działania i wykorzystywane narzędzia są najbardziej skuteczne.
  • Co przyniesie upowszechnienie wykorzystania w atakach symulowanego użytkownika – napędzanego narzędziami AI?

Co dzisiaj udaje się przestępcom?

Na początek trochę statystyk, niezmiennych od wielu lat. Według ostatniego raportu CERT Polska „Krajobraz bezpieczeństwa polskiego internetu w 2022 roku” oszustwa komputerowe stanowią 88% wszystkich incydentów bezpieczeństwa, a 64% z nich to wciąż kampanie phishingowe.

Z obserwacji naszego eksperta na uwagę zasługuje również inna grupa oszustw, m.in.:

  • oszustwa „na bankowca” i „na policjanta”, w których przestępcy podszywają się w rozmowach telefonicznych pod pracowników banku lub jednostek policji ds. cyberprzestępczości
  • Fałszywe platformy inwestycyjne gwarantujące ponadprzeciętne stopy zwrotu
  • Romance scam – oszustwa bazujące na wyłudzeniach od osób, z którymi zbudowana została relacja zaufania

Tego typu oszustwa zaczęły zyskiwać na popularności mniej więcej od czasu, w którym banki zostały zobowiązane do wdrożenia mechanizmów uwierzytelniania dwuskładnikowego. Wynika to zapewne z faktu, że trochę trudniej jest teraz okraść kogoś mając tylko jego login i hasło do banku wyłudzone w ataku phishingowym.

Przestępcy sięgnęli więc po nowe scenariusze. Wymienione wyżej techniki oszustw mają pewien element wspólny: wymagają bezpośredniej interakcji na linii złodziej-ofiara, angażując czas tego pierwszego. Mimo więc, iż działania tego typu są intratne, ich skalowanie nie jest tak proste, jak to ma miejsce w przypadku ataków zautomatyzowanych. I tu pojawia się pole do popisu dla nowych narzędzi bazujących na AI, mogących stanowić poważne zagrożenie.

Przestępstwa z wykorzystaniem AI już mają miejsce

Na razie jeszcze nie na masową skalę, ale oszustwa komputerowe z wykorzystaniem sztucznej inteligencji są już odnotowywane. Oto kilka przykładów:

  • Wyłudzenie 243 tys. dolarów za pomocą nagrania głosowego wygenerowanego przy użyciu technologii deep fake (poprzez fałszywe nagranie głosu prezesa firmy)
  • Virtual kidnapping – próba wyłudzenia okupu za pomocą wygenerowanego technologią deep fake nagrania video lub głosowego przedstawiającego rzekomo porwane dziecko (przypadek virtual kidnappingu opisany przez CNN)
  • Nieco nieudolny, ale z naszego podwórka – deep fake z Aleksandrem Kwaśniewskim zachęcającym do bardzo zyskownych inwestycji:

Czego należy się spodziewać w najbliższym czasie?

Opisane wcześniej scenariusze bazujące na bezpośredniej interakcji przestępcy z ofiarą są dość zyskowne, a jednocześnie przestępcy już zaczynają wykorzystywać technologie AI – należy się więc spodziewać, że z ich pomocą uda im się wkrótce zautomatyzować tego typu ataki i przeprowadzać je na masową skalę.

Problem w tym, że narzędzia typu chatGPT drastycznie wpłyną na wiarygodność i skuteczność tego typu kampanii z kilku co najmniej względów:

  • Pozwolą na analizę danych w celu lepszego doboru grupy docelowej
  • Pozwolą generować treści o dużo lepszej jakości (bez błędów tłumaczeniowych, które obecnie pozwalają nabrać pewnych podejrzeń)
  • Pozwolą generować treści dużo bardziej sugestywne i przekonujące. Ich język będzie mógł być idealnie dopasowany do odbiorcy, jego środowiska zawodowego, statusu społecznego, gwary itd.
  • Pozwolą na automatyzację działań przestępców i zastąpienie ich agentami w kontaktach na czacie lub telefonie

Jednym z poważniejszych zagrożeń, o których wspomina się w kontekście technologii deep fake jest też możliwość wykorzystania jej do masowej dezinformacji. Sensacyjne doniesienia wypowiadane ustami znanych polityków mogą prowadzić do masowej paniki, wywoływać niepokoje społeczne, a nawet prowadzić do paraliżu działania instytucji państwowych. Z takiej sposobności na pewno nie zawaha się skorzystać niejedna ze stron toczących się na świecie konfliktów.

Jak się bronić przed oszustwami z wykorzystaniem AI?

Na razie dostępność technik, czy nawet zaleceń i dobrych praktyk w tym zakresie jest dość skąpa. W roku 2019 Microsoft, Facebook i Amazon zainicjowały działanie grupy DFDC (Deepfake Detection Challenge), której celem jest opracowanie metod rozpoznawania materiałów wygenerowanych przez deepfake. W 2020 roku skuteczność narzędzi (również bazujących na AI) wynosiła ok. 65%. To zdecydowanie za mało by móc na nich bazować jako na wiarygodnych.

Firmy zajmujące się śledzeniem zagrożeń w przypadku oszustw typu virtual kidnapping sugerują poniższe środki zapobiegawcze:

  • Zwracanie uwagi na to, w co są ubrani nasi bliscy opuszczając dom (by później móc to porównać z nagraniem z rzekomego porwania).
  • Wzajemne udostępnianie swojej lokalizacji innym domownikom (np. poprzez Google Maps) – może się to przydać również w wielu innych sytuacjach.
  • Zwracanie uwagi na szczegóły typu lekko zmieniony głos, monotoniczność wypowiedzi.
  • Podejrzenia powinny też wzbudzić rozmowy na żywo, w których jednak wydaje się, że druga strona wypowiada się według określonego scenariusza i nie odpowiada na nasze pytania.

Z dyskusji przy naszym stole tematycznym dowiedzieliśmy się też, że obawy powinny budzić już nie tylko nagrania deep fake przygotowane wcześniej, ale też takie, które są generowane na żywo. W tym wypadku możliwa jest pełna interakcja z osobą, której wizerunek zostanie wykorzystany (np. podczas zaaranżowanej wideokonferencji). Metodą weryfikacji może być w tym wypadku poproszenie rozmówcy o wykonanie jakiejś specyficznej czynności typu umieszczenie cukierka w ustach. W tym wypadku algorytmy AI nie poradzą sobie tak dobrze z generowaniem obrazu (przynajmniej na razie).

Poza tym, tak jak w przypadku innych socjotechnik, zalecana jest drobiazgowość w ocenie szczegółów i powściągliwość w podejmowaniu pochopnych decyzji bazujących na emocjach.

Ataki socjotechniczne są niezwykle skuteczne

Na koniec warto podsumować, iż w przypadku ataków socjotechnicznych nie powinniśmy się zastanawiać czy pracownicy naszych firm są na nie podatni, a raczej jak bardzo są podatni. Z przeprowadzanych przeze mnie testów phishingowych wynika, iż skuteczność takiego ataku w nieprzygotowanej organizacji może sięgać 30-40%, a w niektórych przypadkach nawet 50%. W błędzie są jednak firmy, które uważają, iż problem ten wyeliminowały realizując w przeszłości jedno szkolenie. Dopiero dobrze zaplanowana edukacja pracowników i regularne szkolenia security awareness potrafią obniżyć to ryzyko do wartości poniżej 10%. To nadal sporo, ale z punktu widzenia bezpieczeństwa jest to już znaczna różnica. Oznacza bowiem, że przeciętny intruz aby wyłudzić hasło od któregoś z pracowników zamiast 2-3 maili musi ich wysłać minimum 10. A to daje dużo większe szanse na wykrycie i zgłoszenie incydentu przez bardziej ostrożne osoby.

Dziękujemy wszystkim, którzy zdecydowali się wziąć udział w naszej sesji. Tematyka socjotechniki okazała się niezwykle interesująca, a stolik AZ Frame okazał się jednym z najbardziej obleganych podczas całej sesji, gromadząc łącznie prawie 30 słuchaczy!

 

Need help icon

Potrzebujesz wsparcia? Jesteśmy zawsze po Twojej stronie

Chętnie odpowiemy na nurtujące Cię pytania. Naszą największą domeną jest doświadczenie i wiedza, dlatego pomożemy Ci w wielu obszarach.

skontaktuj się