1 kwietnia 2024

5 sposobów wykorzystania sztucznej inteligencji przez cyberprzestępców

Od czwartego kwartału 2022 roku liczba złośliwych wiadomości phishingowych wzrosła o 1265%, wynika z raportu SlashNext. To nie jest przypadek, że ChatGPT został uruchomiony pod koniec 2022 roku. Technologia ta wraz z podobnymi narzędziami generatywnej sztucznej inteligencji prawdopodobnie przyczyniła się do wzrostu liczby ataków. Jak w praktyce cyberprzestępcy wykorzystują rozwiązania oparte na AI?

1. Phishing/spear phishing/spoofing

Cyberprzestępcy wykorzystują sztuczną inteligencję przede wszystkim do automatycznego generowania treści e-maili. Tak stworzone wiadomości są bardzo przekonujące i trudne do odróżnienia od prawdziwych. AI jest w stanie spersonalizować e-maile i dostosować je do kontekstu, co zwiększa szansę na powodzenie ataku.

Sztuczna inteligencja pomaga również przestępcom podszywać się pod prawdziwe adresy e-mail oraz analizować publicznie dostępne informacje po to, by tworzyć ataki ukierunkowane, naśladować styl pisania i wzorce komunikacji nadawcy wiadomości.

Oczywiście narzędzia takie jak ChatGPT czy Google Bard posiadają wiele zabezpieczeń, które nie pozwalają im na tworzenie treści do wykorzystania w trakcie cyberataku. Nie można im zatem wydać bezpośredniego polecenia przygotowania e-maila, który mógłby posłużyć do przeprowadzenia ataku Business Email Compromise. Jednak te ograniczenia można obejść, prosząc na przykład o wygenerowanie treści wiadomości od dyrektora zarządzającego do dyrektora finansowego z prośbą o pilne przeprocesowanie transakcji

Mateusz Ossowski
CEE Channel Manager w firmie Barracuda Networks

Znając ograniczenia oficjalnych narzędzi opartych na generatywnej sztucznej inteligencji, cyberprzestępcy stworzyli nową usługę WormGPT. To dostępny w Dark webie chatbot, który służy do pisania złośliwego oprogramowania do tworzenia cyberataków, w tym do pisania poprawnych gramatycznie i ortograficznie e-maili phishingowych.

2. Generowanie złośliwego oprogramowania

Pojawienie się takich narzędzi jak WormGPT i EvilGPT daje cyberprzestępcom zupełnie nowe możliwości. Atakujący mogą używać ich do zautomatyzowania swoich działań, w tym wyszukiwania i wykorzystywania podatności, tworzenia złośliwego oprogramowania, które jest w stanie modyfikować swoje zachowanie lub kod w odpowiedzi na napotkane środki bezpieczeństwa. Dodatkowo, oparte na AI botnety mają potencjał do przeprowadzenia wyniszczających ataków rozproszonej odmowy dostępu do usługi (DDoS).

Gdy ChatGPT zyskał na popularności, zauważyliśmy, że wiele osób prosi go o tworzenie skryptów automatyzacji za pomocą PowerShell lub podobnego narzędzia. Skrypty te często zawierały błędy, jednak nadal były pomocne i przyspieszały pracę administratorów. Tak samo ze sztucznej inteligencji korzystają dziś i w coraz większym stopniu korzystać będą cyberprzestępcy, tworząc złośliwe oprogramowanie. Jak wynika z wydanego niedawno raportu Barracuda Networks i Instytutu Ponemon, 48% specjalistów IT uważa, że użycie generatywnej sztucznej inteligencji skróci czas potrzebny cyberprzestępcom do przygotowania cyberataku

Mateusz Ossowski
CEE Channel Manager w firmie Barracuda Networks

3. Deepfake

Sztuczna inteligencja pomaga też w generowaniu fałszywych treści wizualnych i dźwiękowych. Służą one do podszywania się i tworzenia bardziej przekonujących ataków.

Atakujący mogą na przykład przygotować deepfake'owe nagranie audio lub wideo, w którym wykorzystują głos czy wizerunek pracownika lub osoby z kadry kierowniczej firmy. Taki materiał dołączają do e-maila phishingowego, podnosząc jego wiarygodność. Cyberprzestępcy są w stanie także stworzyć fałszywe wideo, aby rozpowszechniać nieprawdziwe informacje o organizacji lub jej kierownictwie. Wszystko po to, by zaszkodzić reputacji i manipulować opinią publiczną

Mateusz Ossowski
CEE Channel Manager w firmie Barracuda Networks

Inną taktyką wykorzystywaną przez cyberprzestępców jest przygotowywanie fałszywych spotkań wideo. Atakujący tworzą deepfake'owe filmy symulujące spotkania online lub konferencje z udziałem kierownictwa firmy. Podszywają się pod osoby zarządzające, wykorzystując ich adresy e-mail, zdjęcia, a czasem też spreparowane nagrania audio, by wydawać polecenia autoryzacji przelewów lub udostępniania ekranów i przekazywania wrażliwych informacji.

Cyberprzestępcy uciekają się też do szantażów. Dzięki sztucznej inteligencji tworzą deepfake'owe filmy, w których ich ofiary biorą udział w kompromitujących lub niestosownych działaniach. Następnie atakujący próbują wymusić zapłatę okupu w zamian za niepublikowanie treści.

4. Lokalizacja treści

Wiele ataków e-mailowych jest tworzonych przez osoby, które nie znają języka swojej ofiary. W przeszłości prowadziło to do powstawania charakterystycznych błędów gramatycznych, które były sygnałami ostrzegawczymi potencjalnego ataku phishingowego. Teraz dzięki pomocy sztucznej inteligencji atakujący dostosowują wiadomości phishingowe do lingwistycznego i kulturowego kontekstu odbiorców.

  • Cyberprzestępcy mogą automatycznie tłumaczyć wiadomości phishingowe na różne języki i personalizować ich treść.
  • Kampanie phishingowe są dostosowywane do różnych regionów i zawierają odniesienia do lokalnych wydarzeń kulturalnych, świąt, wiadomości lub zwyczajów.
  • E-maile pisane są branżowym językiem, z uwzględnieniem specyficznej terminologii i żargonu zrozumiałego dla atakowanej grupy osób.
  • W e-mailach phishingowych znajdują się informacje dotyczące lokalnych marek, instytucji lub organów rządowych, co podnosi ich wiarygodność.

5. Kradzież danych dostępowych

Kradzież dostępu i poświadczeń to często ważne cele dla cyberprzestępców, a sztuczna inteligencja pomaga im zwiększyć skalę tych działań.

Phishing i fałszywe strony logowania: Hakerzy tworzą fałszywe strony logowania, które przypominają prawdziwe. Sztuczna inteligencja sprawia, że są one bardziej przekonujące. Ułatwia również tworzenie wielu kopii witryn.

Uzupełnianie danych logowania: Hakerzy korzystają z automatycznych narzędzi, często zasilanych przez AI, aby systematycznie testować duże ilości kombinacji nazw użytkowników i haseł uzyskanych z poprzednich wycieków danych. Algorytmy sztucznej inteligencji mogą między innymi optymalizować proces uzupełniania danych logowania, wybierając najbardziej prawdopodobne kombinacje na podstawie obserwowanych wzorców w przeciekach danych.

Łamanie haseł: Narzędzia oparte na AI mogą łamać hasła na podstawie dźwięku naciśnięć klawiszy. Zainfekowane złośliwym oprogramowaniem urządzenie umożliwia atakującemu podsłuchiwanie pomieszczenia i przechwytywanie wpisywanych haseł.

Pokonywanie CAPTCHA: CAPTCHA często lepiej radzi sobie z zatrzymywaniem ludzi niż botów. Obecnie narzędzie to często jest pokonywane za pomocą specjalnych farm CAPTCHA lub skryptów działających na zasadzie rozpoznawania optycznego znaków (OCR). Ze sztuczną inteligencją obejście tego zabezpieczenia jest jeszcze łatwiejsze.

Więcej informacji o wpływie sztucznej inteligencji na cyberbezpieczeństwo można znaleźć w ebooku: https://www.barracuda.com/reports/ai-cybersecurity-guide

Kamil Budak

Kamil Budak
product manager Barracuda

Masz pytania?
Skontaktuj się ze mną:
budak.k@dagma.pl
32 793 11 07

Podobne wpisy:

Polecane wydarzenia: