9 lutego 2023

Jak cyberprzestępcy mogą wykorzystywać sztuczną inteligencję? - komentarz ekspertów ESET

Popularność AI, w tym ChatGPT, to także nowe wyzwania z zakresu cyberbezpieczeństwa dla nas wszystkich.

  • Brytyjski Dailymail zwraca uwagę na zagrożenia związane z technologią deepfake, zarówno dla indywidualnych użytkowników, jak i bezpieczeństwa międzynarodowego1
  • Z kolei serwis Hackread donosi, że pojawiły się aplikacje firm trzecich udostępniające funkcjonalność ChatGPT, które mogą zbierać dane użytkowników i wysyłać je na zdalne serwery2

Poniżej komentarze ekspertów ESET do tych aktualnych tematów.

Zagrożenia związane z deepfake:

Sztuczna inteligencja rozwija się tak szybko, że musimy albo sprawniej tworzyć regulacje z nią związane albo skuteczniej uczyć się obrony przed jej niewłaściwym wykorzystaniem. Deepfake, czyli tworzenie przy użyciu metod AI niemożliwych do odróżnienia od rzeczywistych materiałów wizualnych, to bez wątpienia jedno z największych i najbardziej zaawansowanych zagrożeń cyberbezpieczeństwa przyszłości. Możliwości wykorzystania tej technologii są nieograniczone. Od tworzenia cyfrowych klonów ludzi, które mogą zostać wykorzystane do zniesławiania prawdziwych osób, czy budowania fałszywych relacji, po problemy z bezpieczeństwem takie jak wyłudzenia czy nadużywanie technologii rozpoznawania twarzy. Potencjalnie zmierzamy w kierunku nowej ery internetu, w której zobaczenie czegoś na własne oczy nie będzie już żadnym dowodem prawdziwości. Zdecydowanie wymaga to edukowania użytkowników, ponieważ cyberprzestępcy sprytnie wykorzystują nowe technologie do ataków. Jednocześnie branża cyberbezpieczeństwa jest świadoma, że tego typu zagrożenia wymagają rozwiązań chroniących, opartych na uczeniu maszynowym. Technologie deep learning samodzielnie generują wysokiej jakości fałszywe obrazy, więc wkrótce będziemy potrzebować nowych form wielowarstwowych zabezpieczeń, aby móc przeprowadzić bezpiecznie nawet najprostsze transakcje, wymagające potwierdzenia tożsamości

Kamil Sadkowski,
starszy specjalista ds. cyberbezpieczeństwa ESET

Fałszywe aplikacje wykorzystujące ChatGPT:

ChatGPT stał się niezwykle popularny i wygląda na to, że jest w stanie sprostać większości postawionych mu zadań. Jednak korzystanie z tej platformy wykorzystującej sztuczną inteligencję aktualnie jest możliwe tylko z poziomu przeglądarki internetowej i nie powstała jeszcze dedykowana i oficjalna aplikacja mobilna. Jest to niestety okazja dla niektórych osób o złych zamiarach, które opracowały własne aplikacje, nadużywające tę technologię. Chociaż na pierwszy rzut oka może się to wydawać nieistotne, te aplikacje poza dostępem do ChatGPT posiadają także dodatkowe funkcjonalności, często wymagające drogich subskrypcji. Mogą również gromadzić dane użytkownika i urządzenia, a następnie wykorzystywać je do dalszych celów. Dlatego tak ważne, jest zwrócenie uwagi na co się zgadzamy, korzystając z aplikacji, jak również co jest zapisane w polityce prywatności, gdyż nasze zapytania mogą być np. przekazane firmom trzecim. Każda nieoficjalna aplikacja to zwiększone ryzyko utraty naszych danych. Dlatego użytkownicy powinni zachować ostrożność i zwracać uwagę na to, co instalują i z jakiego źródła jest aplikacja. Mówi się o tym, że dane to aktualnie najcenniejsza waluta, więc warto nieustannie przypominać, jak ważna jest ich właściwa ochrona

Beniamin Szczepankiewicz,
starszy specjalista ds. cyberbezpieczeństwa ESET

1Źródło: https://www.dailymail.co.uk/sciencetech/article-11675003/Deepfakes-Cyber-expert-warns-AI-images-pose-national-security-risk.html
2Źródło: https://www.hackread.com/chatgpt-clone-apps-collect-ios-play-store

Grzegorz Klocek

Grzegorz Klocek
senior product manager ESET

Masz pytania?
Skontaktuj się ze mną:
[email protected]
32 259 11 34