30 sierpnia 2024
Używasz Chata GPT w pracy? Możesz stać się ofiarą oszustów
Cyfrowa transformacja przedsiębiorstw coraz częściej opiera się na sztucznej inteligencji. Przykładowo w branży programowania w ciągu dwóch lat 85% osób będzie korzystać z generatywnej AI. Szerokie stosowanie AI w biznesie to także szansa dla cyberprzestępców – alarmują analitycy ESET, którzy w II połowie 2023 r. zablokowali 650 000 prób oszustw za pośrednictwem złośliwych domen, używających nazwy Chat GPT lub podobnego tekstu, sugerującego powiązanie z najpopularniejszym narzędziem AI.
AI – wielka szansa na cyfrową transformację
Wykorzystanie generatywnej sztucznej inteligencji w biznesie stało się koniecznością. Menedżerowie i dyrektorzy firm, które przeprowadzają cyfrową transformację, powinni być świadomi, że wdrażanie AI nie jest już tylko wizerunkową ciekawostką, ale też koniecznym ruchem, w konkurencyjnym środowisku biznesowym. Tendencja ta jest już doskonale widoczna wśród firm z sektora IT . Jak wynika z raportu Capgemini „Gen AI in software”, aż 85% programistów w ciągu najbliższych dwóch lat będzie korzystać z Gen AI. Ponadto, aż 80% ankietowanych uważa, że automatyzacja prostych, powtarzalnych zadań za pomocą narzędzi i rozwiązań Gen AI znacząco zmieni ich pracę i umożliwi skupienie się na zadaniach o większej wartości.
Dla 46% osób na stanowiskach inżynierów oprogramowania, narzędzia AI już teraz stanowią wsparcie przy codziennych zadaniach. Z generatywnej sztucznej inteligencji w pracy korzystają coraz intensywniej także specjaliści z wielu innych branż. Zamiast zadawać pytanie, czy korzystać z AI, powinniśmy zastanowić się, jak to robić, by było to bezpieczne dla firmy.
Chat GPT – uważaj na fałszywe narzędzie web i aplikacje
Chat GPT bije rekordy popularności. Szacuje się, że posiada 60% udziału w rynku wykorzystywanych narzędzi AI . Przekłada się to na skalę zagrożeń.
Statystyki są druzgocące – tylko w drugiej połowie 2023 r. ESET zablokował ponad 650 000 prób wejścia użytkowników na fałszywe strony związane z „chatgpt” lub podobnym tekstem w nazwie. Drugim znaczącym wektorem ataku na użytkowników jest reklamowanie i próba nakłonienia do instalacji fałszywych aplikacji bliźniaczo podobnych do Chat GPT. W sklepach z aplikacjami (szczególnie mobilnymi) zaroiło się od fałszywych kopii różnych aplikacji imitujących najnowsze wersje, np. Chat GPT 5, Sora czy MidJourney, zawierających złośliwe oprogramowanie
Beniamin Szczepankiewicz
Analityk laboratorium antywirusowego ESET.
To właśnie pracownik, skuszony oszczędnością czasu, często chcący usprawnić swoją pracę, jest najsłabszym ogniwem systemu i prowokuje niebezpieczne sytuacje. Fałszywe aplikacje po pobraniu i instalacji mogą atakować użytkowników reklamami, nakłaniać do dodatkowych zakupów w aplikacji lub wymagać subskrypcji usług, które nie istnieją i lub są wyjątkowo niskiej jakości.
Odkryliśmy również próby oszustw, w których cyberprzestępcy obiecywali dostęp do zaawansowanych możliwości sztucznej inteligencji, które miałyby zostać udostępnione za dodatkową opłatą. Znaczna część ataków jest przeprowadzana za pomocą reklam w mediach społecznościowych, gdzie masowo proponowane są użytkownikom fałszywe strony lub aplikacje
Beniamin Szczepankiewicz
Analityk laboratorium antywirusowego ESET.
Niezaufane a zainstalowane aplikacje desktopowe lub mobilne mogą również zawierać złośliwe oprogramowanie, dzięki któremu oszuści mogą przejąć kontrolę nad komputerem/telefonem komórkowym czy innym urządzeniem, a tym samym zyskać dostęp do przechowywanych tam wszelkich danych: osobowych (także klientów), finansowych czy innych. To już z kolei otwiera cyberprzestępcom furtki do wyłudzeń czy szantażu. Co więcej przechwycone mogą zostać np. dane uwierzytelniające do kont służbowych, a to już prosta droga do ataku na daną firmę lub jej klientów.
Jak pokazuje praktyka, pracownicy korzystając z narzędzi sztucznej inteligencji, nie pamiętają o zasadach bezpieczeństwa cyfrowego. Jak wynika z danych Cyberhaven Labs, ilość danych wprowadzanych przez pracowników do narzędzi Gen AI gwałtownie skoczyła – tylko w okresie od marca 2023 r. do marca br. niemal sześciokrotnie! Do narzędzi AI pracownicy wprowadzają poufne informacje, np. finansowe, dotyczące klientów, pracowników i wiele innych. Należy pamiętać, że dane które wprowadzamy do narzędzi typu AI mogą być w przyszłości używane do trenowania nowych nowszych wersji, a co za tym idzie zmniejszamy poziom prywatności
Wtyczka translatora – zachowaj czujność
Innym sposobem cyberprzestępców wykorzystujących popularność AI jest próba nakłonienia do instalacji fałszywej wtyczki imitującej Tłumacza Google – kierują do niej fałszywe reklamy na Facebooku wykorzystujące wizerunek OpenAI lub Gemini.. Chociaż wtyczka łudząco przypomina realną, w rzeczywistości jest to złośliwe oprogramowanie, które zostało zaprojektowane do wykradania m.in. danych logowania do serwisu Facebook. W ciągu roku systemy ESET zarejestrowały i udaremniły 4 000 prób tego typu oszustw.
Generatywna sztuczna inteligencja jest wielką szansą dla przedsiębiorstw, ale wymaga też od menedżerów i zarządów firm odpowiedzialności we wdrażaniu narzędzi. Pozostawienie wolnej ręki pracownikom może prowadzić do wycieków danych, a co za tym idzie strat finansowych i reputacji. Jak ich unikać? Opracowując w firmie odpowiednie polityki i procedury związane z AI, aktualizując na bieżąco oprogramowanie antywirusowe, a także szkoląc i dzieląc się z pracownikami wiedzą m.in. o konieczności uważnej weryfikacji autentyczności aplikacji AI, z jakich zamierzają skorzystać i jakie dane wprowadzają do systemów AI. Zawsze warto powtarzać także uniwersalne prawdy dotyczące czujności, weryfikacji linków w które się klika i korzystaniu z uwierzytelniania wieloskładnikowego.
1https://www.visualcapitalist.com/ranked-the-most-popular-ai-tools/
Bartosz Różalski
senior product manager ESET
Masz pytania?
Skontaktuj się ze mną:
rozalski.b@dagma.pl
32 259 11 37
Podobne wpisy: