Mało osób wie, że 16 lipca jest Dniem Sztucznej Inteligencji, ustanowionym w 2021 roku w celu podkreślenia wkładu SI w rozwój ludzkości. Dziś sztuczna inteligencja jest coraz bardziej powszechna. Niedawna ankieta McKinsey wykazała, że nawet połowa firm wdrożyła SI w co najmniej jednym obszarze działalności. Jednak coraz więcej specjalistów IT zauważa problemy, które trzeba pilnie rozwiązać. SI wykorzystywane jest m.in. przez cyberprzestępców do przygotowywania ataków lub szkolenia członków grup hakerskich.
Sztuczna inteligencja, a w zasadzie uczenie maszynowe zaczęło pojawiać się w użyciu już wiele lat temu. Opublikowane w zeszłym roku badanie McKinsey Global ujawniło, że w 2017 r. 20% respondentów przyznało, że zastosowało sztuczną inteligencję w co najmniej jednym obszarze biznesowym. Ledwie pięć lat później odsetek wynosił już 50%. Oczekuje się, że wzrost ten będzie kontynuowany, ponieważ coraz więcej organizacji zaczyna dostrzegać wartość sztucznej inteligencji dla swoich firm — według badania doradców Forbes ponad 60% właścicieli firm uważa, że sztuczna inteligencja zwiększy ich produktywność.
ChatGPT, platforma sztucznej inteligencji firmy OpenAI, jest pierwszym narzędziem do przedstawionym użytkownikom na całym świecie, które posiadało szereg funkcjonalności i udogodnień — od pisania prac i notatek dla studentów, biznesowych wiadomości e-mail, czy rozwiązań naukowych. Niestety, jak zauważają specjaliści z Check Point Software, ChatGPT i jemu podobne rozwiązania wspierają również działania cyberprzestępcze.
Umiejętności i doświadczenie nie są potrzebne
Jedną z największych zalet sztucznej inteligencji, z których skorzystać mogą również cyberprzestępcy, jest łatwość użycia oraz źródło wiedzy. Pozwala to na przeprowadzenie złośliwych działań szerszemu gronu użytkowników, którzy nie mieli do tej pory odpowiednich kompetencji. W ciągu ostatnich kilku miesięcy pojawiły się nowe małe grupy cyberprzestępców, które są zdolne do bardziej wyrafinowanych cyberataków dzięki opcjom, jakie znaleźli w tej nowej technologii. Nie trzeba być już geniuszem analiz i programowania, by przeprowadzić skuteczny atak cybernetyczny.
Usprawnianie cyberataków
Fakt, że ChatGPT jest dostępny w modelu nieograniczonego bezpłatnego dostępu, umożliwił atakującym wykorzystanie szybkości i dokładności tego narzędzia do tworzenia złośliwego kodu i cyberataków, takich jak kampanie phishingowe. Narzędzia sztucznej inteligencji mogą generować treści, które wyglądają bardzo wiarygodnie. Autonomiczne modele uczenia się pozwalają nie tylko odpowiadać na pytania, ale także tworzyć wszelkiego rodzaju treści (obrazy, filmy, a nawet nagrania audio).
Doprowadziło to niestety do nadużyć w postaci tzw. deepfake’ów, czyli realistycznych imitacji wykorzystywanych do szerzenia dezinformacji. Odnotowano już wiele przypadków fałszywych nagrań z przywódcami państw, takimi jak Barrack Obama, Joe Biden, Voldymyr Zełenski, a nawet Władimir Putin.
Wprowadzenie zautomatyzowanych cyberataków
AI doprowadziło do znacznego wzrostu wykorzystania botów i zautomatyzowanych systemów przeprowadzania ataków online, co pozwala cyberprzestępcom odnosić większe sukcesy.
Świadczyć może o tym wzrost liczby cyberataków na całym świecie. Analitycy Check Point Research odnotowali wzrost cyberataków o 38% w porównaniu z ubiegłym rokiem. Cyberprzestępcy mogą również wykorzystywać botnety oparte na sztucznej inteligencji do przeprowadzania masowych ataków DDoS w celu przeciążenia serwerów swoich celów i zakłócenia ich usług.
Sklonowane narzędzia sztucznej inteligencji
Pomimo szybkiej reakcji programistów, którzy aktualizują zabezpieczenia, cyberprzestępcy znaleźli szybkie sposoby na obejście niektórych ograniczeń. Na początku tego roku zespół badawczy Check Point Software poinformował, że cyberprzestępcy dystrybuowali i sprzedawali własne zmodyfikowane API ChatGPT w darknecie. Niedawna wersja ChatGPT-4.0 pojawiła się z kolei w nowej kampanii kradzieży i sprzedaży kont premium, zapewniającej pełny i nieograniczony dostęp do nowych funkcji narzędzia.
Potrzeba uregulowania uczenia się Sztucznej Inteligencji
Podczas gdy sztuczna inteligencja jest niewątpliwie przyszłością, eksperci, w tym Elon Musk, jeden ze współzałożycieli samego OpenAI, domagają się szerszych regulacji. Utworzyli oni publiczną petycję, poprzez którą starają się tymczasowo zatrzymać rozwój tych narzędzi do czasu ustalenia kodeksu etycznego. Organy międzynarodowe, takie jak Unia Europejska, opracowują już własne przepisy dotyczące sztucznej inteligencji z propozycjami podkreślającymi potrzeby w zakresie bezpieczeństwa cybernetycznego i bezpieczeństwa danych.
Zdaniem ekspertów Check Pointa, wyzwanie polega na tym, że raz zdobytej wiedzy praktycznie nie da się „usunąć” z tych modeli. Oznacza to, że mechanizmy bezpieczeństwa koncentrują się raczej na zapobieganiu gromadzeniu lub ujawnianiu określonych typów procesów informacyjnych niż na całkowitym wyeliminowaniu wiedzy.
Jednak nie wszystkie wiadomości dotyczące sztucznej inteligencji są negatywne. Obecnie sztuczna inteligencja i uczenie maszynowe to również dwa główne filary, które pomagają poprawić możliwości cyberbezpieczeństwa. Faktem jest, że stopień złożoności i rozproszenia obecnych systemów korporacyjnych sprawia, że tradycyjne i manualne monitorowanie, nadzór i kontrola ryzyka są niewystarczające. Technologie te pozwalają na dużo dokładniejszą i wszechstronniejszą analizę zagrożeń oraz utrzymują całodobowe bezpieczeństwo, omijając bariery narzucone ludzkimi ograniczeniami.
– Wyścig z cyberprzestępcami nadal jest jednym z głównych priorytetów. Musimy utrzymywać zaktualizowane i przygotowane środowisko, aby radzić sobie ze wszystkimi obecnymi i przyszłymi zagrożeniami. Dziś posiadamy kilka narzędzi, które stanowią przykład możliwości sztucznej inteligencji w dziedzinie cyberbezpieczeństwa. Aby jednak ograniczyć ryzyko związane z zaawansowaną sztuczną inteligencją, ważne jest, aby badacze i decydenci współpracowali w celu zapewnienia, że technologie te będą rozwijane w bezpieczny i korzystny sposób – mówi Wojciech Głażewski, country manager firmy Check Point Software w Polsce.