Czy sztuczna inteligencja zmieni nasz świat? Tak. Czy na lepsze? Tylko po warunkiem odpowiednich regulacji, zapewniających etyczny i odpowiedzialny sposób jej wykorzystania – uważają eksperci Check Point Software. Już dziś AI wykorzystywane jest zarówno przez firmy specjalizujące się w bezpieczeństwie sieciowym, jak i przez cyberprzestępców opracowujących nowe, wyrafinowane sposoby ataków.
– AI pokazała już swój potencjał i możliwość zrewolucjonizowania wielu obszarów, takich jak opieka zdrowotna, finanse czy transport. Może zautomatyzować żmudne zadania, zwiększyć wydajność i dostarczyć informacje, które wcześniej nie były nieosiągalne. Sztuczna inteligencja mogłaby również pomóc nam rozwiązywać złożone problemy, podejmować lepsze decyzje lub zajmować się niebezpiecznymi zadaniami, takimi jak rozbrajanie bomb, lot w kosmos lub eksploracja oceanów. Tymczasem obserwujemy masowe wykorzystanie technologii sztucznej inteligencji do tworzenia cyberzagrożeń — zauważa Wojciech Głażewski, country manager firmy Check Point Software Technologies Polska. Niewłaściwe wykorzystanie sztucznej inteligencji było już szeroko relacjonowane w mediach, jak np. wykorzystanie ChatGPT do tworzenia szkodliwego oprogramowania.
Rozwój sztucznej inteligencji nie jest tylko chwilową modą. Już wkrótce okaże się, jak pozytywny (lub negatywny) wpływ AI będzie miała na społeczeństwo. Rok 2023 zostanie zapamiętany przez opinię publiczną jako „Rok sztucznej inteligencji”. Musimy mieć realistyczne oczekiwania i nie postrzegać sztucznej inteligencji jako automatycznego panaceum na wszystkie problemy świata.
Często słyszymy obawy, że sztuczna inteligencja już wkrótce zbliży się, a nawet przewyższy ludzkie możliwości. Przewidywanie, jak zaawansowana będzie sztuczna inteligencja, jest jednak trudne… Obecna sztuczna inteligencja określana jest jako wąska lub „słaba” sztuczna inteligencja (ANI – Artificial Narrow Intelligence). Silna sztuczna inteligencja (AGI – Artificial General Intelligence) powinna funkcjonować już jak ludzki mózg: myśląc, ucząc się i rozwiązując zadania podobnie jak człowiek. Ostatnią kategorią jest Sztuczna Super Inteligencja (ASI) i będą to w zasadzie maszyny mądrzejsze od nas.
Jeśli sztuczna inteligencja osiągnie poziom AGI, istnieje ryzyko, że może działać samodzielnie i potencjalnie stać się zagrożeniem dla ludzkości. Dlatego musimy pracować nad dostosowaniem celów i wartości sztucznej inteligencji, by były zgodne z ludzkimi.
– Aby ograniczyć ryzyko związane z zaawansowaną sztuczną inteligencją, ważne jest, aby rządy, firmy i organy regulacyjne współpracowały ze sobą w celu opracowania solidnych mechanizmów bezpieczeństwa, ustanowienia zasad etycznych oraz promowania przejrzystości i odpowiedzialności w rozwoju sztucznej inteligencji. Istnieją propozycje, takie jak ustawa o sztucznej inteligencji , jednak do tej pory nie została uchwalona, co oznacza, że zasadniczo podlega wyłącznie kompasom moralnym użytkowników i programistów. W zależności od rodzaju sztucznej inteligencji firmy, które opracowują i udostępniają systemy AI, powinny zapewnić co najmniej minimalne standardy, takie jak prywatność, uczciwość, zrozumiałość lub dostępność – dodaje ekspert Check Pointa.
Niestety sztuczna inteligencja może być również wykorzystywana przez cyberprzestępców do udoskonalania ataków, automatycznego identyfikowania luk w zabezpieczeniach, tworzenia ukierunkowanych kampanii phishingowych, inżynierii społecznej lub tworzenia zaawansowanego szkodliwego oprogramowania, które może zmieniać swój kod, aby lepiej unikać wykrycia. Sztuczna inteligencja może być również wykorzystywana do generowania przekonujących podróbek audio i wideo, które można wykorzystać do manipulacji politycznych, fałszywych dowodów w procesach karnych lub nakłaniania użytkowników do zapłacenia pieniędzy.
Ale sztuczna inteligencja jest również ważną pomocą w obronie przed cyberatakami. Przykładowo firma Check Point Software wykorzystuje ponad 70 różnych narzędzi do analizy zagrożeń i ochrony, z których ponad 40 opiera się na sztucznej inteligencji. Technologie te pomagają w analizie behawioralnej, analizując duże ilości danych o zagrożeniach z różnych źródeł, w tym darknetu, ułatwiając wykrywanie luk typu „zero day” lub automatyzując łatanie luk w zabezpieczeniach.
– Ostatnio dyskutowano o różnych regulacjach i ograniczeniach sztucznej inteligencji. W przypadku ChatGPT obawy dotyczą głównie prywatności. Byliśmy już świadkami wycieku danych, a limit wiekowy użytkowników wciąż nie został ustalony. Jednocześnie centralne blokowanie takich usług ma tylko ograniczony efekt, ponieważ każdy nieco bardziej bystry użytkownik może obejść zakaz, na przykład korzystając z VPN. Problem polega na tym, że większość użytkowników nie zdaje sobie sprawy, że wprowadzone do ChatGPT wrażliwe informacje będą bardzo wartościowe w przypadku wycieku i mogą być wykorzystane w celach ukierunkowanego marketingu. Mówimy tutaj o potencjalnej manipulacji społecznej na skalę dotąd niespotykaną – podkreśla Wojciech Głażewski.
Wpływ sztucznej inteligencji na nasze społeczeństwo będzie zależał od tego, w jaki sposób zdecydujemy się rozwijać i wykorzystywać tę technologię. Ważne będzie rozważenie potencjalnych korzyści i zagrożeń przy jednoczesnym dążeniu do zapewnienia, by sztuczna inteligencja była rozwijana w sposób odpowiedzialny, etyczny i korzystny dla społeczeństwa.