Z danych firmy Check Point wynika, że w tym roku może nastąpić rekordowy wzrost ataków na polskie instytucje – po raz pierwszy liczba ataków przekroczy 100 tysięcy!!! Codziennie dochodzi do ponad 2000 ataków na świecie. W Polsce – według danych firmy Check Point – mamy do czynienia z 2000 zarejestrowanych ataków tygodniowo.
Rola wykorzystania sztucznej inteligencji (AI) w przygotowaniu i obronie systemów IT przed atakami będzie mieć w najbliższych latach kluczowe znaczenie.
Rozmowa z ekspertem w dziedzinie bezpieczeństwa informatycznego – Danem Karpati, Vice President AI Technology w firmie Check Point Software Technologies – gościem konferencji Check Point Security Security Day 2024 (https://cpsd.checkpoint.pl/).
Manager24: jak będzie rola sztucznej inteligencji w zarządzaniu lukami w zabezpieczeniach, procesie łatania i zabezpieczania firm przed atakami w przyszłości?
Dan Karpati: Generatywna sztuczna inteligencja odegra kluczową rolę w cyklu życia oprogramowania, szczególnie w identyfikowaniu luk w zabezpieczeniach. Wytrenowana na ogromnych ilościach kodu generatywna sztuczna inteligencja potrafi rozpoznawać wzorce wskazujące potencjalne luki w zabezpieczeniach, umożliwiając organizacjom przewidywanie słabych punktów na wcześniejszym etapie cyklu życia produktu, zanim zostaną one wykorzystane. Ta funkcja pomaga ustalić priorytety stosowania poprawek w oparciu o wagę luk w zabezpieczeniach, dzięki czemu problemy krytyczne zostaną rozwiązane w pierwszej kolejności. Ponadto sztuczna inteligencja stale skanuje potencjalne błędy oprogramowania, nawet w środowiskach produkcyjnych, zapewniając dynamiczne wykrywanie luk w zabezpieczeniach. Koncentrując zarządzanie poprawkami na najpilniejszych zagrożeniach, sztuczna inteligencja pomaga organizacjom minimalizować zakłócenia w działalności biznesowej i unikać niepotrzebnych przestojów spowodowanych wykryciem luk w zabezpieczeniach na późniejszym etapie.
Manager24: Jakie kroki mogą podejmować firmy, aby wykorzystać potencjał AI szczególnie w obszarach takich jak kontrola dostępu, wykrywanie anomalii i oceny ryzyka, oraz w jaki sposób organizacje mogą zachować zasady etyczne?
Dan Karpati: Aby zapewnić bezstronne działanie sztucznej inteligencji w cyberbezpieczeństwie, można zastosować generatywną sztuczną inteligencję do tworzenia różnorodnych i zrównoważonych zbiorów danych, które reprezentują szeroki zakres podmiotów, zachowań i scenariuszy z różnych sektorów gospodarki. Ta różnorodność pomaga zmniejszyć ograniczenia w krytycznych obszarach, takich jak kontrola dostępu, wykrywanie anomalii i ocena ryzyka. Ponadto generatywna sztuczna inteligencja może testować i weryfikować wyniki systemów bezpieczeństwa, aby zapewnić ich uczciwe i etyczne działanie. Regularne audyty, przejrzystość i zarządzanie są niezbędne do utrzymania etycznego wykorzystania sztucznej inteligencji, umożliwiając organizacjom podejmowanie odpowiedzialnych decyzji dotyczących bezpieczeństwa, jednocześnie zwiększając zaufanie do ich systemów sztucznej inteligencji.



