Check Point wykorzystuje sztuczna inteligencję do walki z oszustwami

AIAktualnościWiadomości

Za mało środków przeciwko deepfakes

Nowe badanie przeprowadzone przez Internet Foundation Mozilla ostrzega przed poważnymi brakami w etykietowaniu obrazów, filmów i plików audio generowanych przez sztuczną inteligencję.
Ekspertyza ostrzega przed znaczącymi brakami we współczesnych metodach oznaczania obrazów, filmów i nagrań dźwiękowych, które zostały wygenerowane przy pomocy sztucznej inteligencji.

Oznaczenia widoczne dla użytkowników mogą wprowadzać w błąd i trudne do wykrycia – a jednocześnie są stosunkowo łatwe do usunięcia – podkreśla w opublikowanym w poniedziałek raporcie Internet Foundation Mozilla . Techniczne znaki wodne, które są automatycznie osadzane w treści generowanej przez sztuczną inteligencję, są solidniejszym rozwiązaniem. Również w tym przypadku obowiązuje jednak zastrzeżenie, że informacje te muszą najpierw zostać odczytane przez oprogramowanie na urządzeniach użytkowników i im wyświetlone.

Złośliwe użycie nie zostało od początku przemyślane

Przepisy dotyczące oznaczania treści często nie przynoszą skutku, ostrzegł badacz Mozilli, Ramak Molavi Vasse’i. W końcu tak zwane deepfakes są zwykle tworzone specjalnie w celu wprowadzenia w błąd. Jeżeli branża nie poczyni postępów w zakresie samoregulacji, należy wywrzeć większą presję. Ogólnie rzecz biorąc, problemem jest to, że obecnie do obiegu wprowadzana jest technologia, w której od początku nie są przemyślane i zainstalowane środki zapobiegające złośliwemu użyciu. Ponadto zamiast jednolitego standardu nadal istnieje wiele różnych procedur w tym zakresie.

Dzięki oprogramowaniu AI możesz tworzyć coraz bardziej realistyczne zdjęcia na podstawie specyfikacji tekstowych. A teraz coraz więcej wideo jest generowanych w ten sposób – twórca ChatGPT, OpenAI, zaprezentował niedawno swoje oprogramowanie wideo Sora. Ekspert Mozilli skrytykował widoczne oznaczenie wskazujące na pochodzenie AI w przypadku Sory, które jest małe i często trudne do zauważenia.

Duże obawy przed wyborami

Zwłaszcza w tym roku, w związku z wyborami prezydenckimi w USA i wyborami europejskimi, istnieją poważne obawy, że podróbki stworzone przy użyciu sztucznej inteligencji mogą zostać wykorzystane do wywarcia wpływu na ich wynik. W USA, na krótko przed prawyborami Partii Demokratycznej w stanie New Hampshire, rozpoczęły się automatyczne rozmowy telefoniczne, w których zwodniczo prawdziwy głos prezydenta Joe Bidena wzywał ludzi do trzymania się z daleka od głosowania.

Takie podróbki audio są uważane za duży problem po prostu dlatego, że istnieje mniej sposobów ich wykrycia na podstawie błędów lub tablic rejestracyjnych. Znane były już przypadki wykorzystania takich nagrań do tzw. sztuczki z wnukiem, polegającej na próbie kradzieży pieniędzy w imieniu bliskich.

Polecane artykuły
Aktualnoście-commerceKLMWiadomości

KLM jako pierwszy używa elektrycznych ciężarówek-chłodni

AktualnościCheck PointcyberatakiWiadomości

Hakerzy zagrożeniem dla polskich i europejskich banków

Aktualnoście-commerceWiadomości

Jakie dokumenty są potrzebne do wnioskowania o kredyt?

Aktualnoście-commerceWiadomości

Wyroby czekoladowe znacznie droższe niż rok temu

Zapisz się do Newslettera
Bądź na bieżąco i otrzymuj najnowsze artykuły

1 Comment

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *