Air France wczoraj i dziś. Francuska linia obchodzi 90.urodziny

AIAktualnościWiadomości

Za mało środków przeciwko deepfakes

Nowe badanie przeprowadzone przez Internet Foundation Mozilla ostrzega przed poważnymi brakami w etykietowaniu obrazów, filmów i plików audio generowanych przez sztuczną inteligencję.
Ekspertyza ostrzega przed znaczącymi brakami we współczesnych metodach oznaczania obrazów, filmów i nagrań dźwiękowych, które zostały wygenerowane przy pomocy sztucznej inteligencji.

Oznaczenia widoczne dla użytkowników mogą wprowadzać w błąd i trudne do wykrycia – a jednocześnie są stosunkowo łatwe do usunięcia – podkreśla w opublikowanym w poniedziałek raporcie Internet Foundation Mozilla . Techniczne znaki wodne, które są automatycznie osadzane w treści generowanej przez sztuczną inteligencję, są solidniejszym rozwiązaniem. Również w tym przypadku obowiązuje jednak zastrzeżenie, że informacje te muszą najpierw zostać odczytane przez oprogramowanie na urządzeniach użytkowników i im wyświetlone.

Złośliwe użycie nie zostało od początku przemyślane

Przepisy dotyczące oznaczania treści często nie przynoszą skutku, ostrzegł badacz Mozilli, Ramak Molavi Vasse’i. W końcu tak zwane deepfakes są zwykle tworzone specjalnie w celu wprowadzenia w błąd. Jeżeli branża nie poczyni postępów w zakresie samoregulacji, należy wywrzeć większą presję. Ogólnie rzecz biorąc, problemem jest to, że obecnie do obiegu wprowadzana jest technologia, w której od początku nie są przemyślane i zainstalowane środki zapobiegające złośliwemu użyciu. Ponadto zamiast jednolitego standardu nadal istnieje wiele różnych procedur w tym zakresie.

Dzięki oprogramowaniu AI możesz tworzyć coraz bardziej realistyczne zdjęcia na podstawie specyfikacji tekstowych. A teraz coraz więcej wideo jest generowanych w ten sposób – twórca ChatGPT, OpenAI, zaprezentował niedawno swoje oprogramowanie wideo Sora. Ekspert Mozilli skrytykował widoczne oznaczenie wskazujące na pochodzenie AI w przypadku Sory, które jest małe i często trudne do zauważenia.

Duże obawy przed wyborami

Zwłaszcza w tym roku, w związku z wyborami prezydenckimi w USA i wyborami europejskimi, istnieją poważne obawy, że podróbki stworzone przy użyciu sztucznej inteligencji mogą zostać wykorzystane do wywarcia wpływu na ich wynik. W USA, na krótko przed prawyborami Partii Demokratycznej w stanie New Hampshire, rozpoczęły się automatyczne rozmowy telefoniczne, w których zwodniczo prawdziwy głos prezydenta Joe Bidena wzywał ludzi do trzymania się z daleka od głosowania.

Takie podróbki audio są uważane za duży problem po prostu dlatego, że istnieje mniej sposobów ich wykrycia na podstawie błędów lub tablic rejestracyjnych. Znane były już przypadki wykorzystania takich nagrań do tzw. sztuczki z wnukiem, polegającej na próbie kradzieży pieniędzy w imieniu bliskich.

Polecane artykuły
AktualnościCheck PointcyberatakicyberbezpieczeństwoWiadomości

Polacy planują majówkę i urlop a cyberprzestępcy podszywają się pod Airbnb

AktualnościITWiadomości

Ultimatum Komisji Europejskiej dla Tiktok

AktualnościWiadomości

Mistral planuje pozyskać pięć miliardów dolarów

AktualnościWiadomości

Adidas zachwyca swoich akcjonariuszy

Zapisz się do Newslettera
Bądź na bieżąco i otrzymuj najnowsze artykuły
%d bloggers like this: