Nowe badanie przeprowadzone przez Internet Foundation Mozilla ostrzega przed poważnymi brakami w etykietowaniu obrazów, filmów i plików audio generowanych przez sztuczną inteligencję.
Ekspertyza ostrzega przed znaczącymi brakami we współczesnych metodach oznaczania obrazów, filmów i nagrań dźwiękowych, które zostały wygenerowane przy pomocy sztucznej inteligencji.
Oznaczenia widoczne dla użytkowników mogą wprowadzać w błąd i trudne do wykrycia – a jednocześnie są stosunkowo łatwe do usunięcia – podkreśla w opublikowanym w poniedziałek raporcie Internet Foundation Mozilla . Techniczne znaki wodne, które są automatycznie osadzane w treści generowanej przez sztuczną inteligencję, są solidniejszym rozwiązaniem. Również w tym przypadku obowiązuje jednak zastrzeżenie, że informacje te muszą najpierw zostać odczytane przez oprogramowanie na urządzeniach użytkowników i im wyświetlone.
Złośliwe użycie nie zostało od początku przemyślane
Przepisy dotyczące oznaczania treści często nie przynoszą skutku, ostrzegł badacz Mozilli, Ramak Molavi Vasse’i. W końcu tak zwane deepfakes są zwykle tworzone specjalnie w celu wprowadzenia w błąd. Jeżeli branża nie poczyni postępów w zakresie samoregulacji, należy wywrzeć większą presję. Ogólnie rzecz biorąc, problemem jest to, że obecnie do obiegu wprowadzana jest technologia, w której od początku nie są przemyślane i zainstalowane środki zapobiegające złośliwemu użyciu. Ponadto zamiast jednolitego standardu nadal istnieje wiele różnych procedur w tym zakresie.
Dzięki oprogramowaniu AI możesz tworzyć coraz bardziej realistyczne zdjęcia na podstawie specyfikacji tekstowych. A teraz coraz więcej wideo jest generowanych w ten sposób – twórca ChatGPT, OpenAI, zaprezentował niedawno swoje oprogramowanie wideo Sora. Ekspert Mozilli skrytykował widoczne oznaczenie wskazujące na pochodzenie AI w przypadku Sory, które jest małe i często trudne do zauważenia.
Duże obawy przed wyborami
Zwłaszcza w tym roku, w związku z wyborami prezydenckimi w USA i wyborami europejskimi, istnieją poważne obawy, że podróbki stworzone przy użyciu sztucznej inteligencji mogą zostać wykorzystane do wywarcia wpływu na ich wynik. W USA, na krótko przed prawyborami Partii Demokratycznej w stanie New Hampshire, rozpoczęły się automatyczne rozmowy telefoniczne, w których zwodniczo prawdziwy głos prezydenta Joe Bidena wzywał ludzi do trzymania się z daleka od głosowania.
Takie podróbki audio są uważane za duży problem po prostu dlatego, że istnieje mniej sposobów ich wykrycia na podstawie błędów lub tablic rejestracyjnych. Znane były już przypadki wykorzystania takich nagrań do tzw. sztuczki z wnukiem, polegającej na próbie kradzieży pieniędzy w imieniu bliskich.
This gateway is fabulous. The splendid substance displays the essayist’s commitment. I’m overwhelmed and envision more such astonishing substance.