Kiedy Google ogłosił, że doda podsumowania sztucznej inteligencji do wyników wyszukiwania w USA, strony internetowe obawiały się, że będzie mniej użytkowników. Ale przeglądy mają zupełnie inny problem. Odkąd Google dodał przeglądy AI do swojej wyszukiwarki w USA, w Internecie krążą kłopotliwe, a nawet niepokojące błędy w oprogramowaniu. Jeden z użytkowników opublikował zalecenie mocowania sera do pizzy nietoksycznym klejem. W innych wyszukiwarka twierdziła w odpowiedziach AI, jak wynika ze zrzutów ekranu, że psy grały w lidze koszykówki NBA i lidze piłkarskiej NFL oraz że Barack Obama był pierwszym muzułmańskim prezydentem USA.
Tworzone za pomocą sztucznej inteligencji podsumowania – zwane w USA „AI Reviews” – mają za zadanie szybciej dać użytkownikom bezpośrednią odpowiedź na ich pytania, zamiast prezentować im listę linków internetowych. Kilka start-upów chce wykorzystać odpowiedzi AI, aby konkurować z dominacją Google w wyszukiwarce internetowej. Ale firma internetowa również sama bierze udział w tym kursie. Krótkie odpowiedzi na pytania merytoryczne od dawna są dostępne w wyszukiwarce za pośrednictwem linków. Teraz niektóre z nich to teksty składające się z kilku akapitów.
Do końca roku funkcja zostanie wprowadzona także w innych krajach. Wielu właścicieli witryn internetowych i mediów obawia się, że podsumowania Google dotyczące sztucznej inteligencji przyciągną do nich mniej osób, a ich firma ucierpi. Google twierdzi, że w rzeczywistości przepływ danych do źródeł informacji trafiających do przeglądów jest większy. Jak się sprawy mają z resztą, na razie nie jest jasne.
Jaki jest problem?
Jednak powszechne wprowadzenie tej funkcji ujawniło zupełnie inny problem: w wielu przypadkach oprogramowanie AI nie jest w stanie odróżnić poważnych informacji od żartów czy satyry. Źródłem niektórych szczególnie głupich twierdzeń były humorystyczne wpisy na platformach internetowych lub artykuły na satyrycznym portalu „The Onion” – jak np. twierdzenie, że geolodzy zalecają spożywanie małego kamienia dziennie. Rzeczniczka Google powiedziała w czwartek blogowi technologicznemu The Verge, że błędy „na ogół wynikają z bardzo nietypowych żądań i nie są czymś, czego większość ludzi doświadcza”. Te „pojedyncze przykłady” zostaną wykorzystane do ulepszenia produktu.
W lutym Google musiał znosić kpiny w Internecie z powodu programu AI. Oprogramowanie Gemini wygenerowało obrazy innych niż biały nazistowskich żołnierzy i innych niż biały amerykańskich osadników. Google wyjaśnił, że nie zaprogramował wyjątków dla przypadków, w których różnorodność była zdecydowanie nie na miejscu. Po tym wydarzeniu firma Gemini na razie zaprzestała generowania wizerunków ludzi.




[카지노사이트] 불법 먹튀 사이트를 차단하고 안전한 온라인 도박 환경을 조성하세요! 먹튀 사이트 차단 방법, 검증된 사이트 목록, 안전놀이터 추천 등을 제공합니다.