Meta musiała się usprawiedliwić po krytyce ze strony obozu politycznego zwolenników Trumpa. Donoszono, że chatbot Meta AI najpierw odmówił odpowiedzi na pytania dotyczące zamachu na byłego prezydenta – a następnie częściowo twierdził, że do zamachu nigdy nie doszło.
Firma wyjaśniła we wpisie na blogu, że początkowo Meta AI celowo nie pozwolono jej rozmawiać na temat ataku z 13 lipca. Ponieważ wokół wydarzeń, które przyciągają uwagę na pierwszych stronach gazet, często krążą sprzeczne informacje i bezpodstawne spekulacje, a nawet teorie spiskowe.Jednak nawet po tym, jak chatbot AI otrzymał informację o ataku, „w kilku przypadkach” twierdził, że do niego nie doszło – przyznała Meta. To było „niefortunne”, ale nie zamierzone.
„Halucynacje” są częstym problemem chatbotów AI i mają związek ze sposobem działania oprogramowania. Programy są najpierw szkolone z wykorzystaniem ogromnych ilości informacji. Odpowiadając na zapytania użytkowników, następnie na tej podstawie rozważają, słowo po słowie, jak prawdopodobnie powinno być kontynuowane zdanie.
Oznacza to, że oprogramowanie może łączyć całkowicie fałszywe stwierdzenia, nawet jeśli zostało przeszkolone wyłącznie na podstawie prawidłowych informacji. Twórcy sztucznej inteligencji próbują zapanować nad problemem, stosując dodatkowe bariery ochronne dla programów. W drugim numerze zdjęcie przedstawiające Trumpa z ochroniarzami bezpośrednio po zamachu zostało błędnie opatrzone etykietą potwierdzającą fakty. Pierwotnie oznaczało to zmanipulowaną wersję obrazu, na której na twarzach ochroniarzy dodano uśmiechy. Jednak zautomatyzowane systemy Meta miały trudności z odróżnieniem tych dwóch zdjęć, dlatego do oryginalnego zdjęcia dodały także etykietę potwierdzającą fakty.
W ataku mężczyzna postrzelił Trumpa podczas jego wystąpienia w kampanii w stanie Pensylwania. Kule zabiły jednego widza i raniły dwóch innych. Były prezydent został uderzony w ucho.