Jest to pierwotny strach człowieka przed sztuczną inteligencją: idea, że pewnego dnia oprogramowanie przebije swoich twórców. I przejmuje nad nimi kontrolę. Jednak były badacz Google widzi znacznie bardziej konkretne zagrożenia związane z technologią. I sposób, w jaki firmy sobie z tym radzą.
„Przypomina mi to, jak opowiadałeś historie o duchach jako dziecko, coś o dużym ciężarze emocjonalnym. Nagle wszyscy są przerażeni i reagują na to. A potem trudno w to nie uwierzyć” – powiedziała w rozmowie z „Fast Company ” podsumowuje ich pogląd na temat strachu przed przejęciem przez sztuczną inteligencję. Ludzie intuicyjnie reagują na technologię, ponieważ przedstawia się ona jako chętnie słuchający rozmówca. „A to stwarza rodzaj myślenia życzeniowego, aby zobaczyć w niej coś ludzkiego” – uważa.
Opór w Google
Whittaker opuściła Google po sporze. W 2017 roku grupa chciała opracować systemy docelowe oparte na sztucznej inteligencji dla armii USA pod nazwą projektu „Maven”. Whittaker i niektórzy współpracownicy głośno sprzeciwili się planom. I chociaż Google ostatecznie wycofało się z projektu, Whittaker mówi, że był naciskany, aby opuścić firmę. – Wiedziałam, że tak się stanie – wspomina. „Nie zadzierasz z pieniędzmi w ten sposób i nie zostajesz wypchnięty”. Według Google odeszła z firmy dobrowolnie.
Mimo to jest zaskakująco krytyczna wobec odejścia z firmy kolejnego badacza AI. Weteran sztucznej inteligencji Geoffrey Hinton ogłosił w tym tygodniu, że odchodzi z firmy. I żałować pracy swojego życia z powodu rodzących się niebezpieczeństw. Wyjaśnił, że jego pogląd na technologię i związane z nią niebezpieczeństwa radykalnie się zmienił. „A co, jeśli to, co dzieje się w systemach, jest w rzeczywistości znacznie lepsze niż to, co dzieje się w naszym mózgu?”, pytał, patrząc na stale przyspieszający rozwój. I zaskakująco wezwał do ograniczeń prawnych. „Nie powinniśmy pozwolić, aby to dalej rosło, chyba że wiemy, czy możemy to kontrolować”.
Wada w systemie
Whittaker jest zaskakująco krytyczna wobec tych stwierdzeń. „Rozczarowuje mnie, gdy ktoś nagle na starość wyrusza w trasę koncertową z żalem” — przyznaje, zapytana o Hintona. Obaj pracowali w Google w tym samym czasie, chociaż nie znali się zbyt dobrze, jak podkreśla. Usprawiedliwia swoje rozczarowanie prostym faktem: Hinton milczał, kiedy ona i inni koledzy wiele lat temu zwracali uwagę na niebezpieczeństwa związane z technologią.
Oprócz zastosowań wojskowych, Whittaker i jej kolega Timnit Gebru byli przede wszystkim zainteresowani wielokrotnym wytykaniem niesprawiedliwości zaprogramowanych w programach. Ponieważ oprogramowanie jest rozwijane głównie przez białych mężczyzn, systemy sztucznej inteligencji odzwierciedlają również niesprawiedliwości istniejące w społeczeństwie, argumentowali ci krytycy. W rzeczywistości takie różnice można wciąż odkrywać, na przykład gdy osoby o ciemnej skórze są gorzej rozpoznawane przez programy do rozpoznawania twarzy lub programy do generowania obrazów, które przedstawiają kobiety wyraźnie bardziej zseksualizowane niż mężczyźni. Krytycy obawiają się, że jeśli AI nauczy się, że te różnice są normalne, a nawet poprawne, wynikające z tego problemy społeczne staną się jeszcze większe.
Inne zmartwienia
„To nie jest unikalne dla Google” — zauważa Whittaker. W całym rozwoju sztucznej inteligencji osoby jej dotknięte, a szczególnie często kobiety, zwracały uwagę na ten problem. I zostały zignorowane. „Ale kiedy ojciec AI w końcu coś o tym mówi, to musi być prawda” – cynicznie komentuje wypowiedzi Hintona. Ekspert, który bada technologię od lat 70., jest często nazywany „przodkiem sztucznej inteligencji”.
Obecnie Whittaker uważa swoje ostrzeżenia o zbyt inteligentnej sztucznej inteligencji za przesadzone. „Wciąż nie mamy żadnego dowodu na to, że te modelki […] mają iskrę świadomości” – odsuwa na bok strach. „Nadal możemy wyciągnąć wtyczki lub zalać serwerownie”.
Kto jest pod kontrolą?
„Rozprasza nas, wywołując strach przed hipotetycznymi problemami, jak w filmie Gry wojenne, ale w większości są one wymyślone” – mówi. „Ale prawdziwe, naprawdę istniejące problemy są znacznie trudniejsze do rozwiązania”. Największe ryzyko widzi gdzie indziej: „Technologia jest w rękach kilku bardzo potężnych korporacji. I to one ostatecznie podejmują decyzje o tym, jak są tworzone, do czego są zdolne i komu służą” – wyjaśnia View. „A jeśli spojrzymy na interesy tych firm, mamy całkiem niezłe wyobrażenie o tym, w jakim kierunku sprawy mogą się potoczyć” – szepcze. „Do czego służy, kto go używa i jakie są szanse na uniknięcie prawdziwych szkód”.
Również przemysł i politycy stają się coraz bardziej świadomi, że specyfikacje dotyczące tworzenia sztucznej inteligencji nie powinny być pozostawione tylko korporacjom. W marcowym liście otwartym wielu gigantów z Doliny Krzemowej wezwało do wstrzymania rozwoju sztucznej inteligencji, a w USA i UE wdrażane są odpowiednie inicjatywy polityczne. Z ostrożności były pracodawca Whittakera, Google, nie oferuje nawet swojego chatbota AI Bard, który jest dostępny na całym świecie od środy, w UE.
Podejście Hintona polegające na publicznym wyrażaniu swoich obaw po opuszczeniu Whittaker ma niewiele do zyskania w świetle wyzwań. „Pracownicy zbierają się razem i mówią: Nie zamierzamy tego robić. Ale jest to możliwe tylko wtedy, gdy ludzie w firmie też tam są”.