Air France wczoraj i dziś. Francuska linia obchodzi 90.urodziny

AIAktualnościWiadomości

Co porabia współzałożyciel OpenAI Ilya Sutskever

Czołowy badacz sztucznej inteligencji, Ilya Sutskever, dzięki swojemu nowemu start-upowi chce zwiększyć bezpieczeństwo sztucznej inteligencji. Co dokładnie ma na myśli współzałożyciel OpenAI? Ilya Sutskever jest ikoną społeczności AI. W 2012 roku 37-latek był jednym z trzyosobowego zespołu autorów, który zapoczątkował obecną modę na sztuczną inteligencję od architektury głębokiego uczenia się Alexnet. W 2015 roku był jednym ze współzałożycieli OpenAI – a w 2023 roku był częścią buntu pałacowego, który próbował obalić dyrektora generalnego Sama Altmana (zanim przynajmniej zmienił zdanie). W połowie maja ogłosił odejście z OpenAI.

Przez wiele miesięcy scena zastanawiała się, co Suckewer planuje dalej. Informatyk ogłosił teraz pierwsze szczegóły swojego przyszłego projektu: Sutskever zakłada firmę Safe Superintelligence (SSI) wraz ze swoim byłym kolegą z OpenAI Danielem Levym oraz inwestorem i byłym menadżerem Apple Danielem Grossem. Deklarowany cel: opracowanie bezpiecznej superinteligencji. 

Kwestia bezpieczeństwa sztucznej inteligencji zaprząta głowę Sutskevera od dawna. Kiedyś dołączył do OpenAI, ponieważ wierzył, że może tam przyspieszyć rozwój sztucznej inteligencji, ze szczególnym naciskiem na bezpieczeństwo. Najwyraźniej zamach stanu Altmana również był z tym powiązany – z niepokojem Sutskevera w związku z rozwojem OpenAI, który stał się wartym miliardy dolarów start-upem o silnych interesach komercyjnych. Nie chce komentować tego publicznie – ale jego kolega z OpenAI, Jan Leike, który również dołączył do nowego start-upu, podsumował to niedawno na X w następujący sposób: Skupienie się na bezpieczeństwie „zeszło na dalszy plan błyszczących produktów” .

To nie powinno się zdarzyć w przypadku SSI. Firma będzie „całkowicie odizolowana od wszelkich nacisków zewnętrznych, aby zajmować się dużym i skomplikowanym produktem i konkurować” – powiedział Sutskever Bloombergowi . „Ta firma jest wyjątkowa, ponieważ jej pierwszym produktem będzie bezpieczny superinteligencja i do tego czasu nie będzie robić nic więcej”.

Jednak presja komercyjna na firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, wynika również z faktu, że mają one niezwykle duże zapotrzebowanie na finansowanie – najnowsze modele językowe wymagają ogromnych ilości danych i mocy obliczeniowej. Nowy projekt Sutskevera nie może tego faktu pominąć. Nadal nie jest jasne, którzy inwestorzy finansują SSI.  

Również niejasne: co dokładnie SSI chce osiągnąć i rozwijać. Pewne jest, że nie będzie polegać na naprawianiu niedociągnięć i zagrożeń obecnych produktów AI – do których zaliczają się na przykład problemy z ochroną danych, prawami autorskimi czy faktem, że narzędzia takie jak ChatGPT mogą wiele powiedzieć, ale nie chodzi tu o dokładność faktów o ich kluczowych kompetencjach. 

Sutskever niepokoi się ważniejszymi pytaniami: jak będzie wyglądać znacznie potężniejsza sztuczna inteligencja w przyszłości i jak sobie poradzą z nami, ludźmi. Założyciel SSI powiedział kilka miesięcy temu Guardianowi , że sztuczna inteligencja rozwiąże „wszystkie problemy, jakie mamy dzisiaj”, w tym bezrobocie, choroby i biedę, ale stworzy też nowe problemy: „Sztuczna inteligencja ma potencjał „Aby stworzyć wieczne dyktatury Sutskever odnosi się do etapu rozwoju sztucznej inteligencji, znanego na scenie jako superinteligencja, który zgodnie z tym rozumieniem byłby jeszcze potężniejszy niż sztuczna inteligencja ogólna (AGI). Miałaby nie tylko zdolności ludzkie, ale także zdolności wykraczające poza nie. 

Taka superinteligencja musi mieć tę właściwość, że „nie wyrządzi ludzkości krzywdy na dużą skalę” – powiedział Sutskever Bloombergowi. „Chcemy, aby działał w oparciu o pewne ważne wartości”. Ma przez to na myśli „być może wartości, które odniosły taki sukces w ciągu ostatnich kilkuset lat i które leżą u podstaw liberalnych demokracji, takie jak wolność i demokracja”.

Obecnie nie ma konkretnych informacji na temat tego, jak dokładnie założyciele chcą zaszczepić te wartości w swoich modelach AI. Sutskever mówi tylko, że pewnego dnia powstaną ogromne supercentra danych, które samodzielnie będą opracowywać nowe technologie. „To szalone, prawda? To „chcemy przyczynić się do ich bezpieczeństwa”.

Polecane artykuły
AktualnościWiadomościZarządzanie

Co motywuje wielu dyrektorów generalnych, takich jak Elon Musk?

AktualnościITTechnologieWiadomości

Chipowy gigant TSMC zaskakuje skokiem zysków

AktualnościMotoryzacjaWiadomości

Sprzedaż samochodów w Europie na najwyższym poziomie od pięciu lat

AktualnościFinanseWiadomości

Capital One przekaże 265 miliardów dolarów, aby zostać liderem kart kredytowych

Zapisz się do Newslettera
Bądź na bieżąco i otrzymuj najnowsze artykuły