
Start-up OpenAI zaprezentował kolejną wersję technologii stojącej za popularną maszyną tekstową ChatGPT. Między innymi GPT-4 powinien dawać lepsze wyniki niż poprzednie warianty, jak ogłosił OpenAI w środę wieczorem. Problemy z technologią – takie jak fakt, że może ona po prostu wymyślać rzekome fakty – nadal istnieją, ale powinny pojawiać się rzadziej. GPT-4 jest „kamieniem milowym”, a technologia wykazuje „wydajność na poziomie człowieka w niektórych zadaniach zawodowych i akademickich”, napisała we wtorek kalifornijska firma kierowana przez Sama Altmana (37 l.) w poście na blogu prezentującym nową wersję.
ChatGPT i oprogramowanie Dall-E, które może generować obrazy z szablonów tekstowych, są oparte na poprzedniej generacji GPT. Płacący klienci OpenAI uzyskują dostęp do GPT-4 dla swoich usług. Jest lista oczekujących.
Niektórzy klienci już korzystają z tej technologii. Na przykład aplikacja do nauki języków Duolingo wykorzystuje GPT-4 do treningu dialogów, który jest dostępny w nowej, droższej subskrypcji. Microsoft potwierdził, że jego wyszukiwarka Bing używa GPT-4 od kilku tygodni. Microsoft kupił OpenAI za wielomiliardową transakcję , a pieniądze zapewniły między innymi dostęp do wymaganej ogromnej mocy obliczeniowej. Akcje Microsoftu wzrosły nieznacznie przed rynkiem we wtorek rano.
Każdy, kto testował nowego Binga w ciągu ostatnich kilku tygodni, doszedł do otrzeźwiających i dziwnych wyników: chatbot sztucznej inteligencji nawet w Niemczech zablokował wyszukiwanie zarzutów wobec chińskiego prezydenta Xi Jinpinga (69) , a także pytania dotyczące chińskiego rządu działania przeciwko Ujgurom. Oprogramowanie czasami początkowo dostarczało odpowiedzi, które następnie szybko usuwało, tak jakby bot się wymknął.
W przypadku technologii GPT oprogramowanie przechwytywało ogromne ilości tekstu i obrazów. Na tej podstawie potrafi formułować zdania, które trudno odróżnić od zdań człowieka. Program szacuje, które słowa mogą wystąpić jako następne w zdaniu. Jednym z zagrożeń związanych z tą podstawową zasadą jest to, że oprogramowanie będzie „halucynować fakty”, jak nazywa to OpenAI.
Może się to również przytrafić GPT-4, choć rzadziej niż wcześniej, czytamy we wpisie na blogu. Nowa wersja mogła również popełniać proste błędy logiczne i szerzyć uprzedzenia. GPT-4 zna tylko fakty, które wydarzyły się przed wrześniem 2021 r. – i nie uczy się na własnych doświadczeniach – podkreśla OpenAI. Mówi się również, że GPT-4 jest dobry w analizowaniu obrazów i opisywaniu ich słowami – ale OpenAI początkowo nie udostępnia tej funkcji klientom.