Jeśli nie nauczymy się kontrolować procesów decyzyjnych maszyn, konsekwencje mogą być bardzo poważne – mówi Konrad Hrabia, Operational Director Modis Polska. Prognozy eMarketera wskazują, że globalne przychody z wykorzystania sztucznej inteligencji, które w tej chwili wynoszą 643,7 mln dolarów, w 2025 przekroczą wartość 36,8 miliardów dolarów. Do tego czasu, nawet 95 proc. interakcji między firmami a ludźmi ma być obsługiwane poprzez inteligentne maszyny, takie jak chatboty czy automaty wysyłające wiadomości email.

– Samo pojęcie sztucznej inteligencji jest bardzo szerokie i obejmuje wiele dziedzin badań we współczesnym IT, między innymi obliczenia ewolucyjne oraz sieci neuronowe. Najpowszechniej stosowane i spotykane są samouczące się maszyny, które na podstawie dużych zbiorów danych uczą się analizować materiały i wyciągać wnioski – mówi Konrad Hrabia, Operational Director Modis Polska.

Węgiel czwartej rewolucji

Dzięki wykorzystaniu machine learning, możliwe jest rozwijanie technologii rozpoznawania głosu oraz obrazów, stosowane między innymi w wirtualnych asystentach, takich jak opracowana przez Apple Siri czy Alexa od firmy Amazon.

– Alexa, w oparciu o komendy głosowe wydawane przez użytkownika, pozwala tworzyć listy spraw do zrobienia, o których później przypomina. Komendami głosowymi można również zrobić listę zakupów i dopisywać do niej kolejne produkty – opisuje Konrad Hrabia – Przy sparowaniu urządzenia Echo wykorzystującego Alexę z urządzeniami smart home, można wykorzystać ją do głosowego sterowania domem, na przykład wyłączania świateł, włączania zmywarki czy gotowania wody. Możliwości są niezliczone – mówi ekspert. – Jeszcze kilka lat temu podobną technologię zobaczyć można było wyłącznie w serialu Star Trek, który zresztą zainspirował twórców Alexy do pracy nad tym projektem.

Zdaniem eksperta to nie przypadek, że jedną z najpopularniejszych sztucznych inteligencji opracował właśnie Amazon.

– Dla systemów uczenia maszynowego jedynym i najważniejszym paliwem są dane. Dlatego właśnie mogą je skutecznie rozwijać jedynie firmy, które mają dostęp do możliwie największych zasobów cyfrowych informacji, takie jak Google, Microsoft czy właśnie Amazon – wskazuje Konrad Hrabia. – Dopiero dzięki dostępowi do odpowiedniej ilości danych systemy te mogą nauczyć się wyciągać wnioski, analizować pozyskane informacje i umieszczać je w kontekście. Dzięki dziesiątkom wyszukiwań głosowych, które użytkownicy codziennie wykonują w Google i Amazon, możliwe było zbudowanie automatu, który skutecznie rozpoznaje mowę.

Operational Director Modis Polska podkreśla jednocześnie, że dane pełnią dla rozwoju AI podobną rolę, jak węgiel dla pierwszej rewolucji przemysłowej.

– Pierwsze maszyny parowe, konstruowane przez Thomasa Newcomena od 1712 roku, były bardzo nieefektywne, dlatego umieszczano je blisko kopalni węgla, gdzie miały pod dostatkiem surowca. Pod wieloma względami Amazon, Google i Microsoft to gigantyczne kopalnie z oszałamiającymi złożami węgla – mówi Konrad Hrabia – Jednak dostęp do tych złóż wcale nie oznacza, że współcześnie tworzone systemy są doskonałe.

Obcy umysł

Zdaniem eksperta systemy machine learning, ze względu na ich rosnącą komplikację, niosą ze sobą zarówno niezwykłe możliwości rozwoju, jak i coraz więcej wyzwań.

– W tej chwili twórcy są w stanie wskazać, w jaki sposób maszyny się uczą. Jednak na odpowiednim poziomie komplikacji nie da się już precyzyjnie wskazać na podstawie jakich przesłanek podejmują decyzje – komentuje Konrad Hrabia. – Do momentu, w którym ich zadania sprowadzały się do gry w GO, nie było to problemem. Jednak machine learning wkracza do autonomicznych samochodów i na giełdę. Opracowany przez IBM komputer kognitywny Watson wspomaga lekarzy w walce z nowotworami. W takiej sytuacji, oprócz wniosków do jakich doszła maszyna, ważne jest również „jak” do nich doszła.

Zdaniem eksperta, brak dokładnych informacji na temat procesów wnioskowania może spowodować, że systemy sztucznej inteligencji mogą być nieprzewidywalne. Nic nie stoi na przeszkodzie, by na skutek złej korelacji danych autonomiczny samochód nagle stanął na środku autostrady.

– Błędem jest myślenie, że inteligentne maszyny będą takie, jak my. Nie będą. Doskonale ilustruje to działanie programu Deep Dream opracowanego przez Google. Zadaniem programu było zautomatyzowane rozpoznawanie i wyszukiwanie twarzy na obrazkach na podstawie odpowiednich wzorców – mówi Konrad Hrabia. – Gdy naukowcy nakazali programowi przerabiać obrazy tak, by wzorce były bardziej widoczne, ich oczom ukazały się prawdziwie psychodeliczne wizje, porównywane z halucynacjami wywoływanymi przez LSD.

Zrozumieć niezrozumiałe

Ekspert podkreśla, że nawet, jeśli dane dostarczane systemom machine learning będą poprawne i słuszne, już same wnioski niekoniecznie muszą takie być. Dowodem na to jest badanie, które przeprowadził profesor Druv Batra z Virginia Tech University, w ramach którego stworzono oprogramowanie śledzące jakie piksele grafiki skanuje program do rozpoznawania obrazów. Równolegle badano, w jaki sposób człowiek rozpoznaje obraz przy użyciu urządzeń eye-trackingowych.

Obie grupy (ludzie i maszyny) otrzymały zdjęcie sypialni i zadano im pytanie „czym zasłonięte są okna”. Ludzie patrzyli na okno i odpowiadali, że zasłonami. Z kolei maszyny udzielały odpowiedzi „zasłony” po znalezieniu na obrazku łóżka, bez patrzenia na okno.

– Jeśli na wszystkich zdjęciach, które wcześniej zbadał program, w sypialni były zasłony, uznał to za regułę i dalsze sprawdzanie było, zdaniem maszyny, bezzasadne. W tym przypadku odpowiedź była prawidłowa, jednak gdyby były tam żaluzje lub roleta, program popełniłby błąd. – wskazuje Konrad Hrabia. – Podobnie, jeśli system selekcjonujący podania o pracę w dużej firmie HR zauważy, że od jakiegoś czasu kandydaci z literą „ą” w nazwisku nie otrzymali propozycji pracy, może zacząć odrzucać ich zgłoszenia. Ludzie wiedzą, że to nonsens, ale maszyny, nawet mimo gigantycznej zdolności do analizowania danych, nie posiadają zdrowego rozsądku, którego brak w tym przypadku oznaczałby bezpodstawne odrzucenie potencjalnie wartościowych kandydatów.

Budować przejrzystość

Według eksperta firmy Modis, właśnie ten brak przejrzystości jest jednym z największych wyzwań związanych z systemami sztucznej inteligencji.

– Ludzie podejmują swoje decyzje w sposób nieskończenie bardziej skomplikowany i wielowarstwowy niż komputery. Wraz z rosnącą popularnością sztucznej inteligencji tego typu ukryte wady i błędy będą tylko coraz