Artykuł miesiąca: Dom Opiekuńczych Skrzydeł - pamiętaj o 1% podatku KRS 630706.

AktualnościITWiadomości

KE w niektórych obszarach chce zakazać sztucznej inteligencji

 

Zgodnie z planami Komisji Europejskiej każdy, kto manipuluje ludźmi przy pomocy sztucznej inteligencji w celu wyrządzenia im krzywdy, będzie musiał w przyszłości zapłacić wysokie grzywny. Dla innych pól powinny istnieć wąskie limity.

Nie można już powstrzymać triumfalnego postępu sztucznej inteligencji (AI). Wreszcie kryzys koronowy uwydatnił, jak cenne mogą być takie systemy samouczące się dla organizacji systemu opieki zdrowotnej. Zdaniem ekspertów mogą też odegrać ważną rolę w walce ze zmianami klimatycznymi.

Z drugiej strony technologia spotyka się ze sceptycyzmem. Czy AI powinna decydować, kto otrzyma pracę w przyszłości? A co z automatycznym rozpoznawaniem twarzy? Może to nie stanowić problemu przy otwieraniu telefonu komórkowego, ale nie wtedy, gdy państwa lub firmy używają go do monitorowania ludzi na każdym kroku.

Zakaz „oceny społecznościowej”

Dlatego Komisja Europejska chce teraz ustanowić jasne zasady wykorzystywania sztucznej inteligencji we wrażliwych dziedzinach i całkowicie zakazać poszczególnych zastosowań. Na przykład wykorzystanie sztucznej inteligencji do wpływania na zachowanie, opinie lub decyzje ludzi lub grup bezpośrednio na ich niekorzyść lub szkody lub do odkrywania słabych punktów, które można w tym celu wykorzystać, powinno być zabronione.

Ponadto należy zakazać arbitralnej i masowej inwigilacji ludzi oraz wykorzystywania sztucznej inteligencji do „oceny społecznej”. W uproszczeniu przez punktację społeczną rozumie się metodę wartości punktowej, czyli próbę opisania zjawisk społecznych lub cech ludzi za pomocą wartości punktowych i tym samym uczynienia ich porównywalnymi. Skrajnym przykładem jest system chiński, który nagradza tam ludzi za zachowania zgodne z systemem.

Komisja planuje dotkliwe kary

Komisja zamierza oficjalnie przedstawić konkretną propozycję w połowie przyszłego tygodnia. Powstał projekt 81-stronicowego rozporządzenia, które miałoby zastosowanie bezpośrednio we wszystkich państwach członkowskich.

Za naruszenie wytycznych przewidziano wysokie kary. W przypadku firm kary sięgają nawet 4 procent rocznej sprzedaży globalnej. W przeciwnym razie w projekcie przewidziano górną granicę w wysokości 20 mln euro. Jednak kwoty nadal znajdują się w nawiasach kwadratowych. Maksymalne kary mogą ulec zmianie do połowy przyszłego tygodnia.

Wyjątki od zakazu powinny być możliwe, ale tylko wtedy, gdy jest to konieczne do utrzymania porządku publicznego. W tym celu powinny istnieć jasne zasady. Komisarz ds. Sprawiedliwości Didier Reynders podkreślił już kilka dni temu, że w przypadku ataków terrorystycznych muszą istnieć przynajmniej tymczasowe wyjątki.

Dane dla SI powinny być neutralne

Z kolei aplikacje wysokiego ryzyka we wrażliwych dziedzinach powinny spełniać określone minimalne normy, aby mogły być stosowane na europejskim rynku wewnętrznym. Przede wszystkim obejmuje to wykorzystanie rozpoznawania twarzy w przestrzeni publicznej. Obejmuje to również wykorzystywanie sztucznej inteligencji do oceny zdolności kredytowej, zatrudniania lub awansowania pracowników, dostępu do świadczeń socjalnych czy ścigania przestępstw.

We wszystkich tych przypadkach ludzie powinni mieć ostateczną kontrolę nad decyzjami. Ponadto należy zadbać np. o to, aby dane, którymi „karmiona jest” sztuczna inteligencja, były neutralne. Ma to na celu zapobieżenie pokrzywdzeniu niektórych grup.

Lista aplikacji wysokiego ryzyka powinna być regularnie aktualizowana. Chodzi o zapewnienie, aby obejmował on ogólnie zastosowania, które według komisji miałyby poważne, a w skrajnych przypadkach nieodwracalne skutki dla ludzi.

W innych, bardziej nieszkodliwych zastosowaniach sztucznej inteligencji, powinno być przynajmniej jasne, kiedy ludzie mają do czynienia ze sztuczną inteligencją, na przykład kiedy robot czatowy odpowiada na infolinię, a żadna inna osoba nie odpowiada. Lub gdy manipuluje się filmami lub obrazami za pomocą tak zwanych głębokich fałszywych programów, a manipulacji nie można zidentyfikować na podstawie samego kontekstu. Zdaniem komisji celem propozycji jest wzbudzenie zaufania do wykorzystania sztucznej inteligencji i bezpieczeństwa planowania w gospodarce. Tylko wtedy UE będzie mogła wykorzystać ich ogromny potencjał.

Krytyka wniosku pochodziła z Parlamentu Europejskiego. „Projekt prawa Komisji Europejskiej nie jest wystarczająco ostry w kluczowych obszarach. Aplikacje wysokiego ryzyka muszą obejmować wszystkie systemy sztucznej inteligencji, które manipulują ludzkim zachowaniem, opiniami i decyzjami – bez żadnych ograniczeń co do tego, czy szkodzą one jednostkom ”- powiedziała posłanka do Parlamentu Europejskiego ds. Zielonych, Alexandra Geese.

Dyskryminacja jest immanentna wszędzie tam, gdzie ludzie są oceniani i zarządzani przez maszyny. „To policzek dla społeczeństwa obywatelskiego, że automatyczne systemy rozpoznawania twarzy nie są zniesione w miejscach publicznych, chociaż wielu do tego dąży” – powiedział Geese. Rozporządzenie nie może wejść w życie bez zgody Parlamentu i Rady Ministrów.

Andrzej Mroziński

 

Polecane artykuły
AktualnościTechnologieWiadomości

Branża gier komputerowych największym beneficjentem pandemii

AktualnościWiadomości

Po utracie miliardów Ryanair jest optymistą

AktualnościHRWiadomości

HR potrzebuje empatii

AktualnościWiadomości

Podkarpacka Dolina Lotnicza przygotowuje się do mocnego odbicia po kryzysie

Zapisz się do Newslettera
Bądź na bieżąco i otrzymuj najnowsze artykuły
%d bloggers like this: