
Celem ustawy jest zwiększenie bezpieczeństwa stosowania sztucznej inteligencji w Unii Europejskiej. Ma ono na celu zapewnienie, aby systemy sztucznej inteligencji były jak najbardziej przejrzyste, zrozumiałe, niedyskryminacyjne i przyjazne dla środowiska. Ważnym aspektem jest to, że systemy AI są monitorowane przez ludzi, a nie tylko przez inne technologie. Plany wracają do propozycji Komisji Europejskiej z 2021 roku. Systemy uważane za szczególnie ryzykowne i stosowane np. w infrastrukturze krytycznej czy w edukacji i służbie zdrowia będą zatem w przyszłości musiały spełniać rygorystyczne wymagania.
Niektóre aplikacje AI, które naruszają wartości UE, powinny zostać całkowicie zakazane. Obejmuje to na przykład ocenę zachowań społecznych („punktacja społeczna”). To dzieli obywateli w Chinach na kategorie behawioralne. W UE nie powinno być również rozpoznawania emocji w miejscu pracy ani w instytucjach edukacyjnych.
Dostawcy i operatorzy są szczególnie dotknięci
Rozpoznawanie twarzy w przestrzeni publicznej – na przykład poprzez nadzór wideo w miejscach publicznych – nie powinno być zasadniczo dozwolone. Są jednak wyjątki: policja i inne organy bezpieczeństwa powinny mieć możliwość korzystania z takiego rozpoznawania twarzy w przestrzeni publicznej w celu ścigania określonych przestępstw, takich jak handel ludźmi czy terroryzm. Prawo dotyczy każdego, kto opracowuje, oferuje lub wykorzystuje systemy AI na terenie UE. Ma to wpływ na podmioty publiczne i prywatne zarówno w UE, jak i poza nią.
Naruszenia skutkują karami finansowymi
Jeżeli przedsiębiorstwa nie zastosują się do przepisów, państwa członkowskie muszą zdecydować o sankcjach. Mogą one obejmować kary pieniężne. Osoby prywatne, które odkryją naruszenia przepisów, mogą złożyć skargę do władz krajowych. Mogą wówczas wszcząć procedury monitorujące i, jeśli zajdzie taka potrzeba, nałożyć kary.