AI: UE ureguluje działanie sztucznej inteligencji. To pierwsze takie przepisy na świecie

sztuczna-inteligencja-ai-nowe-technologie-regulacje-przepisy-kategorie-bezpieczenstwo-unia-europejska-komisja-europejska

Regulacje dotyczyć będą w taki sam sposób wszystkich państw członkowskich, a także firm zagranicznych działających na terytorium UE. [Zdjęcie via unsplash.com/agk42)

Komisja Europejska przedstawiła wczoraj (21 kwietnia) projekt nowych regulacji dotyczących wykorzystania sztucznej inteligencji (AI), zgodnie z którym rozwiązania uznawane za zagrażające bezpieczeństwu lub prawom obywateli zostaną zakazane. To pierwsze takie przepisy nie tylko w Unii Europejskiej, ale i na świecie.

 

 

Jak informuje Komisja Europejska, regulacje zakładają podzielenie wykorzystywania sztucznej inteligencji na cztery kategorie ryzyka – od technologii niebezpiecznych po technologie stanowiące minimalne ryzyko.

Ta ostatnia grupa obejmuje systemy, które nie stanowią zagrożenia dla praw ani bezpieczeństwa obywateli lub to zagrożenie jest minimalne, więc nie potrzebują dodatkowych obostrzeń.

Sztuczna inteligencja: Czechy chcą być europejskim liderem

Czesi odrzucają surowe europejskie regulacje. Ich zdaniem zbyt wiele ograniczeń mogłyby nieodwracalnie spowolnić rozwój  badań nad sztuczną inteligencją.

Co proponuje Komisja Europejska?

Pozostałe kategorie, obejmujące technologie naruszające prawa obywateli UE, będą obłożone restrykcjami lub zakazane. Na technologie stanowiące ograniczone ryzyko nałożone zostaną wymogi przejrzystości – np. internauta korzystający z programu komputerowego będzie musiał mieć świadomość, że „rozmawia” z maszyną, a nie z człowiekiem. 

W trzeciej kategorii znalazły się technologie obarczone wysokim ryzykiem, mające wpływ na bezpieczeństwo ludzi i mogące naruszać ich prawa podstawowe. Są to systemy, które decydują np. o przyznaniu kredytu mieszkaniowego, zasiłku, przyjęciu na studia czy zatrudnieniu. Dzięki nowym regulacjom będzie można odwołać się od decyzji podjętej przez program i decyzja ta będzie musiała zostać poddana weryfikacji przez człowieka.

Za technologie wysokiego ryzyka zostały uznane też m.in. technologie rozpoznawania twarzy i co do zasady, korzystanie z nich na potrzeby ochrony porządku publicznego jest zabronione. Będą one jednak dozwolone np. w celu zapobiegania bezpośredniemu zagrożeniu terrorystycznemu lub poszukiwania zaginionego dziecka.

Czy sztuczna inteligencja to przełom na miarę wynalezienia druku? – WYWIAD

Sztuczna inteligencja (AI) w ostatnich latach rozwija się w ogromnym tempie. Potrafi już rozpoznawać twarze, sterować autonomicznymi pojazdami, a nawet komponować muzykę. W. Brian Arthur, ekonomista i ekspert w dziedzinie sztucznej inteligencji, w wywiadzie dla EURACTIV mówi o tym, dlaczego …

UE chce być światowym liderem

Czwarta kategoria obejmuje systemy AI, stanowiące niedopuszczalne ryzyko dla ludzi. Manipulują one zachowaniami człowieka, wykorzystują informacje o użytkowniku i przewidują jego działania. Systemy te będą zakazane w UE.

Nowe przepisy mają na celu też m.in. wspieranie innowacji, takich jak wykorzystywanie AI do usprawniania produkcji czy prognozowania zmian klimatycznych.

Jak podkreśliła komisarz UE ds. cyfryzacji Marghrete Vestager, dzięki tym przepisom „UE obejmuje pozycję lidera w dziedzinie opracowywania nowych, globalnych norm”. Thierry Breton, komisarz ds. rynku wewnętrznego dodaje, że nowe reguły zapewnią poszanowanie dla „naszych wartości i zasad” przy wdrażaniu sztucznej inteligencji.

KE przewiduje utworzenie specjalnej Europejskiej Rady ds. Sztucznej Inteligencji, która miałaby pilnować przestrzegania przepisów. Regulacje dotyczyć będą w taki sam sposób wszystkich państw członkowskich, a także firm zagranicznych działających na terytorium UE. Kary za niedostosowanie się do wymogów wynoszą od 20 mln euro do 4 proc. rocznych obrotów.

 

Więcej informacji