Regulacje Unii Europejskiej dotyczące sztucznej inteligencji

Regulacje Unii Europejskiej dotyczące sztucznej inteligencji

Wraz z rozwojem modeli językowych i generatywnej sztucznej inteligencji rosną również kontrowersje z nimi związane. Wiosną tego roku Włochy zablokowały tymczasowo działanie ChatGPT. Zdaniem włoskiego Urzędu Ochrony Danych, aplikacja nie miała żadnej podstawy prawnej do zbierania i przetwarzania danych osobowych użytkowników. Sytuacja ta zmusiła OpenAI do wprowadzenia funkcji ochrony prywatności, która umożliwia wyłączenie historii rozmów, aby firma nie mogła korzystać z danych do własnych celów.

Komitet parlamentarny w Parlamencie Europejskim zaaprobował projekt dyrektywy dotyczącej sztucznej inteligencji (SI), zbliżając go tym samym do statusu prawa. Regulacja przyjmuje podejście oparte na ocenie ryzyka w zakresie regulacji sztucznej inteligencji.

Projekt dyrektywy SI precyzuje wymagania dla twórców "modeli podstawowych", takich jak ChatGPT, włączając przepisy mające zapewnić, że dane szkoleniowe nie naruszają prawa autorskiego. Komitet kluczowych legislatorów w Parlamencie Europejskim zatwierdził regulację dotyczącą sztucznej inteligencji, która jest pierwszą tego rodzaju regulacją dla systemów SI na Zachodzie. Chiny już opracowały projekt zasad, mających na celu zarządzanie rozwojem generatywnych produktów SI, takich jak ChatGPT.

Prawo opiera się na podejściu opartym na ocenie ryzyka, gdzie obowiązki dla systemu są proporcjonalne do poziomu ryzyka, jakie on stwarza.

Przepisy precyzują również wymagania dla dostawców modeli, takich jak ChatGPT, które stały się głównym zainteresowaniem regulatorów, ze względu na ich rozwój i obawy, że nawet wykwalifikowani pracownicy zostaną zastąpieni.

Akt SI kategoryzuje zastosowania SI na cztery poziomy ryzyka: niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko oraz minimalne lub żadne ryzyko.

Zastosowania o niedopuszczalnym ryzyku są domyślnie zakazane i nie mogą być wdrażane w Unii Europejskiej.

Należą do nich:

  • Systemy SI wykorzystujące techniki podprogowe lub manipulacyjne lub dezinformacyjne, które wpływają na ludzkie zachowanie.
  • Systemy SI wykorzystujące podatności jednostek lub konkretnych grup.
  • Systemy kategoryzacji biometrycznej oparte na wrażliwych cechach lub atrybutach.
  • Systemy SI wykorzystywane do oceny społecznej lub oceny wiarygodności.
  • Systemy SI wykorzystywane do przewidywania przestępstw kryminalnych lub administracyjnych.
  • Systemy SI tworzące lub rozszerzające bazy danych rozpoznawania twarzy przez nieukierunkowane przeszukiwanie.
  • Systemy SI wnioskujące i analizujące emocje w organach ścigania, zarządzaniu granicami oraz miejscach pracy i edukacji.

Kilku legislatorów domagało się wprowadzenia bardziej restrykcyjnych środków, aby obejmowały one ChatGPT.

W tym celu nałożono wymogi dotyczące rozwiązań opartych o modele językowe i generatywną sztuczną inteligencję. Nowe wymogi mają wymusić na twórcach modeli podstawowych zobowiązanie do przeprowadzenia kontroli bezpieczeństwa, wprowadzenia środków zarządzania danymi oraz działań mających na celu zmniejszenie ryzyka przed udostępnieniem swoich modeli publicznie. Twórcy będą również musieli zapewnić, że dane treningowe użyte do szkolenia ich systemów nie naruszają praw autorskich.

Parlament uzgodnił swoje stanowisko negocjacyjne 14 czerwca 2023 r. i może rozpocząć negocjacje z państwami UE w Radzie na temat ostatecznego kształtu dyrektywy. Celem jest osiągnięcie porozumienia do końca tego roku.

Nowe przepisy budzą obawy w branży technologicznej.

Stowarzyszenie Przemysłu Komputerowego i Komunikacyjnego (Computer and Communications Industry Association - CCIA) wyraziło zaniepokojenie zbytnim rozszerzeniem zakresu regulacji sztucznej inteligencji oraz obawia się, że mogą one obejmować formy SI, które są nieszkodliwe.

Źródła:

  1. https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_pl
  2. https://www.europarl.europa.eu/news/pl/headlines/society/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai

Skontaktuj się z nami

Dariusz Kurzyk

Dyrektor Sprzedaży

[email protected]

+48 503 774 438

Notibox sp. z o.o.

Komandosów 9/41
30-334 Kraków

KRS 0000934065