Dnia 21 kwietnia 2021 r. Komisja Europejska zaprezentowała projekt rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze unii (Rozporządzenie, Projekt). W uzasadnieniu Rozporządzenia dostrzega się, że sztuczna inteligencja (AI) jest szybko rozwijającą się grupą technologii, z potencjałem generowania korzyści społeczno-ekonomicznych we wszystkich branżach i obszarach działalności społecznej, m.in. dzięki lepszemu prognozowaniu, optymalizacji operacji i przydzielaniu zasobów oraz personalizacji świadczonych usług.

W uzasadnieniu dostrzega się jednak, że te same elementy i techniki, które przynoszą korzyści społeczno-ekonomiczne wynikające ze stosowania sztucznej inteligencji, jednocześnie wiążą się również z nowymi rodzajami ryzyka lub niekorzystnymi konsekwencjami odczuwanymi przez osoby fizyczne lub społeczeństwo.

W związku z powyższym zamiarem Unii Europejskiej było wypracowania odpowiednio wyważonego podejścia oraz zapewnienie aby Europejczycy mogli korzystać z nowych technologii opracowanych i funkcjonujących zgodnie z unijnymi wartościami, prawami podstawowymi i zasadami. Unia pragnie, aby ogólną zasadą regulacji był interes człowieka oraz skoncentrowanie na człowieku. W opinii wnioskodawcy ma to służyć temu, aby ludzie uzyskali pewność, że sztuczna inteligencja będzie wykorzystywana w sposób bezpieczny i zgodny z prawem. Zainteresowanie tematem AI ze strony Unii ma również walor ekonomiczny dla całej Wspólnoty. Unia Europejska chciałaby bowiem uzyskać pozycję światowego lidera, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji.

Proponowane przez Komisję Europejską ramy regulacyjne dotyczące AI, mają realizować następujące cele szczegółowe:

  • zapewnienie, aby systemy sztucznej inteligencji wprowadzone do obrotu w Unii i znajdujące się w użyciu były bezpieczne i zgodne z obowiązującym prawem w obszarze praw podstawowych oraz z unijnymi wartościami;
  • zapewnienie pewności prawa na potrzeby ułatwienia inwestycji i innowacji w dziedzinie AI;
  • poprawa zarządzania i skuteczne egzekwowanie obowiązujących przepisów dotyczących praw podstawowych i wymogów bezpieczeństwa mających zastosowanie do systemów AI;
  • ułatwienie rozwoju jednolitego rynku zgodnych z prawem, bezpiecznych i wiarygodnych zastosowań AI oraz zapobiegania fragmentacji rynku.

Celem wnioskodawcy było stworzenie wyważonego i proporcjonalnego środowisko regulacyjnego. Z jednej strony starano się stworzyć ramy prawne o charakterze kompleksowym, które nie ulegają szybkiej dezaktualizacji. Z drugiej strony dążono do tego aby nie wprowadzać niepotrzebnych ograniczeń handlu a ponadto interwencja regulacyjna została przewidziana w obszarach, gdzie można przewidywać wystąpienie największych ryzyk związanych ze stosowaniem sztucznej inteligencji.

Przechodząc do kwestii szczegółowych, przedmiotem Rozporządzenia jest uregulowanie wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji. W projekcie w tytule I pojawiło się szereg definicji, w tym definicja systemu sztucznej inteligencji rozumianego jako oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję. W załączniku I, do którego odwołuje się powyższa definicja znajdzie się szczegółowy wykaz podejść i technik na potrzeby rozwoju AI, które mają być dostosowywane przez Komisję w świetle postępu technologicznego.

System sztucznej inteligencji – oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję

W Tytule I określono również kluczowych uczestników w łańcuchu wartości sztucznej inteligencji, takich jak dostawcy i użytkownicy systemów sztucznej inteligencji, przy czym aby zapewnić równe warunki działania, zaliczono do nich zarówno podmioty publiczne, jak i prywatne.

W tytule II ustanowiono wykaz zakazanych praktyk w zakresie sztucznej inteligencji, dzieląc systemy sztucznej inteligencji na stwarzające (i) niedopuszczalne ryzyko, (ii) wysokie ryzyko oraz (iii) niskie lub minimalne ryzyko. Wspomniany wykaz obejmuje wszystkie systemy sztucznej inteligencji, których wykorzystywanie uznaje się za niedopuszczalne ze względu na ich sprzeczność z wartościami Unii. Zakazy obejmują praktyki, które wykazują znaczny potencjał manipulowania ludźmi, oparte na technikach podprogowych działających na ich podświadomość lub wykorzystujące słabości określonych słabszych grup, takich jak dzieci lub osoby z niepełnosprawnościami, aby istotnie wypaczyć ich zachowania w sposób, który może spowodować u nich lub u innej osoby szkodę psychiczną lub fizyczną. Wnioskodawca dostrzega szkodliwość również innych praktyk polegających na manipulacji lub wykorzystywaniu osób dorosłych jednakże uważa, że systemy sztucznej inteligencji w tych obszarach mogą być limitowane obowiązującymi przepisami, m.in. dotyczącymi ochrony danych, ochrony konsumentów i usług cyfrowych, które zapewniają aby osoby fizyczne były odpowiednio informowane i mogły swobodnie zdecydować o niepodleganiu profilowaniu lub innym praktykom mogącym wpływać na ich zachowanie.

Co istotne Projekt zakazuje organom publicznym stosowania do celów ogólnych opartych na sztucznej inteligencji systemów punktowej oceny zachowań społecznych oraz zakazuje wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa (z pewnymi wyjątkami). Określone obowiązki mają być również nałożone na dostawców i użytkowników systemów AI w celu zapewnienia bezpieczeństwa i poszanowania obowiązujących przepisów dotyczących ochrony praw podstawowych przez cały okres działania tych systemów.

W tytule III znajdują się przepisy szczegółowe dotyczące systemów sztucznej inteligencji, które stwarzają wysokie ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych osób fizycznych. Systemy te dopuszcza się do obrotu na rynku europejskim pod warunkiem spełnienia określonych wymogów obowiązkowych i przeprowadzenia oceny zgodności ex ante. Warto dodać, że klasyfikacja jako system sztucznej inteligencji wysokiego ryzyka zależy nie tylko od funkcji pełnionej przez system sztucznej inteligencji, ale także od konkretnego celu i trybu jego wykorzystania. Przepisy tytułu III zawierają także wymogi, jakie systemy sztucznej inteligencji wysokiego ryzyka muszą spełniać (a dotyczące danych i zarządzania danymi, dokumentacji i rejestrowania zdarzeń, przejrzystości i dostarczania informacji użytkownikom, nadzoru ze strony człowieka, solidności, dokładności i bezpieczeństwa). Określono tam równie obowiązki na dostawców systemów AI, ramy dla jednostek notyfikowanych, które mają być zaangażowane w procedury oceny zgodności jako niezależne osoby trzecie oraz wyjaśniono procedury oceny zgodności, które należy stosować w przypadku każdego rodzaju systemu sztucznej inteligencji wysokiego ryzyka.

Tytuł IV dotyczy określonych systemów sztucznej inteligencji, które (i) wchodzą w interakcję z człowiekiem, (ii) są wykorzystywane do wykrywania emocji lub określania powiązań z kategoriami (społecznymi) na podstawie danych biometrycznych lub (iii) generują treści lub manipulują nimi (technologia deepfake). Przepisy mają na celu uwzględnienie szczególnego ryzyka manipulacji, jakie one stwarzają.

Gdy osoby fizyczne wchodzą w interakcję z systemem sztucznej inteligencji lub gdy ich emocje lub cechy charakterystyczne są rozpoznawane za pomocą środków zautomatyzowanych, konieczne będzie poinformowanie ich o tym fakcie. Obowiązek informacyjny będzie istniał również jeżeli system AI będzie wykorzystywany do generowania obrazów, dźwięków lub treści wideo, które w znacznym stopniu przypominają autentyczne treści, lub do manipulowania takimi obrazami, dźwiękami lub treściami wideo.

Pozostałe regulacje w kolejnych tytułach od V do IX dotyczą m.in. środków wspierających innowacyjność, systemów zarządzania i monitorowania na szczeblu unijnym i krajowym, obowiązków dostawców systemów sztucznej inteligencji w zakresie monitorowania i zgłaszania zdarzeń, oraz ram dotycząych tworzenia kodeksów postępowania, które mają na celu zachęcenie dostawców systemów sztucznej inteligencji nieobarczonych wysokim ryzykiem do dobrowolnego stosowania się do obowiązkowych wymogów mających zastosowanie do systemów sztucznej inteligencji wysokiego ryzyka.

Powyższy tekst został w istotnej części przygotowany w oparciu o uzasadnienie Projektu i zawiera cytaty uzasadnienia. Projekt w wersji polskiej można znaleźć na stronach https://eur-lex.europa.eu.