IV SEMINARIUM AI

Dnia 9 grudnia 2022 r., odbyło się czwarte spotkanie interdyscyplinarnego zespołu składającego się z badaczy z Future Law Lab UJ, informatyków/programistów oraz prawników-praktyków z projektu BSJPtech.

Nasze wspólne spotkanie, w formie hybrydowej odbyło się na Wydziale Prawa i Administracji Uniwersytetu Jagiellońskiego w Auditorium Maximum. Całość spotkania dotyczyła projektu rozporządzenia Komisji Europejskiej o sztucznej inteligencji (AI), które miałoby ułatwić dostęp do wymiaru sprawiedliwości w tym o sztucznej inteligencji (AI), które miałoby ułatwić dostęp do wymiaru sprawiedliwości w tym zakresie oraz zwiększyć zaufanie społeczeństwa do takich systemów.

Przebieg spotkania.

Seminarium poprowadzili prawnicy z projektu BSJPTech, którzy rozpoczęli spotkanie od omówienia przebiegu prac i głównych założeń Rozporządzenia o sztucznej inteligencji (rozporządzenie AI), następnie szczegółowo przedstawione zostały zakazane praktyki i systemy wysokiego ryzyka w zakresie sztucznej inteligencji. Ponadto omówiono obowiązki dostawców i użytkowników sztucznej inteligencji wraz z analizą norm i oceny ich zgodności z przepisami prawa. Na sam koniec prawnicy poruszyli temat obowiązków w zakresie przejrzystości oraz monitorowania sztucznej inteligencji po wprowadzeniu jej do obrotu. Wyżej wymienione zagadnienia referowali Jakub Kabza, Ani Sokołowska, Maciej Jura oraz Marcin Kroll.

Czym jest rozporządzenie AI?

Rozporządzenie jest próbą poprawy funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu i wykorzystywania sztucznej inteligencji. Wiązać się to będzie z ograniczeniami wolności i prowadzenia działalności gospodarczej i naukowej. Celem tych potencjalnych restrykcji jest skupienie się na człowieku, w szczególności na ochronie praw podstawowych.

Czym jest sztuczna inteligencja?

Zgodnie z definicją proponowaną  w projekcie rozporządzenia, jest to „oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcje.”

Wspomniany wyżej Załącznik I, stanowi listę technik i metod, które są podstawą do zakwalifikowania danego systemu jako systemu sztucznej inteligencji. Jako przykładowe techniki, wymienić można: mechanizmy uczenia maszynowego, metody oparte na logice i wiedzy lub podejścia statystyczne

Jakie ryzyka niesie ze sobą AI?

Ryzyka związane z wprowadzaniem AI do obrotu, wynikają ze sposobu w jaki została ona zaprojektowana i na jakich danych pracuje. Zarówno projekt, jak i dane mogą być tendencyjne, celowo lub nieumyślnie. Algorytmy sztucznej inteligencji mogą być zaprogramowane na – z góry –  określony rezultat. Kłopotem może być także opisywanie złożonej i niejednoznacznej rzeczywistości za pomocą liczb. 

W związku z powyższym, UE chce wprowadzić wobec AI podejście na zasadzie ryzyka. Opierać się ono będzie na indywidualnej analizie systemów sztucznej inteligencji z perspektywy praw podstawowych i bezpieczeństwa. Wszystkie rozwiązania zastosowane w rozporządzeniu będą zgodne z obecnymi przepisami m.in. Kartą Praw Podstawowych; RODO, a także zgodne z wcześniej prowadzonymi politykami Unii w zakresie AI dotyczącymi rozwoju technologii, rynków cyfrowych itp.

Obowiązki w zakresie przejrzystości będą nałożone na dostawców systemów lub ich użytkowników, a zastosowanie znajdą do systemów: które wchodzą w interakcje z człowiekiem, są wykorzystywane do wykrywania emocji lub określania powiązań z kategoriami (społecznymi) na podstawie danych biometrycznych, generują treści lub manipulują nimi (deepfake).

 

Środki wspierające innowacyjność.

Przepisy rozporządzenia AI przewidują tworzenie piaskownic regulacyjnych przez organy krajowe. Są to odgórnie kontrolowane środowiska ułatwiające opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem. Wszelkie działania będą przebiegały pod bezpośrednim nadzorem właściwych organów i zgodnie z ich wytycznymi.

Organy posiadać będą określone środki zaradcze w przypadku jakichkolwiek istotnych zagrożeń dla zdrowia i bezpieczeństwa oraz dla praw podstawowych na etapie opracowywania i testowania systemów. Rozporządzenie testuje możliwość przetwarzania w ramach piaskownicy danych osobowych, zgromadzonych w innych celach, z zachowaniem określonych ograniczeń.