Poprawki w unijnym akcie prawnym dotyczącym AI

Zaproponowane przez Komisję Europejską 21 kwietnia 2021 r. zharmonizowane zasady dotyczące sztucznej inteligencji, potocznie zwane unijnym aktem prawnym dotyczącym AI, mają na celu stworzenie ekosystemu, który priorytetowo traktuje prawa człowieka w tej dziedzinie. Jest to ważny temat nie tylko dla twórców i użytkowników sztucznej inteligencji, ale również dla prawników świadczących usługi w branżach nowych technologii.

Od momentu zaprezentowania pierwszej wersji ustawy, proces konsultacji doprowadził do zaproponowania szeregu zmian w przepisach. Zmiany te zostały upublicznione w formie tekstów kompromisowych. W dniu 9 stycznia nowe poprawki koncentrujące się na ocenie wpływu na prawa podstawowe i obowiązkach użytkowników systemów wysokiego ryzyka przedstawili współsprawozdawcy Parlamentu Europejskiego. Poprzednio tekst kompromisowy zaprezentowali Czesi. Ich wersja została przyjęta w dniu 6 grudnia 2022 r. Powyższe zmiany oznaczają zakończenie wewnętrznych negocjacji i oferują bardziej przyjazne dla biznesu podejście do regulacji sztucznej inteligencji, niż pierwotna propozycja Komisji Europejskiej.

Definicja systemu AI i zakres ustawy o AI zostały nieznacznie zawężone, a z klasyfikacji AI wysokiego ryzyka wyłączono systemy, które są wykorzystywane jedynie jako akcesoria do podejmowania odpowiednich decyzji. Obowiązki dostawców systemów AI wysokiego ryzyka pozostają podobne, ale dostosowano je w taki sposób aby były bardziej wykonalne pod względem technicznym i mniej uciążliwe.

Co konkretnie zawierają ostatnie poprawki?

• Przede wszystkim zawężono definicję samego AI. Rada proponuje, aby system AI działał z „elementami autonomii”, który wnioskuje, jak osiągnąć dany zestaw celów, wykorzystując „uczenie maszynowe i/lub podejścia oparte na logice i wiedzy”. Zgodnie z zapowiedziami, KE przyjmie dalsze regulacje w celu określenia jak rozumieć „podejście oparte na logice i wiedzy”;

• wprowadzenie wymogu, aby wszyscy twórcy systemów AI wysokiego ryzyka przeprowadzali ocenę wpływu na prawa podstawowe. Obejmowałaby ona takie elementy jak: zamierzony cel i geograficzny zakres stosowania; szczególne zagrożenia dla poszczególnych grup społecznych; oraz przewidywalny wpływ na środowisko. Ponadto twórcy byliby zobowiązani do posiadania infrastruktury zapewnianiającej bezpieczeństwo cybernetyczne, która zgodnie z wymogami będzie musiała być stale aktualizowana;

• podkreślono rolę ludzkiego nadzoru – zmodyfikowano przepisy dotyczące Rady ds. Sztucznej Inteligencji. Ma to zapewnić jej większą autonomię. Ponadto, komisja została upoważniona do delegowania co najmniej jednej placówki badawczej w celu zapewnienia wsparcia technicznego dla egzekwowania przepisów;

• wyszczególnione w akcie kary pieniężne uzyskały odpowiednie, proporcjonalne pułapy, w szczególności w przypadku małych i średnich przedsiębiorstw oraz przedsiębiorstw rozpoczynających swoją działalność. Zgodnie z art. 71 ust. 6 kary są znacznie obniżone do 3%, 2% lub 1%, w zależności od rodzaju i zakresu działalności przedsiębiorstwa;

• w celu stworzenia ram prawnych bardziej sprzyjających innowacjom oraz w celu promowania opartego na dowodach uczenia się działań regulacyjnych, w tekście zmieniono istotnie przepisy dotyczące środków wspierających innowacyjność. Mowa tutaj konkretnie o piaskownicach regulacyjnych w zakresie sztucznej inteligencji które mają stworzyć kontrolowane środowisko na potrzeby opracowywania, testowania i walidacji innowacyjnych systemów sztucznej inteligencji. Zgodnie z proponowanymi przepisami będą one występować w świecie rzeczywistym, a w niektórych przypadkach nawet bez nadzoru (art. 54a i 54b aktu). Oczywiście po spełnieniu określonych warunków oraz z zachowaniem odpowiednich zabezpieczeń;

• zakres ustawowego terminu „podatność na zagrożenia” został rozszerzony o podatność społeczno-ekonomiczną.
Jednak to co najbardziej istotne z perspektywy prawników zajmujących się nowymi technologiami – zgodnie z Załącznikiem III do ustawy, systemy wysokiego ryzyka mają podlegać bardziej rygorystycznym obowiązkom prawnym. Zaktualizowany tekst zawiera trzy istotne zmiany w zakresie oznaczania systemów wysokiego ryzyka:
◦ aby system został sklasyfikowany jako wysokie ryzyko, system powinien mieć istotne znaczenie w procesie decyzyjnym i nie być czysto pomocniczy. To co należy rozumieć przez „czysto pomocniczy”, zostanie przedstawione przez Komisję Europejską w drodze aktu wykonawczego

Z listy systemów wysokiego ryzyka usunięto m.in:

• wykrywanie deepfake’ów przez organy ścigania;
• analizę przestępczości;
• weryfikacje autentyczności dokumentów podróży.

Decyzja o usunięciu analizy przestępczości oraz wykrywania deepfake’ów przez organy ścigania, była uzasadniona chęcią zachowania niepewnej równowagi pomiędzy ochroną praw człowieka i bezpieczeństwem a innowacyjnością.

Do listy dodano natomiast:

• krytyczną infrastrukturę cyfrową;
• ubezpieczenia na życie;
• ubezpieczenia zdrowotne.
• po wdrożeniu aktu, komisja będzie uprawniona do umieszczania oraz usuwania z listy w Załączniku III, przypadków użycia systemów wysokiego ryzyka;
• zaktualizowano art. 51, tj. rozszerzono obowiązek rejestracji przez dostawców systemów wysokiego ryzyka w unijnej bazie danych systemów AI wysokiego ryzyka został rozszerzony na użytkowników będących organami publicznymi, z wyjątkiem organów ścigania;
• w nowo dodanym art. 52 ust. 2a, podkreślono obowiązek twórców systemów rozpoznających emocje, do informowania użytkowników o każdym przypadku kontaktu z takim systemem.
• Zgodnie z doniesieniami, ustawa o AI może zostać przegłosowana w Parlamencie Europejskim w marcu. Według Laury Caroli, asystentki parlamentarnej prowadzącej obecnie negocjacje nad ustawą na poziomie technicznym, rozporządzenie zostanie zatwierdzone do końca 2023 roku i wejdzie w życie dwa lata później.

Poprzedni artykułCzym charakteryzują się profile aluminiowe?
Następny artykułDlaczego regał magazynowy na wymiar to najlepszy wybór?

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj