Zaproponowane przez Komisję Europejską 21 kwietnia 2021 r. zharmonizowane zasady dotyczące sztucznej inteligencji, potocznie zwane unijnym aktem prawnym dotyczącym AI, mają na celu stworzenie ekosystemu, który priorytetowo traktuje prawa człowieka w tej dziedzinie. Jest to ważny temat nie tylko dla twórców i użytkowników sztucznej inteligencji, ale również dla prawników świadczących usługi w branżach nowych technologii.
Od momentu zaprezentowania pierwszej wersji ustawy, proces konsultacji doprowadził do zaproponowania szeregu zmian w przepisach. Zmiany te zostały upublicznione w formie tekstów kompromisowych. W dniu 9 stycznia nowe poprawki koncentrujące się na ocenie wpływu na prawa podstawowe i obowiązkach użytkowników systemów wysokiego ryzyka przedstawili współsprawozdawcy Parlamentu Europejskiego. Poprzednio tekst kompromisowy zaprezentowali Czesi. Ich wersja została przyjęta w dniu 6 grudnia 2022 r. Powyższe zmiany oznaczają zakończenie wewnętrznych negocjacji i oferują bardziej przyjazne dla biznesu podejście do regulacji sztucznej inteligencji, niż pierwotna propozycja Komisji Europejskiej.
Definicja systemu AI i zakres ustawy o AI zostały nieznacznie zawężone, a z klasyfikacji AI wysokiego ryzyka wyłączono systemy, które są wykorzystywane jedynie jako akcesoria do podejmowania odpowiednich decyzji. Obowiązki dostawców systemów AI wysokiego ryzyka pozostają podobne, ale dostosowano je w taki sposób aby były bardziej wykonalne pod względem technicznym i mniej uciążliwe.
Co konkretnie zawierają ostatnie poprawki?
• Przede wszystkim zawężono definicję samego AI. Rada proponuje, aby system AI działał z „elementami autonomii”, który wnioskuje, jak osiągnąć dany zestaw celów, wykorzystując „uczenie maszynowe i/lub podejścia oparte na logice i wiedzy”. Zgodnie z zapowiedziami, KE przyjmie dalsze regulacje w celu określenia jak rozumieć „podejście oparte na logice i wiedzy”;
• wprowadzenie wymogu, aby wszyscy twórcy systemów AI wysokiego ryzyka przeprowadzali ocenę wpływu na prawa podstawowe. Obejmowałaby ona takie elementy jak: zamierzony cel i geograficzny zakres stosowania; szczególne zagrożenia dla poszczególnych grup społecznych; oraz przewidywalny wpływ na środowisko. Ponadto twórcy byliby zobowiązani do posiadania infrastruktury zapewnianiającej bezpieczeństwo cybernetyczne, która zgodnie z wymogami będzie musiała być stale aktualizowana;
• podkreślono rolę ludzkiego nadzoru – zmodyfikowano przepisy dotyczące Rady ds. Sztucznej Inteligencji. Ma to zapewnić jej większą autonomię. Ponadto, komisja została upoważniona do delegowania co najmniej jednej placówki badawczej w celu zapewnienia wsparcia technicznego dla egzekwowania przepisów;
• wyszczególnione w akcie kary pieniężne uzyskały odpowiednie, proporcjonalne pułapy, w szczególności w przypadku małych i średnich przedsiębiorstw oraz przedsiębiorstw rozpoczynających swoją działalność. Zgodnie z art. 71 ust. 6 kary są znacznie obniżone do 3%, 2% lub 1%, w zależności od rodzaju i zakresu działalności przedsiębiorstwa;
• w celu stworzenia ram prawnych bardziej sprzyjających innowacjom oraz w celu promowania opartego na dowodach uczenia się działań regulacyjnych, w tekście zmieniono istotnie przepisy dotyczące środków wspierających innowacyjność. Mowa tutaj konkretnie o piaskownicach regulacyjnych w zakresie sztucznej inteligencji które mają stworzyć kontrolowane środowisko na potrzeby opracowywania, testowania i walidacji innowacyjnych systemów sztucznej inteligencji. Zgodnie z proponowanymi przepisami będą one występować w świecie rzeczywistym, a w niektórych przypadkach nawet bez nadzoru (art. 54a i 54b aktu). Oczywiście po spełnieniu określonych warunków oraz z zachowaniem odpowiednich zabezpieczeń;
• zakres ustawowego terminu „podatność na zagrożenia” został rozszerzony o podatność społeczno-ekonomiczną.
Jednak to co najbardziej istotne z perspektywy prawników zajmujących się nowymi technologiami – zgodnie z Załącznikiem III do ustawy, systemy wysokiego ryzyka mają podlegać bardziej rygorystycznym obowiązkom prawnym. Zaktualizowany tekst zawiera trzy istotne zmiany w zakresie oznaczania systemów wysokiego ryzyka:
◦ aby system został sklasyfikowany jako wysokie ryzyko, system powinien mieć istotne znaczenie w procesie decyzyjnym i nie być czysto pomocniczy. To co należy rozumieć przez „czysto pomocniczy”, zostanie przedstawione przez Komisję Europejską w drodze aktu wykonawczego
Z listy systemów wysokiego ryzyka usunięto m.in:
• wykrywanie deepfake’ów przez organy ścigania;
• analizę przestępczości;
• weryfikacje autentyczności dokumentów podróży.
Decyzja o usunięciu analizy przestępczości oraz wykrywania deepfake’ów przez organy ścigania, była uzasadniona chęcią zachowania niepewnej równowagi pomiędzy ochroną praw człowieka i bezpieczeństwem a innowacyjnością.
Do listy dodano natomiast:
• krytyczną infrastrukturę cyfrową;
• ubezpieczenia na życie;
• ubezpieczenia zdrowotne.
• po wdrożeniu aktu, komisja będzie uprawniona do umieszczania oraz usuwania z listy w Załączniku III, przypadków użycia systemów wysokiego ryzyka;
• zaktualizowano art. 51, tj. rozszerzono obowiązek rejestracji przez dostawców systemów wysokiego ryzyka w unijnej bazie danych systemów AI wysokiego ryzyka został rozszerzony na użytkowników będących organami publicznymi, z wyjątkiem organów ścigania;
• w nowo dodanym art. 52 ust. 2a, podkreślono obowiązek twórców systemów rozpoznających emocje, do informowania użytkowników o każdym przypadku kontaktu z takim systemem.
• Zgodnie z doniesieniami, ustawa o AI może zostać przegłosowana w Parlamencie Europejskim w marcu. Według Laury Caroli, asystentki parlamentarnej prowadzącej obecnie negocjacje nad ustawą na poziomie technicznym, rozporządzenie zostanie zatwierdzone do końca 2023 roku i wejdzie w życie dwa lata później.