Sztuczna inteligencja nie jest rozwiązaniem wymyślonym w tym roku. Mimo że aktualnie święci triumfy, to jest z nami już od kilkudziesięciu lat. Dziwi zatem fakt, że prawodawca europejski oraz krajowy nie podjął jeszcze tego tematu na poważnie. Ze świecą można szukać uregulowań, które w sposób kompleksowy zajęłyby się działaniem AI. To niedługo może się jednak zmienić, Parlament Europejski kończy bowiem prace nad rozporządzeniem w przedmiocie wdrażania systemów sztucznej inteligencji. Co zawiera ten akt oraz jak UE zamierza chronić swoich obywateli przed ewentualnym niekorzystnym wpływem AI na nasze życie?
Sztuczna inteligencja – czas ją uregulować prawnie
Rozwój AI w ostatnich latach jest tak dynamiczny, że sam rynek IT za nim nie nadąża, co dopiero mówić o politykach, którzy często sami są wykluczeni cyfrowo. Nie powinno zatem dziwić, że tak długo przyszło nam czekać na regulacje, które w sposób systemowy zdefiniują sztuczną inteligencję oraz podmioty i zjawiska z nią związane, określą prawa i obowiązki producentów i użytkowników AI, a także ryzyka korzystania z tych rozwiązań oraz odpowiedzialność za szkody powstałe wskutek działania sztucznej inteligencji.
Powyżej wspomniane zagadnienia ma standaryzować rozporządzenie Parlamentu Europejskiego i rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji). Projekt tego aktu przeszedł już etap konsultacji i opinii, niedługo zatem powinien wejść w życie.
W uzasadnieniu do rozporządzenia organ europejski wskazuje, że konieczne stało się podjęcie działań ustawodawczych w celu wykorzystania możliwości i korzyści związanych ze sztuczną inteligencją, a jednocześnie w celu zapewnienia ochrony zasad etycznych. Twórcom rozporządzenia w czasie pracy nad nim przyświecały następujące cele:
- zapewnienie, aby systemy sztucznej inteligencji wprowadzane do obrotu w Unii i znajdujące się w użyciu były bezpieczne i zgodne z obowiązującym prawem w obszarze praw podstawowych oraz z unijnymi wartościami;
- zapewnienie pewności prawa na potrzeby ułatwienia inwestycji i innowacji w dziedzinie sztucznej inteligencji;
- poprawa zarządzania i skuteczne egzekwowanie obowiązujących przepisów dotyczących praw podstawowych oraz wymogów bezpieczeństwa mających zastosowanie do systemów sztucznej inteligencji;
- ułatwienie rozwoju jednolitego rynku zgodnych z prawem, bezpiecznych i wiarygodnych zastosowań sztucznej inteligencji oraz zapobieganie fragmentacji rynku.
Sztuczna inteligencja a jednolite zdefiniowanie pojęć AI
Prawodawca unijny w końcu zajął się kompleksowym zdefiniowaniem pojęć związanych z tworzeniem i wdrażaniem systemów sztucznej inteligencji. Opisane zostały nie tylko takie pojęcia jak „AI” czy „użytkownik” systemu, lecz także „importer” i „eksporter” oprogramowania, „wprowadzenie do obrotu”, „udostępnienie na rynku” czy „dane testowe” i „dane wejściowe”. Ogółem definicji jest ponad 40. My zajmiemy się jednak tylko tymi najważniejszymi.
Rozporządzenie wskazuje, że „system sztucznej inteligencji” to oprogramowanie, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.
„Dostawca” systemu z kolei oznacza osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które opracowują system sztucznej inteligencji lub zlecają jego opracowanie w celu wprowadzenia go do obrotu lub oddania go do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie.
Natomiast „użytkownik” systemu sztucznej inteligencji to osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej.
Sztuczna inteligencja – czego zabroni UE?
Tym, co rzuca się w oczy, przeglądając projekt rozporządzenia, jest fakt, że już w artykule 5 tego dokumentu prawodawca określił zakazane praktyki w zakresie sztucznej inteligencji. Jak widać, aspekt ten jest dla niego bardzo ważny. Być może doszedł do wniosku, że rozwój AI niesie za sobą ogromne ryzyko, takie jak chociażby łamanie prawa własności, prawa autorskiego, prawa do anonimowości czy prawa do ochrony danych osobowych. Lista zakazów jest imponująca, my omówimy te najistotniejsze.
Na pierwszy ogień poszedł zakaz dotyczący wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną. Prawodawca unijny nie pozwala zatem na wykorzystywanie AI do „kontrolowania” zachowań ludzkich w sposób tak intensywny i nachalny, że mogłoby to doprowadzić do uszkodzenia lub rozstrojenia organizmu człowieka.
Kolejnym istotnym zakazem jest ten odnoszący się do wykorzystywania sztucznej inteligencji przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości, kiedy to punktowa ocena społeczna prowadzi do:
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup w kontekstach społecznych niezwiązanych z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane;
- krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.
Jak widzimy, Unia Europejska nie zamierza stać się nową Republiką Chińską, w której prawa i obowiązki obywateli zależne są od ich oceny społecznej. Miejmy nadzieję, że kraje Wspólnoty będą się tego zakazu trzymały.
Innym ciekawym zapisem ustanowionym przez rozporządzenie w omawianej kwestii jest zakaz wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, chyba że w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z następujących celów:
- ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
- zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu.
Sztuczna inteligencja a związane z nią wysokie ryzyko
W następnych przepisach ustawodawca UE przeszedł do uregulowania systemów sztucznej inteligencji wysokiego ryzyka. Wyjaśniono, że sztuczną inteligencję należy uznać za system wysokiego ryzyka, jeżeli spełnia ona łącznie dwa poniższe warunki:
- system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II do rozporządzenia lub sam jest takim produktem;
- produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.
Kolejno prawodawca wskazał, że sztuczna inteligencja wysokiego ryzyka, aby mogła zostać dopuszczona do rynku, musi być stale kontrolowana i aktualizowana w tym kierunku. Działanie to obejmuje następujące etapy:
- identyfikację i analizę znanego i dającego się przewidzieć ryzyka związanego z każdym systemem sztucznej inteligencji wysokiego ryzyka;
- oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;
- ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu;
- przyjęcie odpowiednich środków zarządzania ryzykiem.
Do grupy systemów wysokiego ryzyka rozporządzenie zakwalifikowało takie obszary działalności jak biometryczna identyfikacja i kategoryzacja osób fizycznych; zarządzanie i eksploatacja infrastruktury krytycznej; edukacja i szkolenie zawodowe; zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia; dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych; ściganie przestępstw; zarządzanie migracją, azylem i kontrolą granic; pomoc w interpretacji prawnej i stosowaniu prawa.
Sztuczna inteligencja czyli systemy AI o ograniczonym ryzyku – tutaj wymagania będą o wiele mniejsze
Rozporządzenie wyróżnia jeszcze jednej rodzaj sztucznej inteligencji. Mianowicie chodzi o systemy AI reprezentujące ograniczone ryzyko. Takie oprogramowanie zostało potraktowane przez prawodawcę widocznie łagodniej. Musi ono spełniać minimalne wymogi w kwestii przejrzystości, tak aby użytkownicy mieli możliwość podejmowania świadomych decyzji. Ponadto dostawca ma obowiązek informacyjny, zgodnie z którym musi on przekazać użytkownikowi, iż będzie korzystał ze sztucznej inteligenci. Takie wymagania w szczególności będą dotyczyły tych systemów, które generują obrazy, treści audio czy wideo lub je modyfikują.