Sztuczna inteligencja coraz mocniej oddziałuje na naszą rzeczywistość. Jest to zjawisko pozytywne, jednakże brak trzymania jej w odpowiednich ryzach może doprowadzić do poważnych szkód. Dlatego też, aby właściwie i odpowiedzialnie korzystać z narzędzi nowoczesnej technologii, Unia Europejska opublikowała AI Act. Jest to rozporządzenie, którego nadrzędnym celem jest poprawa funkcjonowania rynku wewnątrzeuropejskiego przez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji, przy zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa oraz praw podstawowych każdego obywatela UE.
AI Act już weszło w życie, ale nie w każdym obszarze
AI Act jest bardzo kompleksowym, ale przy tym i obszernym dokumentem. Wprowadzenie takiej liczby przepisów jednocześnie mogłoby wypaczyć sens całego przedsięwzięcia. Dlatego też AI Act wszedł w życie w sierpniu 2024 roku, jednakże nie wszystkie przepisy obowiązują od tego momentu. Prawodawca europejski wskazał tutaj na 24 miesiące (z wyjątkiem) jako okres przejściowy, w czasie którego zostaną wdrożone wszystkie regulacje.
Jednocześnie okres wdrożeniowy podzielono na etapy. Już po upływie 6 miesięcy od dnia wejścia rozporządzenia w życie będą obowiązywały przepisy ogólne oraz przepisy dotyczące zakazanych praktyk. Po 12 miesiącach wejdzie w życie kolejna grupa przepisów, wśród których najważniejsze to te dotyczące kar. Z kolei dla przepisów, które regulują funkcjonowanie systemów AI wysokiego ryzyka, wskazano termin 36 miesięcy.
Wobec kogo stosowane jest AI Act?
Katalog podmiotów, wobec których stosowane są przepisy AI Act, jest dosyć szeroki. Jednakże nieco upraszczając, można stwierdzić, że omawiane rozporządzenie stosuje się wobec:
- dostawców wprowadzających do obrotu systemy AI;
- podmiotów stosujących systemy AI;
- importerów i dystrybutorów systemów AI;
- osób, na które AI ma wpływ i które znajdują się w Unii Europejskiej.
Rozporządzenie wskazuje również, kiedy jego przepisów nie można stosować. AI Act nie jest stosowane do obszarów wykraczających poza zakres stosowania prawa UE. Nie obejmuje również systemów sztucznej inteligencji, jeżeli wprowadzono je do obrotu, oddano do użytku lub są one wykorzystywane wyłącznie do celów wojskowych, obronnych lub do celów bezpieczeństwa narodowego. Przepisy nie mają również zastosowania do organów publicznych w państwie trzecim oraz do organizacji międzynarodowych, jeżeli te podmioty wykorzystują systemy AI w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie ścigania przestępstw i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim.
AI Act dotyczy głównie systemów wysokiego ryzyka
Ustawodawca unijny podzielił systemy sztucznej inteligencji ze względu na ryzyko, jakie mogą stwarzać. Przypisanie konkretnego AI do odpowiedniej grupy ryzyka jest tutaj najistotniejsze. W zależności bowiem od klasyfikacji, podmioty wobec których stosuje się rozporządzenie, będą musiały spełniać inne (mniej lub bardziej rygorystyczne) warunki. Im większy poziom ryzyka, tym szerszy zakres obowiązków nakładanych na producentów, dystrybutorów czy użytkowników systemów AI.
Rozporządzenie dzieli systemy sztucznej inteligencji na 4 kategorie:
- systemy minimalnego ryzyka – obejmuje AI, które w znikomy sposób mogą zagrażać użytkownikom. Są to takie systemy jak filtry przeciwspamowe używane w skrzynkach e-mail czy też systemy rekomendacji produktów stosowane w sklepach internetowych;
- systemy ograniczonego ryzyka – chodzi o sztuczną inteligencję wykorzystywaną w obszarach, w których nie jest w stanie wyrządzić poważnych szkód. AI z tej kategorii muszą już spełniać minimalne wymagania stawiane rozporządzeniem. Przedsiębiorcy, którzy zdecydują się na ich wykorzystywanie, są zobligowani do informowania użytkowników o ich stosowaniu. Przykładami systemów z tej kategorii są chatboty informacyjne stosowane przy obsłudze klienta;
- systemy wysokiego ryzyka – AI mające wysoki wpływ na funkcjonowanie ludzi, zarówno w sieci, jak i poza nią. Użytkowanie tych systemów wymaga od przedsiębiorców spełnienia największej liczby wymogów oraz zachowania szczególnego bezpieczeństwa. Jako przykłady można tutaj wymienić systemy nadzoru pracowników, systemy wykorzystywane w celu oceny zdolności kredytowej czy też systemy zarządzania ruchem pojazdów autonomicznych;
- systemy niedopuszczalnego ryzyka – kategoria obejmująca AI zakazane na terenie Unii. Obejmuje systemy, które mogą być wykorzystywane do nielegalnych lub nieetycznych działań. Chodzi tu w szczególności o algorytmy służące do manipulowania i wykorzystywania ludzkich słabości do nakłonienia ich do konkretnego działania (w szczególności do zakupu lub dokonania określonej płatności). Zabronione są również systemy dokonujące oceny społecznej mogące prowadzić do dyskryminacji.
AI Act skupia się niemal w całości na systemach wysokiego ryzyka. Na systemy minimalnego i ograniczonego ryzyka nakłada symboliczne wymogi. Z kolei systemy zakwalifikowane jako niedopuszczalne są zakazane. Stosowanie ich w swoim przedsiębiorstwie jest zagrożone surową karą.
Jak kwalifikować AI?
To, do jakiej grupy zostanie zakwalifikowany konkretny system, zależy od samego przedsiębiorcy. Nie może on jednak tego wykonać w sposób dowolny, w razie błędnej decyzji organy unijne mogą bowiem nałożyć na niego wysokie kary pieniężne.
AI Act przychodzi tutaj jednak z pomocą. Znajdziemy w nim wskazania, kiedy należy zaliczyć dany system do kategorii ogólnego lub wysokiego ryzyka. Zasada zatem jest taka, że algorytm należy w pierwszej kolejności zweryfikować pod kątem wysokiego ryzyka. Jeśli nie spełnia tych warunków – z kryteriami ryzyka ogólnego, a jeżeli AI nie zalicza się do żadnej z tych kategorii, mamy do czynienia z systemem minimalnego ryzyka.
Systemy wysokiego ryzyka
Systemy wysokiego ryzyka to takie, których stosowanie może prowadzić do naruszenia praw podstawowych, utraty życia lub zdrowia, a także istotnych strat finansowych. Będą to również algorytmy, które w sposób autonomiczny podejmują decyzje, które mogą wpływać na sytuację ludzi, np. w obszarze zatrudnienia, edukacji, wymiaru sprawiedliwości, transportu czy bankowości.
Systemy ogólnego ryzyka
Do systemów ogólnego ryzyka kwalifikuje się algorytmy, które mimo wpływu na życie ludzi nie są niebezpieczne, tj. ich niewłaściwe działanie nie prowadzi do poważnych skutków, jak na przykład zagrożenie bezpieczeństwa państwa lub życia i zdrowia ludzi. Systemy te nie są w pełni autonomiczne. Wspierają decyzje użytkowników, ale nie podejmują ich samodzielnie za nich. Nie są przy tym używane w krytycznych obszarach takich jak wymiar sprawiedliwości, opieka zdrowotna, edukacja. Najczęściej używane w marketingu, rozrywce oraz obsłudze klienta.
Kiedy system AI będzie zabroniony?
Oprócz systemów, które mimo ryzyka, jakie ze sobą niosą, mogą być stosowane w UE po spełnieniu odpowiednich warunków przez przedsiębiorców, AI Act wskazuje również programy, które są na tyle szkodliwe, że ustawodawca zdecydował się ich nie dopuszczać na terenie wspólnoty. Do tej kategorii zaliczamy wszelkie algorytmy, które:
- manipulują zachowaniem użytkowników w celu wpływania na ich decyzje w sposób mogący prowadzić do ich szkody (np. nakłanianie do hazardu);
- dokonują oceny społecznej obywateli na podstawie ich zachowań lub cech (taki system aktualnie obowiązuje w Chinach, obywatele z wysokimi ocenami otrzymują lepsze warunki kredytowe czy też mają łatwiejszy dostęp do opieki zdrowotnej i edukacji);
- automatycznie rozpoznają ludzi na podstawie ich cech biometrycznych (np. odcisków palców, twarzy) w czasie rzeczywistym w przestrzeniach publicznych (wyjątki dotyczą walki z terroryzmem czy zapobiegania innym poważnym przestępstwom);
- służą do masowego monitorowania społeczeństwa, naruszając tym samym prawo do prywatności czy wolności zgromadzeń.
Zasady tworzenia systemów AI
Prawodawca unijny nie wskazał w AI Act dokładnie, co powinien zrobić twórca sztucznej inteligencji, aby algorytm był bezpieczny dla ludzi. Wskazał jednak na ogólne zasady, którymi powinien się kierować każdy producent tego typu oprogramowania.
Bezpieczeństwo i przewidywalność
Systemy AI muszą być tak zaprojektowane, aby działały w sposób przewidywalny. Wyniki pracy programu powinny być zgodne z celami, dla których został stworzony. Wobec tego powinien być wolny od błędów i możliwości używania go w sposób nielegalny.
Zarządzanie danymi
Sztuczna inteligencja, aby się rozwijać, musi korzystać z danych. Nie może jednak przyjmować każdych informacji, jakie znajdzie w internecie, wówczas bowiem byłaby pełna przekłamań, fake newsów i teorii spiskowych. Nie mogą być one również przetwarzane w sposób wybiórczy. Dane muszą być zatem pobierane i testowane w sposób dokładny, kompletny i reprezentatywny.
Systemy muszą również być tworzone w zgodzie z zasadami ochrony danych osobowych. Twórcy muszą stosować techniki anonimizacji lub pseudonimizacji, tak aby nie doszło do naruszenia podstawowych praw, takich jak prawo do prywatności, godności i równości.
Przejrzystość
To, w jaki sposób sztuczna inteligencja będzie wpływała na użytkowników, musi być w jasny sposób komunikowane. Twórcy systemów muszą informować użytkowników, że mają oni do czynienia z AI, a także w sposób transparentny, ale i prosty wyjaśnić działanie systemu. Nakłada to zatem na twórców obowiązek sporządzenia dokumentacji technicznej programu oraz instrukcję korzystania z niego.
Ocena ryzyka
Twórcy systemu muszą przeprowadzać ocenę ryzyka na każdym etapie jego tworzenia. Muszą podchodzić do niego w sposób krytyczny, tak aby móc właściwie zidentyfikować potencjalne zagrożenia związane z korzystaniem z systemu, np. luki w zabezpieczeniu narażające użytkowników na cyberataki.
Do obowiązków twórców należy również opracowanie i wdrożenie środków zapobiegawczych mających na celu minimalizację potencjalnych zagrożeń. Na koniec pozostaje jeszcze stałe monitorowanie systemu i błyskawiczne reagowanie w razie zaistnienia jakichkolwiek niebezpieczeństw.
Co grozi za nieprzestrzeganie AI Act?
Kary pieniężne przewidziane przez AI Act są naprawdę wysokie. Zapewne ustalono je na takim poziomie, aby już na starcie odstraszyć przedsiębiorców, którzy zamierzali działać w szarej strefie, nie przejmując się wytycznymi rozporządzenia. Widząc górne widełki sankcji, mogą jednak zrezygnować ze swoich planów.
W przypadku naruszenia przepisów dotyczących systemów zakazanych, tj. stosowania AI pomimo zaliczenia go do kategorii niedopuszczalnego ryzyka, grozi kara:
- do 35 000 000 euro lub
- do 7% całkowitego rocznego obrotu światowego – jeśli naruszenia dopuścił się przedsiębiorca.
W przypadku naruszenia pozostałych przepisów AI Act grozi kara:
- do 15 000 000 euro lub
- do 3% całkowitego rocznego obrotu światowego – jeżeli naruszenia dopuścił się przedsiębiorca.
Ponadto sankcjami obłożono przypadki przekazywania nieprawdziwych lub wprowadzających w błąd informacji organowi prowadzącemu kontrolę. Sankcje te wynoszą:
- do 7 500 000 euro lub
- do 1% całkowitego rocznego obrotu światowego – jeśli naruszenia dopuścił się przedsiębiorca.