Sztuczna inteligencja (AI) to technologia, która w ciągu ostatnich kilku lat zrewolucjonizowała wiele aspektów naszego życia. Z jednej strony otwiera przed nami nowe możliwości, a z drugiej niesie ze sobą ryzyko nadużyć, które mogą zagrażać prawom człowieka oraz fundamentalnym wartościom społecznym. W odpowiedzi na te wyzwania, Unia Europejska opracowała przepisy zawarte w rozporządzeniu AI Act, które reguluje stosowanie sztucznej inteligencji. Celem tego rozporządzenia jest nie tylko wspieranie innowacji, lecz także ochrona obywateli przed niewłaściwym i nieetycznym wykorzystaniem tej technologii. Jednym z kluczowych elementów regulacji są zakazane praktyki w AI Act, które są uznane za szczególnie niebezpieczne.
Manipulowanie zachowaniami użytkowników
Pierwszą zakazaną praktyką, która została uwzględniona w rozporządzeniu AI Act, jest wykorzystywanie sztucznej inteligencji do manipulowania zachowaniami użytkowników.
AI Act zakazuje wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne bądź wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę.
Wykorzystywanie słabości osób
AI Act zakazuje wykorzystywania sztucznej inteligencji w sposób, który manipuluje osobami znajdującymi się w szczególnie wrażliwych sytuacjach. Tego rodzaju praktyki mogą prowadzić do wykorzystywania słabości tych osób, co stanowi poważne naruszenie ich praw.
Zakazane jest wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI, który wykorzystuje słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę.
Przykład 1.
Kampanie reklamowe, które analizują zachowania dzieci i tworzą sugestywne treści, w szczególności aplikacje, które wykorzystują dane o zachowaniach dzieci w celu dopasowania treści reklamowych, mogą naruszać ich prawo do ochrony przed manipulacją. Podobnie wykorzystywanie danych osób starszych w celu promowania produktów lub usług, które nie odpowiadają ich rzeczywistym potrzebom, jest przykładem niewłaściwego wykorzystywania słabości tych osób.
Zakazane praktyki w AI Act a ich kategoryzowanie i ocena ryzyka przestępstw
Zgodnie z przepisami AI Act, zabronione jest stosowanie systemów sztucznej inteligencji do oceny ryzyka przestępstw na podstawie profili psychologicznych lub społecznych osób. AI Act stanowi, że takie praktyki prowadzą do niesprawiedliwego traktowania osób na podstawie niepełnych lub błędnych danych, a także naruszają zasadę domniemania niewinności.
Zakaz dotyczy wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych bądź grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych bądź cech osobowości, kiedy to scoring społeczny prowadzi do jednego lub obu z następujących skutków: krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane, lub krzywdzącego bądź niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.
Nie jest również dozwolone wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych; zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.
Przykład 2.
Systemy wykorzystywane do przewidywania przestępstw na podstawie danych socjoekonomicznych, psychologicznych i behawioralnych pochodzących z obserwacji działań danej osoby w sieci, które to dane nie mają bezpośredniego związku z ryzykiem popełnienia przestępstwa, ale na ich podstawie uznaje się daną osobę za potencjalnego przestępcę.
Nieukierunkowane pozyskiwanie danych biometrycznych
AI Act zabrania nieukierunkowanego zbierania danych biometrycznych, takich jak obraz twarzy, w celu tworzenia baz danych rozpoznawania twarzy. Takie działania mogą prowadzić do stworzenia systemu masowej inwigilacji, który może być wykorzystywany w sposób niekontrolowany.
Zakaz obejmuje wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej.
Przykład 3.
Zbieranie danych biometrycznych w przestrzeni publicznej, na przykład poprzez kamery monitorujące osoby wchodzące do sklepów lub na ulicach miast, to praktyka, która może naruszać podstawowe prawa obywateli do prywatności.
Ocena emocji w kontekście pracy i edukacji
Zgodnie z AI Act zabronione jest stosowanie systemów sztucznej inteligencji, które analizują emocje osób w miejscach pracy lub instytucjach edukacyjnych. Tego rodzaju praktyki mogą prowadzić do naruszenia prywatności osób, które są oceniane na podstawie ich emocji, co może wpływać na ich karierę zawodową czy postępy edukacyjne.
AI Act zakazuje także wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.
Przykład 4.
Wykorzystywanie technologii rozpoznawania emocji w miejscu pracy, na przykład do oceny zaangażowania pracowników lub ich predyspozycji do awansów, może prowadzić do dyskryminacji. Tego typu systemy mogą mieć zniekształcone oceny emocji, które nie mają żadnego związku z rzeczywistym stanem zdrowia psychicznego czy wydajnością pracy pracownika.
Klasyfikowanie osób na podstawie wrażliwych danych
AI Act zabrania klasyfikowania osób na podstawie danych biometrycznych. Praktyki te prowadzą do stygmatyzacji, a także mogą skutkować dyskryminacją, szczególnie w kontekście zatrudnienia, dostępu do usług publicznych czy ochrony przed przemocą.
Niezgodne z AI Act jest wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne na podstawie danych biometrycznych, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
Zdalna identyfikacja biometryczna w przestrzeni publicznej
Zgodnie z AI Act stosowanie technologii rozpoznawania twarzy w przestrzeni publicznej w czasie rzeczywistym jest zabronione, chyba że istnieją szczególne, uzasadnione okoliczności, takie jak przeciwdziałanie terroryzmowi lub poszukiwanie osób zaginionych. Praktyka masowego monitorowania obywateli jest uznana za naruszenie prywatności i godności ludzkiej.
Zakazuje się wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że – i w zakresie, w jakim – takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:
- ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
- zapobiegnięcia konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub rzeczywistemu i aktualnemu lub rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
- lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego lub ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej cztery lata.
Przykład 5.
Wykorzystanie rozpoznawania twarzy do monitorowania obywateli w przestrzeni publicznej, np. na protestach, może prowadzić do tłumienia wolności słowa oraz prawa do zgromadzeń. Inwigilacja uczestników wydarzeń społecznych w sposób masowy nie tylko narusza prywatność, lecz także ma potencjał do wykorzystywania w celach politycznych, co stanowi poważne zagrożenie dla demokracji
Zakazane praktyki w AI Act a ich konsekwencje stosowania
AI Act przewiduje kary pieniężne za stosowanie zakazanych praktyk, które mogą sięgać bardzo wysokich kwot. Wysokość kar zależy od rodzaju i skali naruszenia. Kary mogą wynosić do 35 milionów euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.