Legalność stosowania AI w Polsce – jakie praktyki są zakazane?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Sztuczna inteligencja (AI) staje się integralną częścią życia codziennego i działalności gospodarczej. Od inteligentnych asystentów głosowych po zaawansowane systemy analityki danych – jest ona wykorzystywana w edukacji, medycynie, sektorze finansowym, marketingu, produkcji i wielu innych obszarach. Jej dynamiczny rozwój rodzi jednak u wielu przedsiębiorców pytanie, jaka jest legalność stosowania AI w Polsce. W poniższym artykule wyjaśniamy kwestie dotyczące legalności stosowania AI w Polsce.

Sztuczna inteligencja manipulująca lub wprowadzająca w błąd

Nie można legalnie wprowadzać do obrotu, oddawać do użytku lub wykorzystywać systemu AI, który stosuje techniki podprogowe będące poza świadomością danej osoby, celowe techniki manipulacyjne lub wprowadzające w błąd. Mowa tutaj o technikach, które mają na celu albo powodują dokonanie znaczącej zmiany zachowania danej osoby lub (grupy osób) za pomocą znacznego ograniczenia ich zdolności do podejmowania świadomych decyzji. Tym samym skutkują one podjęciem decyzji przez te osoby, której inaczej by nie podjęły, w sposób, który wyrządza (lub może wyrządzić) komuś poważną szkodę.

Przykład 1.

Aplikacja mobilna wykorzystuje system AI do rekomendacji produktów finansowych, takich jak kredyty czy inwestycje. Sztuczna inteligencja analizuje zachowania użytkownika w aplikacji, jego wzorce przeglądania, czas spędzony na konkretnych ekranach oraz reakcje na różne komunikaty. System wykorzystuje w tym celu techniki podprogowe, np. ukryte wizualnie sugestie lub krótkie, niemal niezauważalne bodźce dźwiękowe, które mają wpłynąć na decyzje użytkownika, o czym nie mam on pojęcia. 

W wyniku działania AI osoba korzystająca z aplikacji zaczyna podejmować decyzje finansowe (np. podpisuje umowę na kredyt lub dokonuje ryzykownej inwestycji), których normalnie by nie podjęła, gdyby miała pełną świadomość wpływu systemu. Działania te powodują znaczną zmianę zachowania i ograniczają zdolność danej osoby do podejmowania świadomych decyzji, co może skutkować poważną szkodą finansową dla niej samej lub jej rodziny.

Sztuczna inteligencja wykorzystująca słabości osoby fizycznej

Obecnie nielegalne jest wprowadzanie do obrotu, oddawanie do użytku lub używanie systemu AI, który wykorzystuje słabości osoby fizycznej (lub określonej grupy) ze względu na jej wiek, niepełnosprawność, szczególną sytuację społeczną lub ekonomiczną. Taki system ma na celu lub prowadzi do znacznej zmiany zachowania w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić komuś poważną szkodę.

Wskazuje się jednak, że nie można zakładać, że zaistniał zamiar dokonania zmiany zachowania, jeżeli wynika ona z czynników, które mają charakter zewnętrzny w stosunku do systemu AI i które są poza kontrolą dostawcy lub podmiotu stosującego. W związku z tym ani dostawca, ani podmiot stosujący AI nie mogą ich racjonalnie przewidzieć czy też im przeciwdziałać.

Nie ma znaczenia, czy dostawca lub podmiot stosujący mieli zamiar wyrządzić poważną szkodę, istotne jest, że szkoda wynika z praktyk manipulacyjnych opartych na AI lub ich wykorzystywaniu.

Sztuczna inteligencja wykorzystywana do scoringu społecznego

W Polsce sprzeczne z prawem jest wprowadzanie do obrotu, oddawanie do użytku albo wykorzystywanie systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych (grup osób) prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych (osobowości), jeśli skutkuje to:

  • krzywdzącym lub niekorzystnym traktowaniem niektórych osób fizycznych (grup osób) w kontekstach społecznych niezwiązanych z kontekstami, w których pierwotnie wygenerowano lub zebrano dane;
  • krzywdzącym lub niekorzystnym traktowaniem niektórych osób fizycznych (grup osób), które jest nieuzasadnione i nieproporcjonalne do ich zachowania społecznego lub jego wagi.

Systemy AI, które umożliwiają prowadzenie przez podmioty publiczne lub prywatne scoringu społecznego, mogą prowadzić do wyników dyskryminujących i do wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość.

Takie systemy AI oceniają lub klasyfikują osoby (grupy osób) na podstawie różnych danych dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych (osobowości) w określonych przedziałach czasowych.

Scoring społeczny uzyskany w rezultacie działania takich systemów AI może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych (grup osób) w kontekstach społecznych niezwiązanych z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych.

Sztuczna inteligencja oceniająca ryzyko popełnienia przestępstwa

Nielegalne jest wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemu AI do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych.

Zakaz ten nie ma zastosowania do systemów AI wykorzystywanych do wspierania dokonywanej przez człowieka oceny udziału danej osoby w działalności przestępczej, która to ocena opiera się już na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.

Sztuczna inteligencja do rozpoznawania twarzy z Internetu

Przepisy prawa nie pozwalają na wykorzystywanie sztucznej inteligencji w zakresie wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej.

Praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.

Sztuczna inteligencja badająca emocje w pracy

Zakazane jest obecnie również wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy i instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych czy też bezpieczeństwa.

Zdaniem ustawodawcy wynika to z poważnych obaw co do podstaw naukowych systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na ich temat, zwłaszcza że ich wyrażanie znacznie się różni w zależności od kultury i sytuacji, a nawet w przypadku pojedynczej osoby. Wśród głównych wad takich systemów można wymienić: ograniczoną wiarygodność, nieprecyzyjność i ograniczoną możliwość uogólnienia.

W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych i wyciągające wnioski na temat emocji czy też zamiarów na podstawie danych biometrycznych mogą prowadzić do dyskryminacyjnych wyników oraz mogą naruszać prawa i wolności zainteresowanych osób.

Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych (grup osób).

Zakaz ten nie powinien obejmować systemów AI wprowadzanych do obrotu wyłącznie ze względów medycznych lub bezpieczeństwa, takich jak systemy przeznaczone do użytku terapeutycznego.

Legalność stosowania AI w kontekście wykorzystania danych biometrycznych

Nie jest dozwolone wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne na podstawie ich danych biometrycznych, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. 

Zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, ani ich kategoryzacji w obszarze ścigania przestępstw.

Zakazane jest także wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że takie wykorzystanie jest bezwzględnie konieczne do jednego z następujących celów:

  • ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi, a także poszukiwania osób zaginionych;
  • zapobiegania konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych, rzeczywistemu i aktualnemu, rzeczywistemu i dającemu się przewidzieć zagrożeniu atakiem terrorystycznym;
  • lokalizowania lub identyfikowania osoby podejrzanej o popełnienie przestępstwa w celu prowadzenia postępowania przygotowawczego, ścigania lub wykonania kar w odniesieniu do przestępstw, o których mowa w załączniku II AI Act, podlegających w danym państwie członkowskim karze pozbawienia wolności lub środkowi polegającemu na pozbawieniu wolności na co najmniej cztery lata.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów