Jak wygląda legalne korzystanie z AI w świetle nowych przepisów?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Sztuczna inteligencja (AI) jest narzędziem, które służy nie tylko dla zabawy, ale coraz częściej także pomaga w różnych obowiązkach zawodowych. Czy korzystanie z AI jest w Polsce legalne? Na jakich zasadach opiera się legalne korzystanie z AI? Czy efekty pracy sztucznej inteligencji mogą być swobodnie wykorzystywane zarówno w życiu prywatnym, jak i zawodowym?

Unijne podstawy prawy korzystania ze sztucznej inteligencji

Programy komputerowe działające na podstawie sztucznej inteligencji są bardzo zróżnicowane. W Polsce możemy korzystać z wielu różnych wersji AI, które służą do różnych celów. Biorąc pod uwagę dynamiczny wzrost liczby osób korzystających z tego narzędzia, Unia Europejska postanowiła uregulować zasady stosowania AI. Najważniejszą regulacją, która kompleksowo reguluje rozwój, wprowadzanie do obrotu i używanie AI w Unii Europejskiej, w tym w Polsce, jest Akt o Sztucznej Inteligencji (dalej: AI Act). Jest to pierwsze tego typu prawo na świecie, które wprowadza podejście oparte na ryzyku. Nowe ustawodawstwo obowiązuje tak naprawdę już od 1 sierpnia 2024 roku, choć w przypadku Polski nie udało się jeszcze implementować wszystkich zapisów AI Act.

Akt o Sztucznej Inteligencji dzieli systemy AI na cztery kategorie ryzyka, co bezpośrednio wpływa na obowiązki prawne twórców i użytkowników takich narzędzi:

  1. ryzyko niedopuszczalne (zakazane) – systemy stanowiące wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw podstawowych (np. manipulacja behawioralna, systemy „ocen społecznych” – social scoring, nieukierunkowany scraping twarzy) są od lutego 2025 roku całkowicie zakazane na terenie UE;
  2. wysokie ryzyko – systemy, które mogą mieć istotnie negatywny wpływ na zdrowie, bezpieczeństwo lub prawa podstawowe (np. w rekrutacji, ochronie zdrowia, zarządzaniu infrastrukturą krytyczną, w sądownictwie, w migracjach) wymagają spełnienia szeregu rygorystycznych obowiązków przed wprowadzeniem na rynek;
  3. ograniczone ryzyko – systemy stwarzające mniejsze ryzyko, gdzie kluczowa jest przejrzystość (np. chatboty, systemy generujące treści – deepfakes) wymagają obowiązku informowania użytkownika (np. informacja, że rozmawia się z AI) oraz zapewnienia, że treści generowane przez AI są oznaczane (np. metadane);
  4. minimalne ryzyko – większość prostych systemów AI (np. filtry spamowe, proste gry AI) nie podlega rygorystycznej regulacji prawnej. W takich przypadkach zachęca się zaledwie do dobrowolnego przestrzegania kodeksów postępowania.

Prawo autorskie a legalne korzystanie z AI

Korzystanie ze sztucznej inteligencji na terenie Unii Europejskiej jest co do zasady legalne, o ile AI nie należy do pierwszej kategorii zakazanych systemów. Samo stosowanie takiego narzędzia nie będzie problemem, jeśli efekty pracy AI będą służyły prywatnym celom użytkownika (np. rozrywkowym). Inaczej jest w przypadku publicznego udostępniania efektów pracy AI i jednoczesnego generowania dochodów. W tym zakresie konieczne staje się odwołanie do prawa autorskiego. 

Biorąc pod uwagę krajowe ustawodawstwo, Ustawa z 4 lutego 1994 roku o prawie autorskim i prawach pokrewnych chroni wyłącznie utwory, które są rezultatem twórczej działalności, mają indywidualny charakter i są stworzone przez człowieka (osobę fizyczną). Obecnie, wytwory stworzone autonomicznie przez AI nie są uznawane za utwory w świetle prawa autorskiego i co do zasady nie podlegają ochronie. W praktyce oznacza to, że:

  • prawa autorskie nie przysługują maszynie, AI jest zaś traktowana jako narzędzie pomocne przy pracy;
  • twórcą dzieła wygenerowanego za pomocą sztucznej inteligencji może być człowiek, który jej używa jako narzędzia i wnosi do procesu twórczego swój indywidualny wkład twórczy (np. poprzez przemyślany i oryginalny prompt – instrukcję, edycję, selekcję). W takim przypadku to człowiekowi mogą przysługiwać prawa autorskie do zmodyfikowanego lub wyselekcjonowanego rezultatu;
  • wytwory czysto AI mogą trafiać do domeny publicznej, choć to wciąż przedmiot debat prawnych.

Ważnym aspektem legalności korzystania z AI jest to, na jakich danych system sztucznej inteligencji był szkolony.

  • TDM (Text and Data Mining) – dyrektywa o prawie autorskim na jednolitym rynku cyfrowym (CDSM Directive) pozwala na masowe wydobywanie tekstów i danych w celach TDM, ale prawo autorskie może zostać zastrzeżone przez twórcę (mechanizm opt-out);
  • Przejrzystość – AI Act nakłada na dostawców modeli AI ogólnego przeznaczenia (takich jak te, które generują obrazy czy tekst) obowiązek publikowania szczegółowych streszczeń danych chronionych prawem autorskim użytych do ich szkolenia. Jest to krok w kierunku większej odpowiedzialności i przejrzystości;
  • Plagiat – generowanie treści przez AI, które są bardzo podobne lub stanowią kopię istniejących, chronionych utworów, może prowadzić do naruszenia praw autorskich pierwotnego twórcy. W Polsce to użytkownik (człowiek) jest pociągany do odpowiedzialności za plagiat, nawet jeśli użył do tego narzędzia AI.

Przykład 1.

Właściciel agencji marketingowej zlecił pracownikowi stworzenie logotypu firmowego przy użyciu generatora obrazów AI (np. Midjourney), wpisując jedynie prosty, ogólny prompt. 

Czy agencja ma pełne prawa autorskie do tego logotypu i może go swobodnie zarejestrować jako znak towarowy?

Co do zasady nie, ponieważ polskie prawo autorskie wymaga, aby utwór był rezultatem twórczej działalności człowieka i miał indywidualny charakter. Jeśli pracownik wpisał jedynie ogólny prompt, a AI autonomicznie stworzyło projekt, logotyp jest traktowany jako „wytwór”, a nie chroniony „utwór”. Agencja może używać obrazu zgodnie z regulaminem narzędzia, ale nie ma praw autorskich w polskim rozumieniu, co utrudnia, a czasem uniemożliwia, rejestrację znaku towarowego. Aby uzyskać ochronę, pracownik musiałby wnieść istotny, twórczy wkład (np. poprzez znaczącą edycję, selekcję i modyfikację wygenerowanego obrazu).

Przykład 2.

Polski bank „E-Finanse” wdrożył zaawansowany system AI, który na podstawie analizy kilkuset wskaźników finansowych i behawioralnych klienta automatycznie odmawia mu udzielenia pożyczki. Czy klient ma prawo zakwestionować tę decyzję i zażądać, aby przejrzał ją pracownik banku?

Tak, ma takie prawo. Zgodnie bowiem z art. 22 RODO każda osoba ma prawo do niepodlegania decyzjom opartym wyłącznie na zautomatyzowanym przetwarzaniu, jeśli wywołują wobec niej skutki prawne lub istotnie na nią wpływają (co z pewnością dotyczy odmowy pożyczki). Bank „E-Finanse” musi zapewnić klientowi:

  1. Prawo do uzyskania interwencji ludzkiej (pracownik musi zweryfikować decyzję).
  2. Prawo do wyrażenia własnego stanowiska.
  3. Prawo do zakwestionowania zautomatyzowanej decyzji.

W przeciwnym razie bank narusza przepisy o ochronie danych osobowych.

Przykład 3.

Właściciel dużej fabryki w Łodzi planuje zainstalować system kamer wideo zintegrowany z AI, który ma w czasie rzeczywistym analizować twarze i postawy pracowników, aby automatycznie oceniać ich poziom koncentracji i zmęczenia na stanowiskach pracy. 

Czy takie użycie AI jest legalne?

Nie, powyższe działanie jest nielegalne. Taki system narusza bowiem przepisy AI Act, które kategorycznie zakazują systemów sztucznej inteligencji wykorzystujących rozpoznawanie emocji lub biometryczne wnioskowanie o stanach psychicznych w miejscu pracy. Jest to uznane za system niedopuszczalnego ryzyka, który narusza prawa podstawowe, takie jak godność i prywatność. Nawet jeśli celem jest bezpieczeństwo, metoda ta jest prawnie zakazana i fabryce grożą najwyższe kary przewidziane w AI Act.

Przykład 4.

Polski startup buduje innowacyjny model AI do generowania tekstów biznesowych. Do szkolenia modelu wykorzystuje tysiące artykułów z polskiej prasy internetowej. Część wydawców wyraźnie zastrzegła na swoich stronach, że zabrania wykorzystywania ich treści do treningu modeli AI (tzw. mechanizm opt-out). Czy startup może legalnie użyć tych zastrzeżonych artykułów?

Nie, nie może. Choć unijna dyrektywa CDSM zezwala na masowe wydobywanie tekstów i danych (Text and Data Mining – TDM) w celach badawczych lub komercyjnych, prawo to jest ograniczone. Jeżeli właściciel praw autorskich (wydawca) wyraźnie i skutecznie zastrzegł swoje treści przed TDM (poprzez odpowiednie metadane lub jasne warunki), startup nie może ich legalnie wykorzystać do szkolenia swojego modelu. Kontynuowanie treningu na zastrzeżonych treściach stanowi naruszenie praw autorskich wydawców.

Sztuczna inteligencja a RODO

Jeśli system AI przetwarza dane osobowe (np. dane klientów, biometryczne, z rekrutacji), jego użycie musi być w pełni zgodne z unijnym Rozporządzeniem Ogólnym o Ochronie Danych (dalej: RODO). Przetwarzanie danych musi opierać się na jednej z prawnie uznanych podstaw (np. zgoda, uzasadniony interes, wykonanie umowy). Należy stosować minimalizację danych osobowych i w miarę możliwości używać danych zanonimizowanych lub spseudonimizowanych. RODO przyznaje osobom fizycznym prawo do niepodlegania decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, jeżeli wywołuje ona skutki prawne lub istotnie na nią wpływa (Art. 22 RODO). Użycie AI w rekrutacji, ocenie zdolności kredytowej czy profilowaniu musi zapewniać możliwość interwencji ludzkiej i prawo do uzyskania wyjaśnienia. Przy użyciu systemów AI, szczególnie tych wysokiego ryzyka (np. w ochronie zdrowia, monitoringu), często konieczne jest przeprowadzenie szczegółowej analizy ryzyka (DPIA).

Legalne korzystanie z AI wiąże się również z odpowiedzialnością za ewentualne szkody i koniecznością zapewnienia bezpieczeństwa systemów. AI Act nakłada na dostawców systemów wysokiego ryzyka obowiązek zapewnienia wysokiego poziomu solidności, dokładności i bezpieczeństwa cybernetycznego systemów, a także prowadzenia szczegółowej dokumentacji. Ma to na celu minimalizację ryzyka wynikającego z błędnego działania algorytmów. W przypadku, gdy wadliwe działanie AI (np. robota, autonomicznego pojazdu, systemu medycznego) wyrządzi szkodę, zastosowanie mają przepisy prawa cywilnego. Trwają prace nad uregulowaniem odpowiedzialności cywilnej za szkody wyrządzone przez AI, co ma ułatwić dochodzenie roszczeń poszkodowanym.

Podsumowanie

Korzystanie ze sztucznej inteligencji w Polsce jest legalne i stanowi część dynamicznie rozwijającej się gospodarki cyfrowej. Trzeba jednak świadomie i odpowiedzialnie podchodzić do regulacji. Użytkownik musi zidentyfikować, do której kategorii ryzyka należy dany system AI lub narzędzie, którego używa. Pamiętajmy o unikaniu zakazanych systemów z listy wysokiego ryzyka. 

AI jest tylko narzędziem, a więc za finalny rezultat i naruszenia praw autorskich odpowiada człowiek. Przed rozpoczęciem pracy ze sztuczną inteligencją warto sprawdzić regulaminy używanych narzędzi AI, aby wiedzieć, jakie prawa do generowanych treści przysługują samemu użytkownikowi. Jeśli działalność danego człowieka wiąże się z przetwarzaniem danych osobowych przez AI, należy upewnić się, że ma on podstawę prawną do działania z AI, minimalizuje dane i respektuje prawo osób fizycznych do interwencji ludzkiej w zautomatyzowane decyzje.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów