Oznaczanie treści generowanych przez AI – co mówią przepisy?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Rozwój narzędzi sztucznej inteligencji sprawił, że materiały tworzone przez algorytmy stały się powszechne w marketingu, mediach i komunikacji publicznej. W związku z tym rośnie znaczenie debaty prawnej i etycznej, której centralnym punktem jest oznaczanie treści generowanych przez AI. Kwestia informowania odbiorców o pochodzeniu materiałów nabiera kluczowego znaczenia, a odpowiedź na nią nie jest jednoznaczna. Z tego artykułu dowiesz się, jakie obowiązki wynikają z obecnych i przyszłych regulacji.

Pojęcie treści generowanych przez AI i skala zjawiska

Treści generowane przez sztuczną inteligencję obejmują wszelkie materiały stworzone w całości albo w istotnej części przez algorytmy, bez bezpośredniego autorstwa człowieka. Dotyczy to zarówno tekstów, jak i obrazów, nagrań audio, wideo czy modeli trójwymiarowych.

W praktyce wiele materiałów publikowanych w internecie powstaje dziś w modelu hybrydowym – człowiek przygotowuje strukturę, edytuje treść, weryfikuje dane, a narzędzie AI tworzy szkic lub elementy końcowe.

W dyskusji publicznej coraz częściej pojawia się argument, że odbiorcy mają prawo wiedzieć, czy dana treść jest wynikiem pracy człowieka, czy działania algorytmu. Z drugiej strony wskazuje się, że wiele technologii wspomagających tworzenie treści było wykorzystywanych od lat, bez obowiązku ujawniania tego faktu, a sztuczna inteligencja stanowi jedynie kolejne narzędzie.

Oznaczanie treści generowanych przez AI w świetle polskiego prawa

Na gruncie aktualnego prawa polskiego nie istnieje przepis wprowadzający powszechny obowiązek oznaczania wszystkich treści generowanych przez AI.

Nie ma normy, która nakazywałaby dodawanie adnotacji typu „tekst wygenerowany przez sztuczną inteligencję” przy każdym artykule, grafice czy nagraniu.

Nie oznacza to jednak pełnej dowolności. Obowiązki informacyjne mogą wynikać z różnych obszarów prawa, w zależności od charakteru materiału i celu jego publikacji. W szczególności znaczenie mają przepisy dotyczące ochrony konsumentów, reklamy, usług cyfrowych oraz nowych regulacji unijnych odnoszących się bezpośrednio do AI.

Obowiązek przejrzystości w relacjach z konsumentem

Jednym z najbardziej oczywistych przypadków, w których oznaczanie treści generowanych przez AI może być wymagane, są relacje przedsiębiorca–konsument.

Prawo konsumenckie opiera się na zakazie wprowadzania w błąd oraz obowiązku przekazywania informacji w sposób jasny, rzetelny i niewprowadzający odbiorcy w błąd. Jeżeli treść wygenerowana przez AI ma charakter reklamy, rekomendacji produktu lub komunikatu wpływającego na decyzję zakupową, brak ujawnienia jej automatycznego pochodzenia może zostać uznany za praktykę nieuczciwą.

W szczególności dotyczy to sytuacji, w których sztuczna inteligencja generuje opinie, recenzje lub komentarze podszywające się pod autentyczne wypowiedzi użytkowników. Tego rodzaju działania mogą stanowić nieuczciwą praktykę rynkową oraz naruszenie zbiorowych interesów konsumentów.

W praktyce oznaczanie treści AI może być konieczne nie dlatego, że przepisy wprost to nakazują, ale dlatego, że brak oznaczenia może prowadzić do wprowadzenia odbiorców w błąd co do źródła i wiarygodności przekazu.

Dyrektywa NIS2 i cyberbezpieczeństwo a przejrzystość treści

Choć dyrektywa NIS2 koncentruje się przede wszystkim na cyberbezpieczeństwie, w szerszym kontekście regulacyjnym Unia Europejska coraz wyraźniej sygnalizuje potrzebę zwiększenia przejrzystości w przestrzeni cyfrowej. Mechanizmy walki z manipulacją informacyjną oraz ochrona infrastruktury informacyjnej obejmują również kwestie związane z generowaniem treści przez algorytmy.

W praktyce oznacza to, że instytucje publiczne i podmioty kluczowe dla funkcjonowania państwa mogą być zobowiązane do stosowania zasad transparentności w komunikacji, zwłaszcza gdy treści generowane automatycznie mogą wpływać na społeczne bezpieczeństwo informacyjne.

AI Act a obowiązek oznaczania treści

Najważniejszą zmianą w kierunku obowiązkowego oznaczania treści AI jest unijne rozporządzenie AI Act, które wprowadza regulacje dotyczące systemów sztucznej inteligencji, w tym obowiązki transparentności.

AI Act przewiduje, że użytkownicy systemów generatywnych mogą być zobowiązani do ujawniania, że dana treść została wygenerowana lub zmanipulowana przez AI, zwłaszcza jeżeli ma ona charakter deepfake lub może wprowadzać odbiorców w błąd co do jej autentyczności.

Szczególne znaczenie ma obowiązek oznaczania treści syntetycznych w przypadku materiałów audio-wideo przedstawiających osoby, sytuacje lub zdarzenia, które w rzeczywistości nie miały miejsca. Regulacja ta ma ograniczać ryzyko dezinformacji i manipulacji.

Deepfake i treści wrażliwe – szczególna kategoria

W odniesieniu do deepfake’ów, czyli materiałów syntetycznych imitujących realne osoby lub wydarzenia, obowiązek oznaczania jest szczególnie istotny. Nawet jeśli obecnie brak jednolitego przepisu krajowego, to już dziś funkcjonują normy dotyczące ochrony dóbr osobistych, prawa do wizerunku oraz zakazu wprowadzania w błąd.

Jeżeli treść generowana przez AI przedstawia osobę w sposób mogący naruszać jej reputację lub sugerować wypowiedzi, które nie padły, brak oznaczenia może prowadzić do odpowiedzialności cywilnej, a w skrajnych przypadkach także karnej.

Oznaczenie, że materiał jest syntetyczny, może ograniczać ryzyko naruszenia praw osób trzecich i stanowić element staranności po stronie publikującego.

Prawo autorskie a oznaczanie treści generowanych przez AI

Często pojawia się pytanie, czy treści stworzone przez sztuczną inteligencję w ogóle podlegają ochronie prawnoautorskiej, a jeśli tak, to kto jest ich twórcą.

W prawie polskim utwór to przejaw działalności twórczej człowieka. Materiały wygenerowane w pełni automatycznie mogą nie spełniać tej przesłanki, co oznacza, że nie zawsze będzie możliwe przypisanie im statusu utworu.

Choć prawo autorskie nie nakłada obowiązku oznaczania, to kwestie transparentności mogą wynikać z umów licencyjnych, regulaminów platform lub standardów branżowych.

Regulacje platform internetowych i obowiązki regulaminowe

Niezależnie od przepisów prawa państwowego wiele obowiązków oznaczania treści generowanych przez AI wynika już dziś z regulaminów platform internetowych. Serwisy społecznościowe, platformy wideo czy portale reklamowe coraz częściej wymagają oznaczania materiałów syntetycznych, zwłaszcza w kontekście reklam politycznych i treści mogących wprowadzać odbiorców w błąd.

Oznacza to, że nawet jeżeli prawo nie nakazuje tego wprost, użytkownik może być zobowiązany do takiej transparentności na podstawie warunków korzystania z danej usługi.

Przykład 1.

Firma zajmująca się sprzedażą suplementów diety publikuje na swojej stronie serię artykułów blogowych opisujących korzyści wynikające ze stosowania jej produktów. Teksty zostały w całości wygenerowane przez system AI, a następnie opublikowane bez weryfikacji merytorycznej i bez informacji o ich pochodzeniu. W jednym z artykułów pojawia się sugestia, że produkt może wspomagać leczenie chorób przewlekłych, co wprowadza odbiorców w błąd. Konsument podejmuje decyzję zakupową w przekonaniu, że tekst został przygotowany przez ekspertów. W takiej sytuacji brak oznaczenia udziału AI oraz brak odpowiedniej kontroli treści może skutkować odpowiedzialnością przedsiębiorcy z tytułu nieuczciwych praktyk rynkowych oraz naruszenia obowiązków informacyjnych wobec konsumentów. Oznaczenie treści jako wygenerowanej automatycznie nie zwalniałoby z odpowiedzialności, ale mogłoby ograniczyć ryzyko wprowadzenia odbiorcy w błąd co do autorytatywnego charakteru przekazu.

Transparentność jako kierunek zmian

Choć obecnie nie istnieje uniwersalny obowiązek oznaczania wszystkich treści generowanych przez AI, wyraźnie widać kierunek zmian regulacyjnych. Zarówno AI Act, jak i praktyki rynkowe platform internetowych zmierzają ku standardowi, zgodnie z którym odbiorca powinien mieć możliwość rozpoznania, czy ma do czynienia z treścią syntetyczną.

W wielu branżach, zwłaszcza w mediach, reklamie i usługach publicznych, oznaczanie treści AI staje się elementem budowania zaufania i wiarygodności.

Z perspektywy przedsiębiorców oznacza to konieczność przygotowania polityk wewnętrznych dotyczących korzystania z AI, w tym zasad oznaczania i weryfikacji treści, aby uniknąć zarzutów wprowadzania w błąd.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów