Czym jest cyfrowa godność i jak chroni ją unijny AI Act?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Rozwój sztucznej inteligencji niesie za sobą nowe wyzwania dla ochrony podstawowych praw człowieka. W odpowiedzi na zagrożenia, takie jak technologia deepfake, prawo europejskie wprowadza pojęcie, jakim jest cyfrowa godność. Odnosi się ono do poszanowania jednostki w środowisku informatycznym i w relacjach z systemami AI. Cyfrowa godność łączy konstytucyjną wartość godności człowieka z koniecznością jej ochrony w dobie transformacji cyfrowej, co staje się kluczowe w kontekście manipulacji wizerunkiem.

Deepfake w AI Act a cyfrowa godność

Zgodnie z Ai Act deepfake oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.

Przykład 1.

Firma marketingowa ABC została zatrudniona do promocji kampanii społecznej. W ramach działań stworzono materiał wideo, w którym twarz znanej osoby publicznej – polityka lokalnego samorządu – została cyfrowo wstawiona do nagrania, w którym wypowiada się on o popieraniu określonej inicjatywy. W rzeczywistości polityk nigdy nie wygłaszał takich słów, a materiał został w całości wygenerowany i zmanipulowany przez system AI. Po publikacji w mediach społecznościowych wiele osób uwierzyło, że polityk faktycznie wypowiedział się w ten sposób, co wywołało kontrowersje, a także skutkowało interwencją organów samorządowych i pozwami o naruszenie dóbr osobistych. Zgodnie z definicją AI Act materiał ten jest deepfakiem, ponieważ jest wygenerowany lub zmanipulowany przez AI i przedstawia osobę w sposób, który może wprowadzać odbiorcę w błąd co do autentyczności wypowiedzi. Skutkiem jest naruszenie godności cyfrowej osoby przedstawionej w materiale oraz ryzyko dezinformacji społecznej.

Dynamiczny rozwój technologii deepfake, pozwalającej na tworzenie realistycznych obrazów i nagrań z wykorzystaniem twarzy prawdziwych osób, stanowi jedno z największych zagrożeń dla godności cyfrowej jednostki. W tego rodzaju przypadkach naruszenie godności cyfrowej jest oczywiste – jednostka zostaje pozbawiona kontroli nad własnym wizerunkiem, a jej tożsamość cyfrowa zostaje zmanipulowana w sposób naruszający prywatność, reputację i poczucie bezpieczeństwa.

W takich wypadkach AI Act wskazuje, że powinno się jasno i wyraźnie ujawnić – poprzez odpowiednie oznakowanie wyniku AI i ujawnienie, że źródłem jest AI – że treści te zostały sztucznie wygenerowane lub zmanipulowane.

Spełnienie obowiązku w zakresie przejrzystości nie powinno być interpretowane jako wskazujące na to, że wykorzystanie systemu AI lub jego wyników ogranicza prawo do wolności wypowiedzi i prawo do wolności sztuki i nauki, w szczególności wtedy, gdy treści te stanowią część dzieła lub programu mającego wyraźnie charakter twórczy, satyryczny, artystyczny, fikcyjny lub analogiczny, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich.

W takich przypadkach określony w AI Act obowiązek w zakresie przejrzystości dotyczący treści typu deepfake ogranicza się do ujawniania informacji o istnieniu takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania utworu lub korzystania z niego, w tym jego normalnego wykorzystania i użytkowania, przy jednoczesnym zachowaniu użyteczności i jakości utworu.

Ponadto podobny obowiązek dotyczy również ujawniania w odniesieniu do tekstu wygenerowanego przez AI lub zmanipulowanego przez AI w zakresie, w jakim jest on publikowany w celu informowania opinii publicznej o sprawach leżących w interesie publicznym, chyba że treści wygenerowane przez AI zostały poddane procesowi weryfikacji przez człowieka lub kontroli redakcyjnej, a osoba fizyczna lub prawna ponosi odpowiedzialność redakcyjną za publikację treści.

Przejrzystość na straży gwarancji godności cyfrowej

Zgodnie z AI Act dostawcy mają obowiązek zapewnić, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania.

Obowiązek ten nie ma zastosowania do systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.

Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane.

Dostawcy mają obowiązek zapewnić skuteczność, interoperacyjność, solidność i niezawodność swoich rozwiązań technicznych w zakresie, w jakim jest to technicznie wykonalne, uwzględniając przy tym specyfikę i ograniczenia różnych rodzajów treści, koszty wdrażania oraz powszechnie uznany stan wiedzy technicznej, co może być odzwierciedlone w odpowiednich normach technicznych.

Obowiązek ten nie ma zastosowania w zakresie, w jakim systemy AI pełnią funkcję wspomagającą w zakresie standardowej edycji lub nie zmieniają w istotny sposób przekazywanych przez podmiot stosujący danych wejściowych lub ich semantyki, ani w zakresie, w jakim jest to dozwolone na mocy prawa do celów wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców.

Podmioty stosujące systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania. Obowiązek ten nie ma zastosowania do systemów AI wykorzystywanych do kategoryzacji biometrycznej i rozpoznawania emocji, których wykorzystywanie jest dozwolone z mocy prawa do celów wykrywania przestępstw, przeciwdziałania im i prowadzenia postępowań przygotowawczych w ich sprawach, z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich oraz zgodnie z prawem Unii.

Obowiązki w zakresie przejrzystości w odniesieniu do deepfake

Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, mają obowiązek ujawnić, że treści te zostały sztucznie wygenerowane lub zmanipulowane.

Obowiązek ten nie ma zastosowania, gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców.

W przypadku gdy treść stanowi część pracy lub programu o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze, obowiązki w zakresie przejrzystości określone w niniejszym ustępie ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania lub korzystania z utworu.

Podmioty stosujące system AI, który generuje tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem, mają obowiązek ujawnić, że tekst został sztucznie wygenerowany lub zmanipulowany.

Obowiązek ten nie ma zastosowania wtedy, gdy wykorzystywanie jest dozwolone na mocy prawa w celu wykrywania przestępstw, zapobiegania im, prowadzenia postępowań przygotowawczych w ich sprawie lub ścigania ich sprawców lub w przypadku gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.

Informacje, o których mowa wyżej, są przekazywane zainteresowanym osobom fizycznym w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów