Tło strzałki Strzałka
0 0
dni
0 0
godz
0 0
min
0 0
sek

Sztuczna inteligencja a przedsiębiorcy - kto ponosi odpowiedzialność?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Sztuczna inteligencja coraz powszechniej wkracza w obszary działalności gospodarczej – wspiera procesy analityczne, automatyzuje obsługę klienta, a nawet uczestniczy w tworzeniu treści marketingowych i produktów. Choć jej zastosowanie niesie ze sobą wiele korzyści, wiąże się również z pewnymi wyzwaniami prawnymi, które mogą mieć poważne konsekwencje dla przedsiębiorców. Omawiamy aspekty prawne oraz ryzyko związane z wykorzystywaniem sztucznej inteligencji w działalności gospodarczej.

Kwestia odpowiedzialności za błędy, ochrona danych osobowych, naruszenia praw autorskich, czy też zgodność z regulacjami – to tylko niektóre aspekty, które powinny być uwzględnione przy wdrażaniu rozwiązań opartych na AI. 

Sztuczna inteligencja a odpowiedzialność za prowadzone działania

Jednym z kluczowych problemów prawnych związanych z wykorzystywaniem sztucznej inteligencji w biznesie jest kwestia odpowiedzialności za skutki jej działania. W polskim porządku prawnym nie istnieje jeszcze odrębna kategoria „podmiotu AI”, co oznacza, że to przedsiębiorca, jako użytkownik lub właściciel systemu sztucznej inteligencji, ponosi pełna odpowiedzialność za decyzję podejmowane z jego wykorzystaniem. 

W związku z brakiem podmiotowości prawnej sztucznej inteligencji, pełną odpowiedzialność za naruszenia dokonane przez AI ponosi osoba lub podmiot, który zarządza takim systemem, niezależenie od tego na ile autonomiczny jest algorytm. Przykładowo, jeżeli system AI służy do weryfikacji klientów i dokona błędnej oceny, przez co doprowadzi do nieuzasadnionej odmowy usługi, odpowiedzialność za ten błąd poniesie przedsiębiorca. 

Przedsiębiorca korzystający z AI podczas produkcji lub przy wykonywaniu usług może narazić się nawet na odpowiedzialność kontraktową, na przykład w przypadku jeżeli błąd w działaniu sztucznej inteligencji doprowadzi do niewykonania umowy z kontrahentami. 

Problem potęguje fakt, że wiele systemów opartych na sztucznej inteligencji działa
w sposób nieprzejrzysty, co dodatkowo utrudnia zrozumienie, na jakiej postawie podejmowana była konkretna decyzja. W razie sporu to przedsiębiorca musi wykazać, że dołożył należytej staranności w nadzorze nad technologią. 

Aby zminimalizować ryzyko, zaleca się dokumentowanie zasad działania systemu, wdrożenie procedur nadzoru oraz przeprowadzanie regularnej kontroli działania AI, zwłaszcza w obszarach gdzie ryzyko naruszeń jest zwiększone. 

Sztuczna inteligencja a ryzyko naruszeń praw autorskich i własności intelektualnej

Systemy sztucznej inteligencji często są wykorzystywane do generowania treści – tekstów, grafiki, video, czy też kodów źródłowych. Choć narzędzia te zwiększają efektywność przedsiębiorstw oraz pozwalają na pewne oszczędności, ich wykorzystanie niesie poważne ryzyko naruszenia cudzych praw autorskich. 

Obecnie polskie prawo, podobnie jak większość systemów prawnych na świecie nie przyznaje ochrony utworom wytworzonym wyłącznie przez AI, ponieważ twórcą w świetle prawa może być wyłącznie człowiek. Oznacza to, że np. grafika wygenerowana przez algorytm nie podlega ochronie, a przedsiębiorca nie nabywa automatycznie prawa wyłącznego do jej wykorzystywania. 

Wiele systemów AI opiera swoje działanie na ogromnych zbiorach danych, które mogą zawierać materiały objęte ochroną np. fragmenty książek, zdjęcia z internetu, kody programów. Jeżeli system wygeneruje treść która zawiera istotne elementy cudzych utworów, może dojść do naruszenia. 

Na tej samej zasadzie może dojść również do naruszenia znaków towarowych lub wzorów przemysłowych. AI tworząc np. projekty graficzne opiera się a już istniejących schematach i może odtworzyć chronione logo lub charakterystyczne elementy designu.

Nawet jeżeli do naruszenia dojdzie w sposób niezamierzony i przy wykorzystaniu ogólnodostępnego narzędzia AI, odpowiedzialność spadnie na przedsiębiorcę, który wprowadził taka treść do obrotu gospodarczego lub użył jej komercyjnie.

Ochrona danych osobowych, a przetwarzanie informacji przez algorytm AI

Wykorzystanie AI do prowadzenia działalności gospodarczej często wiąże się
z przetwarzaniem danych osobowych. Może to dotyczyć np. analizy trendów zakupowych, automatyzacji procesów rekrutacyjnych, personalizacji ofert, a nawet przetwarzania monitoringu. W takich przypadkach przedsiębiorca nadal musi spełniać szereg obowiązków wynikających z RODO oraz ustawy o ochronie danych osobowych. 

Informacje wprowadzane do systemu mogą być bezpośrednio danymi osobowymi, ale też dotyczyć osoby w sposób pośredni np. poprzez identyfikatory, historię aktywności lub lokalizację, jeśli dane te pozwalają na identyfikację osoby, są objęte ochroną. 

W przypadku przetwarzania danych za pomocą systemów sztucznej inteligencji, które wiąże się z wysokim ryzykiem naruszenia praw i wolności osób, administrator ma obowiązek przeprowadzić ocenę skutków dla ochrony danych. Ta analiza pozwoli zidentyfikować i zminimalizować ryzyka związane z przetwarzaniem. 

Należy również pamiętać, że wszelkie dane wprowadzone do systemów AI są przez nie przetwarzane i pozostają zapisane w bazie danych, a sam algorytm wykorzystuję zgromadzone informacje do dalszego działania. Należy więc zachować szczególną ostrożność przy wprowadzaniu danych, zawłaszcza do ogólnodostępnych systemów AI.

Systemy AI powinny być projektowane w taki sposób, aby uwzględniać ochronę prywatności od samego początku. Przedsiębiorca również powinien zapewnić odpowiednie środki bezpieczeństwa np. szyfrowanie lub kontrola dostępu do danych. 

Nadchodzące obowiązki wynikające z unijnego AI Act

W kwietniu 2024 r. Parlament Europejski przyjął Akt o sztucznej inteligencji, pierwsze na świecie kompleksowe rozporządzenie regulujące wieloobszarowe wykorzystywanie sztucznej inteligencji. Choć pełne zastosowanie przepisów nastąpi stopniowo, w większości od 2026 roku, już teraz przedsiębiorcy powinni przygotować się na zamiany, szczególnie jeżeli wykorzystują AI w obszarach podwyższonego ryzyka. 

AI Act klasyfikuje systemy sztucznej inteligencji na cztery kategorie:

  • Niedozwolone 
    • Na przykład systemy manipulujące zachowaniem lub oceniające obywateli na postawie punktacji społecznej.
  • Wysokiego ryzyka
    • AI stosowana w rekrutacji, edukacji, służbie zdrowia, czy też w usługach finansowych.
  • Ograniczonego ryzyka
    • Na przykład chatboty.
  • Minimalnego ryzyka 
    • Większość systemów codziennego użytku takich jak systemy automatycznej rekomendacji. 

Nowe regulacje wprowadzają również pewne obowiązki nakładane na użytkowników systemów wysokiego ryzyka. Jeśli przedsiębiorca korzysta z AI zakwalifikowanej jako system wysokiego ryzyka, będzie zobowiązany do zapewnienia nadzoru człowieka nad funkcjonowaniem sztucznej inteligencji, prowadzenia dokumentacji i rejestrów działania AI, przeprowadzenia oceny zgodności i wdrożenia systemów zarządzania ryzykiem, a także do zapewnienia przejrzystości działania algorytmu. 

W wielu przypadkach konieczne będzie również informowanie użytkowników, że mają do czynienia z treścią stworzoną lub wspieraną przez sztuczną inteligencję. Obowiązek ten może dotyczyć np. reklam, materiałów marketingowych lub urządzeń automatycznej obsługi klienta. 

AI Act przewiduje wysokie kary za nieprzestrzeganie wprowadzonych regulacji, zwłaszcza w przypadku poważnych naruszeń.

Pomimo, że regulacja jeszcze nie funkcjonują w pełni to przedsiębiorcy wykorzystujący AI do prowadzenia działalności gospodarczej lub ci którzy planują jej wykorzystywanie w przyszłości powinni już teraz przeprowadzić szereg działań mających na celu zmniejszenie naruszeń. Identyfikacja systemów AI wykorzystywanych w firmie oraz przeprowadzenie ich kontroli pozwoli na ocenę ryzyka związanego z ich funkcjonowaniem. Kluczowe jest również wstępne przygotowanie dokumentacji i procedur zgodnych z nadchodzącymi regulacjami. 

W każdym przypadku wykorzystywania AI warto zgłębić temat, a nawet skonsultować się ze specjalistami z zakresu prawa nowych technologii. 

Wdrażanie sztucznej inteligencji w biznesie otwiera nowe możliwości, ale równocześnie wiąże się z istotnym ryzykiem. Przedsiębiorcy musza być świadomi, że odpowiedzialność za skutki działania AI ciąży na nich, niezależnie od poziomu automatyzacji systemu. Równie ważne jest monitorowanie legalności przetwarzania danych oraz źródeł treści generowanych przez algorytmy. Nowe unijne regulacje, wprowadzą nowe obowiązki zwłaszcza dla firm korzystających z narzędzi wysokiego ryzyka. Kluczowe staję więc nie tylko bieżące dostosowywanie do norm, ale i strategiczne podejście do zarządzania technologią w sposób odpowiedzialny, przejrzysty i zgodny z zasadami. 

Podstawy prawne: 

  • Ustawa z dnia 4 lutego 2025 r. o prawie autorskim i prawach pokrewnych (Dz. U. z 2025 poz. 24;
  • Ustawa z dnia 30 czerwca 2000 r. Prawo własności przemysłowej (Dz. U. z 2023 poz. 1170);
  • Ustawa z dnia 10 maja 2018 r. o ochronie danych osobowych (Dz. U. z 2019 poz. 1781);
  • Rozporządzenie Parlamentu Europejskiego i Rady UE 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych i w sprawie swobodnego przepływu danych osobowych; 
  • Rozporządzenie (UE) 2024/1689 ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji.

Materiał opracowany przez zespół „Tak Prawnik”.
Właścicielem marki „Tak Prawnik” jest BZ Group Sp. z o.o.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów