Czy istnieje obowiązek nauki i korzystania z AI w pracy?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Sztuczna inteligencja (AI) przestała być futurystyczną wizją, a stała się realnym narzędziem, które z impetem wkracza do polskich przedsiębiorstw. Automatyzacja procesów, zaawansowana analiza danych czy generowanie treści to tylko niektóre z jej zastosowań obiecujących rewolucję w sposobie wykonywania pracy. Wraz z tą technologiczną transformacją pojawia się jednak fundamentalne pytanie, które nurtuje zarówno pracodawców, jak i pracowników: czy przełożony ma prawo narzucić swojemu zespołowi obowiązek nauki i korzystania z AI? Ta kwestia, balansująca na granicy uprawnień zarządczych i praw pracowniczych, nabiera szczególnego znaczenia w kontekście nowo wdrożonego unijnego Rozporządzenia o Sztucznej Inteligencji (AI Act) oraz niezmiennych od lat fundamentów polskiego Kodeksu pracy.

Relacja pracodawca – pracownik w świetle Kodeksu pracy

Podstawowym dokumentem regulującym wzajemne prawa i obowiązki w stosunkach pracy jest Kodeks pracy. Zgodnie z jego art. 100 każdy pracownik jest zobowiązany do wykonywania swojej pracy w sposób sumienny i staranny, a także do stosowania się do poleceń przełożonych, o ile nie są one sprzeczne z przepisami prawa lub umową o pracę. W tym kontekście polecenie dotyczące wdrożenia do codziennych obowiązków nowego narzędzia, jakim jest system AI, na pierwszy rzut oka wydaje się mieścić w ramach standardowych uprawnień pracodawcy. Pracownik ma bowiem obowiązek dbać o dobro zakładu pracy i chronić jego mienie, a efektywne wykorzystanie nowoczesnych technologii może być postrzegane jako kluczowy element tej dbałości. Z perspektywy pracodawcy dążenie do optymalizacji, innowacji i utrzymania konkurencyjności na dynamicznym rynku jest nie tylko prawem, lecz także obowiązkiem. Wprowadzenie narzędzi AI do analizy rynku, automatyzacji marketingu czy zarządzania logistyką nie jest celem samym w sobie, lecz środkiem do osiągnięcia konkretnych celów biznesowych. Pracodawca ma zatem prawo oczekiwać, że jego zespół będzie adaptował się do zmieniających się warunków i narzędzi pracy, które są niezbędne do realizacji strategii firmy.

Z drugiej strony art. 94 Kodeksu pracy nakłada na pracodawcę szereg obowiązków, wśród których znajduje się powinność ułatwiania pracownikom podnoszenia kwalifikacji zawodowych. Słowo „ułatwianie” jest tu kluczowe – sugeruje ono rolę wspierającą, a nie przymuszającą. Kodeks pracy chroni bowiem zasadę dobrowolności w zakresie rozwoju zawodowego, który wykracza poza ścisłe ramy danego stanowiska. Pracownik musi wyrazić chęć i zgodę na podnoszenie swoich kwalifikacji. Pracodawca może, a nawet powinien, zachęcać do tego poprzez finansowanie kursów, studiów podyplomowych czy specjalistycznych szkoleń, zawierając w tym celu umowę szkoleniową. Nie może jednak zmusić pracownika do nauki, jeśli ten nie widzi takiej potrzeby lub nie wyraża na to zgody. Ta zasada stanowi fundament autonomii pracownika w kształtowaniu własnej ścieżki kariery. 

Warto również zrozumieć obawy, jakie mogą towarzyszyć pracownikom – strach przed utratą pracy na rzecz automatyzacji, poczucie bycia nieustannie ocenianym przez algorytmy czy stres związany z koniecznością ciągłego przyswajania nowej, skomplikowanej wiedzy. Narzucanie obowiązku nauki bez dialogu i wsparcia może prowadzić do oporu, spadku motywacji i poczucia zagrożenia, co w ostatecznym rozrachunku jest szkodliwe dla całej organizacji.

Obowiązek nauki i korzystania z AI a szkolenia dobrowolne – gdzie leży granica?

Rozróżnienie między szkoleniami dobrowolnymi a obowiązkowymi ma w kontekście wdrażania AI kluczowe znaczenie. O ile pracodawca nie może zmusić pracownika do udziału w szkoleniu, które jedynie podnosi jego ogólne kwalifikacje, o tyle sytuacja zmienia się diametralnie, gdy szkolenie staje się niezbędne do prawidłowego wykonywania pracy na danym stanowisku. Nowelizacja Kodeksu pracy, która wprowadziła art. 94¹³, precyzuje, że jeżeli obowiązek przeprowadzenia szkoleń wynika z postanowień układu zbiorowego, regulaminu, przepisów prawa, umowy o pracę lub bezpośredniego polecenia przełożonego, to takie szkolenie ma charakter obligatoryjny. Co więcej, musi ono odbyć się na koszt pracodawcy i, w miarę możliwości, w godzinach pracy. Jeśli więc korzystanie z określonego systemu AI staje się integralną częścią stanowiska pracy – na przykład analityk danych musi posługiwać się platformą AI do prognozowania trendów rynkowych, a specjalista ds. obsługi klienta korzysta z inteligentnego chatbota do rozwiązywania zapytań – to szkolenie z obsługi tych narzędzi przestaje być opcjonalne. Staje się ono warunkiem koniecznym do wypełniania podstawowych obowiązków służbowych, podobnie jak szkolenie z obsługi nowego programu księgowego dla księgowej czy szkolenie BHP dla pracownika produkcji.

Potwierdza to orzecznictwo sądowe. Choć dotyczy ono głównie szkoleń z zakresu bezpieczeństwa i higieny pracy, jego logika może być z powodzeniem zastosowana do nowych technologii. Sądy wielokrotnie uznawały, że nieuzasadniona odmowa udziału w niezbędnym szkoleniu może stanowić podstawę do wypowiedzenia umowy o pracę (np. Wyrok Sądu Okręgowego w Świdnicy, VII Pa 78/16). 

Kluczowe jest tu słowo „niezbędne”. Pracodawca musi być w stanie wykazać bezpośredni związek między proponowanym szkoleniem a zdolnością pracownika do wykonywania powierzonych mu zadań w sposób efektywny, bezpieczny i zgodny z obowiązującymi w firmie standardami. Jeżeli wprowadza nowy, oparty na AI system CRM dla całego działu sprzedaży, to szkolenie z jego obsługi nie jest już propozycją rozwoju, lecz warunkiem utrzymania zdolności do pracy na tym stanowisku. Jeśli pracownik bezpodstawnie odmawia przyswojenia tej wiedzy, pracodawca zyskuje solidne podstawy do podjęcia kroków dyscyplinarnych, włączając w to rozwiązanie stosunku pracy z powodu utraty przez pracownika kwalifikacji wymaganych na zajmowanym stanowisku.

AI Act a obowiązek nauki i korzystania z AI – nowe kompetencje (AI Literacy)

Sytuację prawną komplikuje, a zarazem wyjaśnia, unijne Rozporządzenie o Sztucznej Inteligencji, znane jako AI Act, które weszło w życie 1 sierpnia 2024 roku i będzie wdrażane etapami. Już od 2 lutego 2025 roku zaczął obowiązywać art. 4 wprowadzający fundamentalny obowiązek zapewnienia tzw. AI Literacy, czyli kompetencji w zakresie sztucznej inteligencji. Obowiązek ten spoczywa na dostawcach oraz podmiotach stosujących systemy AI i dotyczy zarówno ich własnego personelu, jak i osób trzecich działających w ich imieniu. AI Act nie definiuje tego obowiązku jako jednorazowego szkolenia, ale jako cel do osiągnięcia. Oznacza to, że pracodawcy będą musieli wdrożyć systematyczne i długofalowe programy budowania wiedzy i umiejętności w swoich organizacjach, aby zapewnić, że technologia jest używana w sposób świadomy i odpowiedzialny.

Zakres AI Literacy jest szeroki i obejmuje nie tylko techniczną wiedzę na temat działania systemów AI. Pracownicy muszą również mieć świadomość ryzyka związanego z ich wykorzystaniem, takiego jak dyskryminacja algorytmiczna w procesach rekrutacyjnych, naruszenie prywatności poprzez analizę danych czy generowanie wprowadzających w błąd informacji (tzw. halucynacji). Muszą znać wymogi prawne dotyczące AI, w tym zasady ochrony danych osobowych (RODO), oraz posiadać umiejętności praktyczne i etyczne pozwalające na odpowiedzialne korzystanie z tych potężnych narzędzi. 

W praktyce oznacza to, że pracodawca nie tylko może, ale wręcz musi zorganizować szkolenia, które zapewnią osiągnięcie tego wymaganego przez prawo poziomu kompetencji. Obowiązek ten, wynikający wprost z przepisów prawa unijnego, staje się zatem podstawą do wydawania pracownikom wiążących poleceń dotyczących udziału w szkoleniach z zakresu AI. Nie chodzi tu już o dobrowolne podnoszenie kwalifikacji, ale o wypełnienie prawnie nałożonego obowiązku, którego zaniechanie może narazić firmę na dotkliwe sankcje.

Ryzyko i odpowiedzialność – dlaczego pracodawca musi kontrolować AI?

Argumentem przemawiającym za wprowadzeniem obowiązkowych szkoleń i wewnętrznych regulacji jest kwestia odpowiedzialności prawnej. Pozostawienie pracownikom pełnej swobody w korzystaniu z narzędzi AI, zwłaszcza tych dostępnych publicznie, generuje poważne ryzyka dla przedsiębiorstwa. Pracownik, który w dobrej wierze wprowadza do zewnętrznego, darmowego systemu AI dane klientów w celu ich podsumowania, może nieświadomie doprowadzić do poważnego naruszenia RODO, gdyż dane te mogą być wykorzystane do trenowania modelu i stać się publicznie dostępne. Podobnie przekazanie systemowi AI poufnych informacji handlowych, strategii marketingowych czy danych finansowych w celu ich analizy lub przetworzenia, może skutkować ujawnieniem tajemnicy przedsiębiorstwa. Brak kontroli nad tym, jak zewnętrzne narzędzia przetwarzają i przechowują te dane, stanowi ogromne zagrożenie dla bezpieczeństwa i pozycji konkurencyjnej firmy.

Kolejnym polem ryzyka jest naruszenie praw autorskich. Systemy AI, generując teksty, grafiki czy kod, bazują na ogromnych zbiorach danych, które mogą zawierać utwory chronione prawem. Wykorzystanie przez pracownika tak wygenerowanego materiału w działalności gospodarczej firmy – np. grafiki w kampanii marketingowej – może narazić pracodawcę na roszczenia ze strony prawowitych twórców. Zgodnie z art. 117 Kodeksu pracy, to pracodawca ponosi odpowiedzialność wobec osób trzecich za szkody wyrządzone przez pracownika przy wykonywaniu obowiązków służbowych. 

Choć pracodawca może dochodzić od pracownika regresu, jego odpowiedzialność materialna (w przypadku winy nieumyślnej) jest ograniczona do wysokości 3-miesięcznego wynagrodzenia. To pokazuje, że ryzyko finansowe związane z niekontrolowanym użyciem AI w przeważającej mierze obciąża firmę. Dlatego w żywotnym interesie każdego pracodawcy leży nie tylko wdrożenie jasnych procedur, lecz także upewnienie się, że pracownicy rozumieją związane z tym zagrożenia i potrafią ich unikać. Inwestycja w szkolenia staje się więc formą zarządzania ryzykiem.

Systemy wysokiego ryzyka i nowe obowiązki od 2025 roku

AI Act wprowadza szczególną kategorię systemów AI, określanych jako systemy wysokiego ryzyka. Od 2 sierpnia 2025 roku zaczęły obowiązywać przepisy, które mają bezpośredni wpływ na działy HR. Do systemów wysokiego ryzyka zaliczono bowiem narzędzia wykorzystywane do rekrutacji i selekcji kandydatów (np. do automatycznego filtrowania CV), oceny i promocji pracowników, a także do monitorowania ich pracy i zachowania. Pracodawcy korzystający z takich systemów muszą sprostać szeregowi rygorystycznych wymogów. Należą do nich między innymi zapewnienie stałego i skutecznego nadzoru ludzkiego nad działaniem systemu, co oznacza, że ostateczna decyzja np. o zatrudnieniu czy zwolnieniu nie może być w pełni zautomatyzowana. Wymagane jest również prowadzenie szczegółowego rejestru zdarzeń oraz obowiązek informowania pracowników o fakcie, że podlegają oni działaniu takiego systemu, co wymaga dużej transparentności w komunikacji wewnętrznej.

Co najważniejsze w kontekście naszych rozważań, AI Act wprost nakłada na pracodawców stosujących systemy wysokiego ryzyka obowiązek przeszkolenia personelu, który będzie z nich korzystał. Szkolenie to musi obejmować zarówno techniczną obsługę, jak i głębokie zrozumienie możliwości i ograniczeń systemu oraz umiejętność krytycznej interpretacji jego wyników. Pracownik HR musi wiedzieć, na jakich danych system został wytrenowany i jakie potencjalne uprzedzenia może powielać. Biorąc pod uwagę drakońskie kary finansowe za naruszenie przepisów AI Act, sięgające nawet 35 milionów euro lub 7% globalnego rocznego obrotu, żadne przedsiębiorstwo nie będzie mogło sobie pozwolić na zignorowanie tych obowiązków. W tym przypadku dyskusja o dobrowolności szkoleń jest bezprzedmiotowa – stają się one prawnym i biznesowym imperatywem, kluczowym elementem zapewnienia zgodności i etycznego zarządzania personelem.

Podsumowanie

Odpowiadając na pytanie tytułowe, pracodawca nie może zmusić pracownika do ogólnego podnoszenia kwalifikacji w zakresie sztucznej inteligencji, jeśli wykracza to poza jego aktualne obowiązki i stanowi jedynie inwestycję w jego przyszły, ogólny rozwój. Zasada dobrowolności, chroniona przez Kodeks pracy, pozostaje w mocy. Jednak pracodawca ma pełne prawo, a w świetle nadchodzących przepisów wręcz obowiązek, wprowadzić obligatoryjne szkolenia i wymagać korzystania z narzędzi AI, jeżeli jest to niezbędne do prawidłowego, bezpiecznego i zgodnego z prawem wykonywania pracy na danym stanowisku. Granica między dobrowolnością a obowiązkiem jest więc płynna i zależy od tego, czy dana umiejętność staje się częścią kanonu wymagań na konkretnym stanowisku pracy.

Podstawą do nałożenia takiego obowiązku może być przepis prawa, a konkretnie obowiązek zapewnienia AI Literacy wynikający z art. 4 AI Act, który dotyczy wszystkich firm stosujących AI. Może to być również wewnętrzny regulamin pracy, który w sposób wiążący określa zasady korzystania z nowych technologii, lub po prostu polecenie służbowe, które mieści się w granicach uprawnień pracodawcy i dotyczy bieżących zadań pracownika. W praktyce oznacza to, że przedsiębiorcy powinni już dziś podjąć aktywne działania. Kluczowe jest opracowanie i wdrożenie wewnętrznej polityki korzystania z AI, która określi dozwolone narzędzia, zasady ochrony danych i tajemnic firmowych oraz odpowiedzialność za naruszenia. Równolegle należy zaplanować i przeprowadzić systematyczne programy szkoleniowe, które nie tylko nauczą pracowników obsługi konkretnych aplikacji, lecz przede wszystkim zbudują w nich świadomość ryzyk i kompetencje niezbędne do odpowiedzialnego poruszania się w nowej, cyfrowej rzeczywistości. W perspektywie najbliższych lat, umiejętność korzystania z AI przestanie być atutem, a stanie się podstawową kompetencją, równie oczywistą jak dziś obsługa komputera czy pakietu biurowego.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów