Polska polityka rozwoju sztucznej inteligencji w kontekście europejskiego reżimu regulacyjnego – omawiamy uwarunkowania, założenia i kierunki aktualizacji.
Sztuczna inteligencja (AI) stała się jednym z kluczowych obszarów transformacji technologicznej współczesnych państw oraz jednym z głównych czynników kształtujących nowe modele zarządzania publicznego, gospodarki cyfrowej i bezpieczeństwa narodowego. Jej rozwój, przyspieszony zwłaszcza przez postępy w modelach generatywnych i systemach uczenia głębokiego, wymaga stworzenia zintegrowanego podejścia regulacyjnego, które równoważy wsparcie dla innowacji z koniecznością ochrony interesu publicznego. W odpowiedzi na te wyzwania Unia Europejska przyjęła pierwszy na świecie kompleksowy akt prawny dotyczący sztucznej inteligencji- Rozporządzenie 2024/1689 (AI Act), którego wdrożenie wywołało konieczność rewizji krajowych dokumentów strategicznych państw członkowskich.
Jej znaczenie wykracza poza klasyczne planowanie polityk publicznych - w praktyce pełni funkcję instrumentu dostosowującego krajowy system prawny, system nadzoru rynkowego oraz sektor publiczny do nowej architektury regulacyjnej UE. Celem niniejszego opracowania jest analiza przesłanek aktualizacji Polityki AI, omówienie jej kluczowych założeń oraz ocena ich zgodności z europejskim modelem zarządzania sztuczną inteligencją.
Determinanty aktualizacji krajowej strategii AI
W ostatnich latach sztuczna inteligencja stała się technologią, której zastosowania wykroczyły poza wąskie, specjalistyczne domeny. W Polsce obserwuje się rosnące wykorzystanie AI w obszarze diagnostyki medycznej, przewidywania zapotrzebowania na energię, analizy ryzyk krytycznych dla infrastruktury państwowej, zarządzania ruchem drogowym czy świadczenia usług administracyjnych. Wykorzystanie algorytmów do podejmowania decyzji, często mających istotne skutki społeczne, wymaga określenia odpowiednich zasad audytowalności, odpowiedzialności oraz nadzoru.
Co więcej, pojawienie się modeli generatywnych i multimodalnych, zdolnych do analizy tekstów, obrazów, dźwięku i danych numerycznych równocześnie, zrewolucjonizowało sposób tworzenia treści i realizacji zadań administracyjnych. Wzmacnia to potrzebę ustalenia jasnych wytycznych dla administracji, dotyczących dopuszczalnych zastosowań, przejrzystości algorytmicznej czy minimalizowania ryzyka tzw. halucynacji AI.
Europejizacja regulacji – wpływ AI Act
Przyjęcie AI Act stanowi punkt zwrotny w europejskiej polityce technologicznej. Jest to pierwszy na świecie akt prawny o tak szerokim zakresie, obejmujący cały cykl życia systemów AI- od projektowania i trenowania po wdrożenie, monitorowanie i aktualizacje. Ustawa nakłada na państwa członkowskie obowiązki w zakresie utworzenia organów nadzoru, opracowania procedur zgłaszania naruszeń, prowadzenia rejestrów systemów wysokiego ryzyka i koordynacji działań z European AI Office.
W konsekwencji dotychczasowe dokumenty strategiczne Polski stały się niewystarczające, gdyż nie przewidywały tak złożonej architektury nadzorczej ani nowych wymogów stawianych sektorowi publicznemu i prywatnemu.
Konieczność spójności z krajową transformacją cyfrową
Aktualizacja strategii AI została również wymuszona zmianami w krajowych politykach związanych z cyfryzacją. „Strategia Cyfryzacji Polski do 2035 r.” po raz pierwszy uznała AI za technologię o znaczeniu fundamentalnym dla zapewnienia suwerenności cyfrowej i bezpieczeństwa państwa. Obejmuje to także inwestycje w krajową infrastrukturę obliczeniową, rozwój kompetencji cyfrowych oraz standaryzację usług publicznych.
Ten filar dotyczy nie tylko zwiększania liczby specjalistów AI, ale także kształcenia ekspertów zdolnych do nadzorowania, audytowania i certyfikowania systemów zgodnie z europejskimi normami. Administracja publiczna będzie musiała wypracować nowe kompetencje w dziedzinie analizy algorytmów, interpretowalności modeli oraz oceny ryzyka.
Znaczącym elementem jest również rozwój edukacji na poziomie wyższym i zawodowym, w tym tworzenie programów podyplomowych z zakresu AI governance, analityki danych i prawa nowych technologii.
Strategia podkreśla konieczność intensyfikacji współpracy pomiędzy jednostkami naukowymi a przedsiębiorstwami, co ma prowadzić do rozwoju innowacyjnych rozwiązań AI zgodnych z zasadami ethical by design, compliance by design oraz, responsibility by design. Szczególną rolę odgrywają tu tzw. regulatory sandboxes, które pozwalają testować nowe modele i algorytmy w warunkach nadzorowanej swobody regulacyjnej.
W tym filarze szczególną rolę przypisuje się budowie superkomputerów narodowych, centrów przetwarzania danych i tzw. fabryk AI. Infrastruktura ta ma umożliwić nie tylko rozwój krajowych modeli językowych czy predykcyjnych, ale również zagwarantować zdolność państwa do przetwarzania strategicznych danych bez uzależnienia od komercyjnych podmiotów zagranicznych.
Inwestycje muszą spełniać wymogi cyberbezpieczeństwa oraz interoperacyjności określone przez europejskie normy techniczne.
Szeroka gama planowanych wdrożeń obejmuje administrację publiczną, system ochrony zdrowia, edukację, bezpieczeństwo wewnętrzne, energetykę oraz infrastrukturę dużych miast. W przypadku systemów wysokiego ryzyka kluczowe jest zapewnienie zgodności z AI Act w tym obowiązku dokumentowania procesu trenowania modelu, testów, audytów i oceny wpływu społecznego.
Nowe priorytety strategiczne po aktualizacji
Strategia zakłada stworzenie wielopoziomowego systemu monitorowania, obejmującego:
- wskaźniki jakości wdrożeń,
- stopień zgodności z regulacjami,
- efektywność inwestycji,
- wpływ społeczny wdrażanych technologii.
Mechanizm ten ma umożliwić korektę działań i adaptację polityki w reakcji na dynamiczne zmiany technologiczne.
W Polityce AI pojawia się wyraźne powiązanie technologii sztucznej inteligencji z bezpieczeństwem państwa. Systemy predykcyjne i analizujące duże zbiory danych odgrywają coraz większą rolę w wykrywaniu zagrożeń, prognozowaniu incydentów oraz zarządzaniu infrastrukturą krytyczną.
AI staje się narzędziem wzmacniającym odporność państwa, co uzasadnia inwestycje w infrastrukturę oraz konieczność ustanowienia surowych standardów bezpieczeństwa.
Nowością jest nadanie priorytetu pełnej zgodności krajowych działań z AI Act. Obejmuje to obowiązek:
- ustanowienia krajowego regulatora,
- powołania jednostek certyfikujących,
- stworzenia rejestrów systemów AI,
- zapewnienia kanałów zgłaszania naruszeń.
Jest to fundamentalna zmiana w stosunku do poprzedniej wersji strategii, która miała charakter bardziej kierunkowy niż implementacyjny.
Strategia wzmacnia znaczenie etycznych aspektów stosowania AI, obejmujących:
- ochronę przed dyskryminacją algorytmiczną,
- transparentność modeli,
- prawo do wyjaśnienia,
- audyt algorytmiczny w sektorze publicznym,
- odpowiedzialność cywilną za decyzje wspomagane przez AI.
AI Act jako regulator meta-strategiczny – obowiązki państwa członkowskiego
AI Act, jako akt obowiązujący bezpośrednio, wymaga stworzenia w Polsce struktur umożliwiających praktyczne egzekwowanie przepisów. Obejmuje to:
- powołanie organu nadzorczego ds. AI,
- utworzenie systemów monitorowania rynku,
- współpracę z European AI Office,
- dostosowanie przepisów sektorowych (m.in. medycyna, transport, finanse),
- opracowanie procedur kontroli i sankcji.
Aktualizacja Polityki rozwoju sztucznej inteligencji odzwierciedla rosnącą świadomość roli, jaką AI odgrywa w funkcjonowaniu państwa oraz jego bezpieczeństwie technologicznym. Dokument stanowi kompleksową próbę połączenia celów rozwojowych i strategicznych z wymogami wynikającymi z europejskiego reżimu regulacyjnego.
Skuteczność strategii będzie zależeć od zdolności państwa do budowy kompetencji, realizacji inwestycji infrastrukturalnych, zapewnienia odpowiednich kadr, a także od dojrzałości instytucjonalnej w zakresie implementacji AI Act. Jej modernizacja jest jednak koniecznym krokiem na drodze do budowy nowoczesnego, bezpiecznego i konkurencyjnego ekosystemu sztucznej inteligencji w Polsce.
Podstawy prawne:
- Rozporządzenie Parlamentu Europejskiego (UE) 2024/1689 z dnia 13 czerwca 2024 r. ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (AI Act),
- Ustawa z dnia 17 lutego 2005 r. o informatyzacji działalności podmiotów realizujących zadania publiczne (Dz. U. 2024, poz. 340).
Materiał opracowany przez zespół „Tak Prawnik”.
Właścicielem marki „Tak Prawnik” jest BZ Group Sp. z o.o.
Polecamy: