Umowa z dostawcą AI – na co zwrócić uwagę, by chronić firmę?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Dynamiczny rozwój narzędzi AI sprawia, że coraz więcej firm decyduje się na ich wdrożenie. Technologie te otwierają nowe możliwości, ale generują też ryzyka prawne nieobecne w klasycznych kontraktach IT. Dlatego dobrze skonstruowana umowa z dostawcą AI jest kluczowa dla bezpieczeństwa biznesu. Dowiedz się, na jakie zapisy zwrócić szczególną uwagę, aby chronić dane i własność intelektualną swojej organizacji.

RODO a umowa z dostawcą AI – jak chronić dane osobowe?

W większości przypadków przedsiębiorstwo korzystające z narzędzia AI pozostaje administratorem danych osobowych, które wprowadza do systemu podczas korzystania z usługi, natomiast dostawca narzędzia pełni funkcję podmiotu przetwarzającego.

Dostawcy rozwiązań AI często przetwarzają dane osobowe dodatkowo także w celu przetwarzania danych klientów do trenowania lub ulepszania swoich modeli. W takich przypadkach może dojść do powstania relacji współadministracji albo do sytuacji, w której dostawca staje się odrębnym administratorem danych przetwarzanych dla własnych celów.

Kluczowym elementem umowy jest precyzyjne określenie, kto i w jakim zakresie decyduje o celach przetwarzania, jakie operacje na danych będą wykonywane oraz w jakim stopniu dane użytkownika będą wykorzystywane przez dostawcę do celów innych niż świadczenie usługi.

Brak jasnych zapisów w tym obszarze może prowadzić do naruszeń RODO, sporów kompetencyjnych, a nawet do ryzyka nałożenia administracyjnych kar pieniężnych przez organy nadzorcze.

Jednym z najważniejszych elementów umowy z dostawcą rozwiązania AI jest określenie kategorii danych osobowych, które będą przetwarzane w ramach korzystania z narzędzia. W praktyce mogą to być zarówno dane zwykłe, takie jak imię, nazwisko czy adres e-mail pracownika lub klienta, jak i dane szczególnych kategorii, np. informacje zdrowotne, dane dotyczące działalności zawodowej, elementy oceny behawioralnej czy nawet dane mogące wskazywać na pochodzenie etniczne lub przekonania religijne, jeśli użytkownik przesyła je do modelu AI w ramach materiałów źródłowych.

Narzędzia generatywne i analityczne potrafią przetwarzać szerokie spektrum informacji, niekiedy nawet w sposób trudny do przewidzenia na etapie wdrożenia.

Administrator danych musi ocenić ryzyko związane z wprowadzaniem konkretnych kategorii danych do narzędzia, a umowa powinna jasno określać, czy takie dane mogą być przesyłane i jakie środki bezpieczeństwa stosuje dostawca, aby chronić ich poufność i integralność.

Zgodnie z art. 28 RODO umowa z podmiotem przetwarzającym musi zawierać szczegółowe postanowienia dotyczące obowiązków i odpowiedzialności stron. Umowa musi ustanowić zasady dotyczące bezpieczeństwa danych, a więc opis środków technicznych i organizacyjnych, które mają chronić dane przed nieuprawnionym dostępem, utratą, uszkodzeniem lub przypadkowym ujawnieniem. W przypadku AI szczególne znaczenie mają takie mechanizmy jak szyfrowanie transmisji danych, anonimizacja lub pseudonimizacja danych wejściowych, izolacja środowisk przetwarzania, ograniczenia dostępu po stronie dostawcy oraz systemy rejestrowania operacji na danych. Wdrażanie narzędzi AI wiąże się również z ryzykiem tzw. wycieków promptów, które mogą zawierać dane osobowe. Dlatego konieczne jest, aby dostawca zapewniał odpowiednie mechanizmy zapobiegania nadużyciom i kontrolował dostęp do historii zapytań użytkowników.

Istotnym elementem umowy jest także kwestia subprocesorów, czyli podmiotów trzecich, które dostawca wykorzystuje do przetwarzania danych w imieniu administratora.

Przykład 1.

Spółka ABC jest dostawcą narzędzia AI. Narzędzie to jest hostowane w chmurze dostarczanej przez Microsoft. Dane osobowe wpływające do narzędzia są szyfrowane. Czy Microsoft jest subprocesorem ABC w takiej sytuacji? Tak. Microsoft odpowiada za przetwarzanie danych osobowych (przechowywanie, zabezpieczenie itd.), nawet jeżeli dane te są zaszyfrowane. Inną sytuacją byłaby anonimizacja danych osobowych przed wpływem na chmurę – wtedy z dużym prawdopodobieństwem Microsoft nie byłby kwalifikowany jako podprocesor.

W świecie narzędzi AI subprocesorami są często globalne platformy chmurowe, dostawcy mocy obliczeniowej, modułów treningowych lub usług bezpieczeństwa. Administrator danych musi mieć pełną wiedzę na temat wszystkich podmiotów uczestniczących w przetwarzaniu, a umowa powinna zawierać zapisy dotyczące obowiązku informowania administratora o zamiarze dodania nowego subprocesora, zapewnienia równoważnego poziomu ochrony danych osobowych oraz możliwości zgłoszenia sprzeciwu wobec takiego podwykonawcy.

W tym kontekście szczególnie istotne jest także uregulowanie kwestii transferu danych poza Europejski Obszar Gospodarczy. Jeśli dostawca AI korzysta z usług podmiotów mających siedzibę w Stanach Zjednoczonych lub innych krajach trzecich, umowa musi przewidywać odpowiednie instrumenty prawne, w tym np. standardowe klauzule umowne.

Jednym z najtrudniejszych zagadnień związanych z przetwarzaniem danych osobowych w kontekście AI jest określenie zasad przechowywania i usuwania danych. Administrator danych musi mieć pewność, że dane będą przechowywane tylko przez okres niezbędny do realizacji celu przetwarzania, a umowa powinna szczegółowo określać okres retencji danych, zasady ich anonimizacji, procedury trwałego usuwania oraz możliwość eksportu danych przed zakończeniem umowy.

W kontekście ochrony danych osobowych kluczową rolę odgrywają również procedury reagowania na incydenty bezpieczeństwa.

Dostawcy narzędzi AI muszą być zdolni do natychmiastowego wykrywania naruszeń, szybkiego powiadamiania administratora o zdarzeniu oraz wsparcia go w wypełnieniu obowiązku zgłoszenia naruszenia organowi nadzorczemu i osobom, których dane dotyczą.

Umowa powinna określać dopuszczalny maksymalny czas powiadomienia o naruszeniu, zakres informacji, jakie dostawca jest zobowiązany przekazać, oraz obowiązki związane z analizą przyczyn zdarzenia i wdrożeniem działań naprawczych. W przypadku systemów AI incydenty mogą dotyczyć nie tylko klasycznych wycieków danych, lecz także sytuacji specyficznych, takich jak niekontrolowane udostępnienie danych w wyniku błędu modelu, niezamierzone ujawnienie informacji w treściach generowanych dla innego użytkownika albo nadużycie modelu przez jego operatora.

Kolejnym fundamentem właściwie sporządzonej umowy z dostawcą AI są postanowienia dotyczące audytu i kontroli. Administrator danych musi mieć możliwość zweryfikowania, czy dostawca rzeczywiście stosuje środki bezpieczeństwa oraz procedury zgodne z RODO.

W kontekście AI coraz większe znaczenie mają również mechanizmy związane z tzw. explainability, czyli możliwością uzasadnienia działania modelu. Chociaż dostawcy rzadko udostępniają szczegóły algorytmów ze względu na tajemnicę handlową, administrator musi przynajmniej mieć pewność, że model nie generuje wyników dyskryminujących, naruszających prawa osób trzecich lub niezgodnych z prawem.

Umowa powinna również regulować kwestię odpowiedzialności dostawcy za naruszenia przepisów o ochronie danych osobowych. Dostawcy często starają się maksymalnie ograniczyć swoją odpowiedzialność, zastrzegając niskie limity odszkodowania i szeroki katalog wyłączeń. Z punktu widzenia administratora niezbędne jest wynegocjowanie rozwiązań, które zabezpieczą organizację przed ryzykiem finansowym wynikającym z naruszeń RODO, błędów w oprogramowaniu lub nieautoryzowanego przetwarzania danych przez dostawcę.

Zakończenie współpracy z dostawcą narzędzia AI również wymaga odpowiednich regulacji dotyczących przetwarzania danych osobowych. Administrator musi mieć zapewnione prawo do przenoszenia danych, ich odzyskania w uporządkowanym formacie oraz ich trwałego usunięcia przez dostawcę, włącznie z usunięciem danych ze środowisk testowych i kopii zapasowych.

Własność intelektualna – co musi regulować umowa z dostawcą AI?

Punktem wyjścia w analizie umów z dostawcami narzędzi AI jest zrozumienie rozróżnienia pomiędzy danymi wejściowymi oraz danymi wyjściowymi.

Dane wejściowe obejmują wszelkie treści, które klient wprowadza do systemu, niezależnie od tego, czy mają one postać tekstu, kodu źródłowego, grafik, materiałów audiowizualnych, danych dotyczących procesów wewnętrznych, czy informacji o klientach. W wielu przypadkach dane te stanowią utwory w rozumieniu prawa autorskiego, chronione tajemnicą przedsiębiorstwa treści biznesowe lub informacje, które mają dla organizacji kluczową wartość strategiczną.

Ich udostępnienie dostawcy systemu AI może prowadzić do trwałej utraty kontroli nad ich obiegiem, jeżeli umowa nie zawiera wystarczająco precyzyjnych zapisów.

Część dostawców przewiduje bardzo szerokie licencje, obejmujące prawo do swobodnego korzystania z danych klienta, do ich analizy, sublicencjonowania czy wykorzystywania w celu trenowania modeli.

Jeżeli strona korzystająca z narzędzia nie ograniczy zakresu licencji udzielanej dostawcy jedynie do celu świadczenia usługi, istnieje ryzyko, że dane wejściowe zostaną włączone do ogólnych zbiorów danych wykorzystywanych do ulepszania algorytmów, a następnie staną się częścią tzw. pamięci modelu. W takiej sytuacji dane mogą pośrednio wpływać na treści generowane dla innych klientów, co może być problematyczne zarówno z perspektywy ochrony praw własności intelektualnej, jak i poufności czy przewagi konkurencyjnej.

Najbardziej problematyczny obszar dotyczy jednak danych wyjściowych generowanych przez system AI. Z perspektywy bezpieczeństwa prawnego kluczowe jest, aby umowa przewidywała, że użytkownik nabywa pełne lub przynajmniej szerokie prawa do korzystania z treści wyjściowych, w tym prawo do ich komercyjnego użycia, modyfikowania, włączania do własnych produktów oraz udostępniania osobom trzecim. W przeciwnym razie korzystanie z rezultatów może zostać ograniczone do użytku wewnętrznego, a w skrajnych przypadkach dostawca może zachować prawa do ich dalszego wykorzystywania.

Niezwykle istotne jest również zagadnienie gwarancji dotyczących ewentualnego naruszenia praw osób trzecich. Wyniki generowane przez model mogą nieświadomie odtwarzać elementy cudzych utworów, zwłaszcza jeśli modele były trenowane na publicznie dostępnych lub niezweryfikowanych danych. Dlatego warto zadbać o zapisy nakładające na dostawcę obowiązek zapewnienia, że wyniki nie naruszają cudzych praw, a także przewidujące odpowiedzialność odszkodowawczą dostawcy lub przynajmniej procedury minimalizujące ryzyko.

Drugim fundamentalnym zagadnieniem jest zakres licencji udzielanej użytkownikowi. W typowych umowach SaaS licencja dotyczy jedynie korzystania z oprogramowania zgodnie z jego przeznaczeniem i jest ograniczona czasowo oraz terytorialnie. W narzędziach AI zakres licencji może być znacznie bardziej skomplikowany, ponieważ dostawca może zastrzec różne poziomy uprawnień zależne od funkcji systemu, rodzaju wykorzystania oraz skali eksploatacji wygenerowanych danych.

Z perspektywy użytkownika kluczowe jest, aby licencja była wystarczająco szeroka, by zapewnić swobodę wykorzystania rezultatów w działalności gospodarczej, ale jednocześnie nie naruszała praw własności dostawcy do samego narzędzia.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów