AI Act wprowadza szczegółowe regulacje dotyczące sztucznej inteligencji, w tym definiuje, czym jest model AI ogólnego przeznaczenia. To zaawansowany system, trenowany na ogromnych zbiorach danych, zdolny do wykonywania szerokiego zakresu zadań. Jego wszechstronność sprawia, że może być integrowany z różnymi aplikacjami, co niesie za sobą zarówno ogromne możliwości, jak i potencjalne ryzyka. Zrozumienie, jak nowe przepisy regulują jego funkcjonowanie, jest kluczowe dla dostawców i użytkowników tych technologii.
Model AI ogólnego przeznaczenia - klasyfikacja
Model AI ogólnego przeznaczenia jest klasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym, jeżeli spełnia którykolwiek z następujących warunków:
- ma zdolności dużego oddziaływania ocenione na podstawie odpowiednich narzędzi i metodologii technicznych, w tym wskaźników i poziomów odniesienia;
- na podstawie decyzji Komisji – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy – ma zdolności lub oddziaływanie równoważne z tymi, które określono w punkcie powyżej, przy uwzględnieniu dodatkowo tych kryteriów, które zostały określone w załączniku XIII do AI Act.
Załącznik XIII do AI Act określa kryteria identyfikowania modeli AI ogólnego przeznaczenia z ryzykiem systemowym. Do celów stwierdzenia, czy model AI ogólnego przeznaczenia ma zdolności lub oddziaływanie równoważne z tymi, które określono powyżej, Komisja uwzględnia następujące kryteria:
- liczbę parametrów modelu;
- jakość lub rozmiar zbioru danych, na przykład mierzone za pomocą tokenów;
- liczbę obliczeń wykorzystanych do trenowania modelu, mierzoną w operacjach zmiennoprzecinkowych lub wskazaną przez połączenie innych zmiennych, takich jak szacunkowy koszt trenowania, szacowany czas potrzebny na trenowanie lub szacowane zużycie energii na potrzeby trenowania;
- format danych wejściowych i wyjściowych danego modelu, takie jak tekst–tekst (duże modele językowe), tekst–obraz, multimodalne, a także najnowocześniejsze progi dla określania zdolności dużego oddziaływania dla każdego formatu, jak również szczególne rodzaje danych wejściowych i wyjściowych (np. sekwencje biologiczne);
- poziomy odniesienia i oceny zdolności modelu, w tym analiza liczby zadań bez dodatkowego trenowania, zdolności adaptacji do uczenia się nowych, odrębnych zadań, poziom jego autonomii i skalowalności, narzędzia, do których ma dostęp;
- czy ze względu na swój zasięg ma duże oddziaływanie na rynek wewnętrzny, co należy zakładać, jeśli został udostępniony co najmniej 10 000 zarejestrowanych użytkowników biznesowych mających siedzibę w Unii;
- liczbę zarejestrowanych użytkowników końcowych.
Przykład 1.
Przykładem modelu ogólnego przeznaczenia z ryzykiem systemowym jest chat GPT, ponieważ ma zdolność generowania dużej ilości danych, treści tekstowych o szerokim zakresie tematycznym, które mogą być wykorzystywane zarówno w działalności naukowej, edukacyjnej czy biznesowej, jak i w sposób prowadzący do nadużyć, np. poprzez tworzenie dezinformacji na masową skalę. Jego uniwersalny charakter, duży zasięg, spora autonomia w działaniu oraz możliwość adaptacji do różnych zastosowań sprawiają, że potencjalne skutki nieprawidłowego wykorzystania wykraczają poza pojedyncze sektory, co uzasadnia nadanie mu kwalifikacji modelu ogólnego przeznaczenia z ryzykiem systemowym.
Procedura uznawania za model z ryzykiem systemowym
W przypadku, gdy model AI ogólnego przeznaczenia spełnia warunki dużego oddziaływania, odpowiedni dostawca powiadamia Komisję Europejską niezwłocznie, a w każdym przypadku w terminie dwóch tygodni od spełnienia tego warunku lub od kiedy wiadomo, że zostanie on spełniony. Powiadomienie to zawiera informacje niezbędne do wykazania, że dany warunek został spełniony. Jeśli Komisja dowie się o stwarzającym ryzyko systemowe modelu AI ogólnego przeznaczenia, o którym nie została powiadomiona, może zdecydować o uznaniu go za model z ryzykiem systemowym.
Dostawca spełniający warunek dużego oddziaływania modelu AI ogólnego przeznaczenia z ryzykiem systemowym może wraz ze swoim powiadomieniem przedstawić wystarczająco uzasadnione argumenty wykazujące, że wyjątkowo, pomimo spełniania przez ten model AI ogólnego przeznaczenia przedmiotowego warunku, nie stwarza on – z uwagi na swoje szczególne cechy – ryzyka systemowego i nie powinien być w związku z tym zaklasyfikowany jako model AI ogólnego przeznaczenia z ryzykiem systemowym.
W przypadku, gdy Komisja stwierdzi, że argumenty przedstawione zgodnie z procedurą powyżej nie są wystarczająco uzasadnione i że dany dostawca nie był w stanie wykazać, że dany model AI ogólnego przeznaczenia nie stwarza – z uwagi na swoje szczególne cechy – ryzyka systemowego, odrzuca te argumenty, a dany model AI ogólnego przeznaczenia uważa się za model AI ogólnego przeznaczenia z ryzykiem systemowym.
Komisja może – z urzędu lub w następstwie ostrzeżenia kwalifikowanego wydanego przez panel naukowy uznać model AI ogólnego przeznaczenia za model stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII do AI Act.
Na uzasadniony wniosek dostawcy, którego model został uznany za model AI ogólnego przeznaczenia z ryzykiem systemowym, Komisja bierze pod uwagę taki wniosek i może zdecydować o ponownej ocenie w celu stwierdzenia, czy dany model AI ogólnego przeznaczenia może być nadal uważany za stwarzający ryzyko systemowe na podstawie kryteriów określonych w załączniku XIII. Wniosek taki zawiera obiektywne, szczegółowe i nowe powody, które pojawiły się po podjęciu decyzji o uznaniu. Dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej 6 miesięcy po podjęciu decyzji o uznaniu. W przypadku, gdy w wyniku ponownej oceny Komisja zdecyduje się utrzymać uznanie modelu za model AI ogólnego przeznaczenia z ryzykiem systemowym, dostawcy mogą zwrócić się z wnioskiem o ponowną ocenę najwcześniej 6 miesięcy po podjęciu tej decyzji.
Obowiązki dostawców modeli AI ogólnego przeznaczenia
Dostawcy modeli AI ogólnego przeznaczenia:
- sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
- sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI;
- wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych;
- sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
Upoważnieni przedstawiciele dostawców modeli AI ogólnego przeznaczenia
Przed wprowadzeniem swoich modeli AI ogólnego przeznaczenia do obrotu w Unii dostawcy mający siedzibę w państwach trzecich ustanawiają – na podstawie pisemnego pełnomocnictwa – upoważnionego przedstawiciela mającego siedzibę w Unii.
Dostawca umożliwia swojemu upoważnionemu przedstawicielowi wykonywanie zadań powierzonych mu na mocy pełnomocnictwa udzielonego przez dostawcę.
Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Przekazuje on Urzędowi ds. AI na jego wniosek kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii. Pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:
- sprawdzenie, czy dostawca sporządził dokumentację techniczną określoną w załączniku XI oraz czy wypełnił wszystkie obowiązki;
- przechowywanie kopii dokumentacji technicznej do dyspozycji Urzędu ds. AI i właściwych organów krajowych przez okres 10 lat od czasu wprowadzenia danego modelu AI ogólnego przeznaczenia do obrotu oraz danych kontaktowych dostawcy, który ustanowił danego upoważnionego przedstawiciela;
- przekazywanie Urzędowi ds. AI na uzasadniony wniosek wszystkich informacji i dokumentacji niezbędnych do wykazania spełnienia obowiązków ustanowionych w niniejszym rozdziale;
- współpraca z Urzędem ds. AI i właściwymi organami, na uzasadniony wniosek, we wszelkich podejmowanych przez nie działaniach odnoszących się do modelu AI ogólnego przeznaczenia, w tym kiedy model ten jest zintegrowany z systemami AI wprowadzanymi do obrotu lub oddawanymi do użytku w Unii.
Pełnomocnictwo daje upoważnionemu przedstawicielowi prawo do tego, aby Urząd ds. AI lub właściwe organy mogły się zwracać do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z AI Act.
Obowiązki dostawców modeli AI ogólnego przeznaczenia z ryzykiem systemowym
Oprócz ogólnych obowiązków dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym:
- dokonują oceny modelu zgodnie ze znormalizowanymi protokołami i narzędziami odzwierciedlającymi najaktualniejszy stan wiedzy technicznej, w tym przeprowadzają i dokumentują kontradyktoryjne testy modelu z myślą o zidentyfikowaniu ryzyka systemowego i jego ograniczenia;
- oceniają i ograniczają ewentualne ryzyko systemowe na poziomie Unii, w tym jego źródła, które może wynikać z rozwoju, wprowadzania do obrotu lub wykorzystywania modeli AI ogólnego przeznaczenia z ryzykiem systemowym;
- rejestrują, dokumentują i niezwłocznie zgłaszają Urzędowi ds. AI oraz, w stosownych przypadkach, właściwym organom krajowym odpowiednie informacje dotyczące poważnych incydentów i ewentualnych środków naprawczych służących zaradzeniu im;
- zapewniają odpowiedni poziom cyberochrony modelu AI ogólnego przeznaczenia z ryzykiem systemowym oraz infrastruktury fizycznej tego modelu.
Polecamy: