System sztucznej inteligencji a model AI. Jakie są najważniejsze różnice?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

 Rozróżnienie między systemem sztucznej inteligencji a modelem AI stało się kluczowe dla przedsiębiorców w kontekście unijnego rozporządzenia AI Act. Ten pierwszy na świecie kompleksowy akt prawny regulujący AI nakłada precyzyjne obowiązki i definiuje kategorie techniczne, które dotąd nie miały umocowania prawnego. Wiele organizacji stoi przed wyzwaniem poprawnej interpretacji fundamentalnych pojęć, takich jak system AI, model ogólnego przeznaczenia czy system wysokiego ryzyka, aby dostosować swoją działalność do nowych wymogów prawa unijnego.

Definicja systemu sztucznej inteligencji

Zasadniczym punktem wyjścia jest zdefiniowanie pojęcia systemu sztucznej inteligencji.

System AI oznacza – według AI Act – system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu. Może on również wykazywać zdolność adaptacji po jego wdrożeniu. Ponadto na potrzeby wyraźnych lub dorozumianych celów będzie wnioskować, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

AI Act definiuje ponadto także system AI ogólnego przeznaczenia, czyli system AI oparty na modelu AI ogólnego przeznaczenia, który może służyć różnym celom i nadaje się zarówno do bezpośredniego wykorzystania, jak i do integracji z innymi systemami AI.

Pojęcie modelu w AI Act 

AI Act nie zawiera osobnej definicji modelu AI, choć pojęcie to występuje w treści rozporządzenia wielokrotnie. Akt definiuje natomiast model AI ogólnego przeznaczenia jako rozwiązanie cechujące się dużą uniwersalnością i zdolnością do kompetentnego wykonywania szerokiego zakresu zadań. Dotyczy to również modeli trenowanych na ogromnych zbiorach danych metodą nadzoru własnego. Modele te mogą być integrowane z różnymi systemami lub aplikacjami, bez względu na sposób ich dystrybucji. Z tej definicji wyłączono jednak modele wykorzystywane wyłącznie do prac badawczo-rozwojowych oraz tworzenia prototypów przed ich wprowadzeniem na rynek.

Przykład 1.

Spółka ABC oferuje duży, generatywny model AI, który umożliwia elastyczne generowanie treści, w tym np. tekstu, dźwięku, obrazów lub materiałów wideo, i który z łatwością radzi sobie z wieloma różnymi zadaniami. Spółka zastanawia się, jaką klasyfikację będzie mieć ten model na gruncie AI Act. Należy uznać, że rozwiązanie to zostanie zakwalifikowane jako model AI ogólnego przeznaczenia.

Dostawcy modeli AI ogólnego przeznaczenia odgrywają kluczową rolę i ponoszą szczególną odpowiedzialność w całym łańcuchu wartości. Dostarczane przez nich rozwiązania mogą stanowić podstawę wielu systemów tworzonych przez dostawców niższego szczebla. Aby mogli oni skutecznie integrować modele ze swoimi produktami oraz wywiązywać się z obowiązków wynikających z AI Act lub innych przepisów, muszą mieć dokładną wiedzę na temat możliwości i specyfiki danej technologii.

Jeśli model AI ogólnego przeznaczenia zostanie włączony do systemu AI lub stanie się jego częścią, cały ten system uznaje się za system AI ogólnego przeznaczenia – o ile dzięki tej integracji może on służyć różnym celom. Takie rozwiązanie można stosować bezpośrednio albo łączyć z jeszcze innymi systemami AI.

AI Act wyróżnia także szczególny rodzaj modelu – model AI ogólnego przeznaczenia z ryzykiem systemowym. Modele AI ogólnego przeznaczenia mogą stwarzać ryzyko systemowe, które obejmuje między innymi wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki poważnych awarii, zakłóceń w sektorach krytycznych oraz poważne konsekwencje dla zdrowia i bezpieczeństwa publicznego; wszelkie rzeczywiste lub racjonalnie przewidywalne negatywne skutki dla procesów demokratycznych, bezpieczeństwa publicznego i gospodarczego; rozpowszechnianie nielegalnych, fałszywych lub dyskryminujących treści.

Należy mieć na względzie, że ryzyko systemowe wzrasta wraz ze zdolnościami i zasięgiem modelu, może wystąpić w całym cyklu życia modelu i zależy od warunków niewłaściwego wykorzystania, niezawodności, bezstronności i bezpieczeństwa modelu, poziomu jego autonomii, dostępu do narzędzi, stosowania nowatorskich lub połączonych metod, strategii udostępniania i dystrybucji, możliwości w zakresie usuwania zabezpieczeń i innych czynników.

Modele AI ogólnego przeznaczenia, w szczególności duże generatywne modele AI, zdolne do generowania tekstów, obrazów i innych treści, stwarzają wyjątkowe możliwości w zakresie innowacji. Jednocześnie stawiają one nowe wyzwania przed artystami, autorami i innymi twórcami, zmieniając sposób, w jaki ich twórczość jest tworzona, rozpowszechniana i odbierana. 

Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych zbiorów danych, co często wiąże się z wykorzystaniem technik eksploracji tekstów i danych, które służą do wyszukiwania i analizy treści, często chronionych prawem autorskim i prawami pokrewnymi. Należy mieć na względzie, że każde użycie treści chronionych prawem autorskim wymaga zgody właściciela tych praw, chyba że pozwalają na to konkretne wyjątki i ograniczenia przewidziane w przepisach.

System sztucznej inteligencji a model AI

System obejmuje całość elementów potrzebnych do jego praktycznego funkcjonowania: interfejs, moduły przetwarzające dane, komponenty integracyjne, moduły decyzyjne, a także warstwę implementacyjną, która umożliwia użytkownikowi korzystanie z funkcji systemu.

Innymi słowy, system AI to konkretna aplikacja lub usługa, która jest wdrożona i realizuje określone zadania. Może to być system scoringu, narzędzie rekrutacyjne, system predykcji popytu, model rozpoznawania obrazu używany w aplikacji medycznej czy narzędzie generowania treści wdrożone w ramach portalu. Tym, co łączy te różne zastosowania, jest fakt, że system stanowi element wykorzystywany bezpośrednio przez użytkownika lub inne procesy, które potrzebują wyników jego pracy.

Z kolei model AI jest komponentem technicznym stanowiącym wewnętrzny element systemu. To procedura matematyczna lub statystyczna, która przekształca dane wejściowe w dane wyjściowe.

Modele mogą być zarówno samodzielnymi tworzonymi komponentami, jak i trenowane na dużych zbiorach danych oraz wykorzystywane jako baza do budowy kolejnych systemów.

Dopiero na poziomie systemów AI pojawia się kwestia wysokiego ryzyka. AI Act wprowadza listę systemów, które ze względu na możliwość oddziaływania na prawa podstawowe, bezpieczeństwo fizyczne, sytuację pracowników, konsumentów czy obywateli, są uznawane za wysokiego ryzyka. System wysokiego ryzyka może więc korzystać z modelu wyspecjalizowanego, modelu ogólnego przeznaczenia lub ich kombinacji.

Model nie jest „wysokiego ryzyka” – w przeciwieństwie do systemu

Zakwalifikowanie modelu ogólnego przeznaczenia jako modelu o wysokim wpływie nie sprawia automatycznie, że każdy system oparty na tym modelu staje się systemem wysokiego ryzyka. Ocena ryzyka koncentruje się bowiem na konkretnej funkcji, jaką pełni dany system, a nie na tym, z jakich technicznych komponentów został on zbudowany.

Warto także przyjrzeć się temu, jak AI Act definiuje proces uczenia, trenowania i walidacji modeli. Podlegają one regulacjom dotyczącym danych wykorzystywanych do trenowania, a w szczególności ich jakości i legalności. Ustawodawca zwraca uwagę, że dostawa modelu musi zapewnić, że dane treningowe będą zgodne z prawem, reprezentatywne i wolne od uprzedzeń, które mogłyby prowadzić do dyskryminacji. Obowiązek ten spoczywa na nim nawet wtedy, gdy tworzy model ogólnego przeznaczenia. 

Natomiast w przypadku systemów kluczowe są procedury dotyczące monitorowania ich działania, raportowania incydentów, zapewniania nadzoru ludzkiego i przeprowadzania oceny zgodności. Można zatem zaobserwować, że ustawodawca nałożył inne obowiązki na twórców modeli i systemów.

Relacja między systemem a modelem ma również kluczowe znaczenie w kontekście odpowiedzialności cywilnej. Jeżeli system AI podejmuje decyzję, która prowadzi do szkody, odpowiedzialność może być rozłożona pomiędzy dostawcę systemu, użytkownika oraz – w pewnych przypadkach – twórcę modelu. 

W praktyce ważne będzie ustalenie, czy szkoda wynikała z cech modelu (na przykład błędów podczas procesu trenowania), jego implementacji w systemie (na przykład błędnej konfiguracji, niewłaściwego procesu nadzoru ludzkiego lub braku kontroli jakości). 

AI Act nie rozstrzyga bezpośrednio zasad odpowiedzialności cywilnej, ale tworzy ramy, które pozwalają na analizę przyczyn szkody i przypisanie odpowiedzialności właściwemu podmiotowi. Rozdzielenie pojęć modelu i systemu ma więc znaczenie nie tylko dla zgodności regulacyjnej, lecz także dla przyszłych sporów dotyczących odpowiedzialności za skutki działania AI.

Istotna jest również kwestia dokumentacji technicznej. Modele ogólnego przeznaczenia muszą być dokumentowane w sposób umożliwiający dostawcom systemów ich integrację zgodnie z zasadami bezpieczeństwa. 

Dostawca modelu musi zapewnić informacje dotyczące architektury modelu, jego ograniczeń, danych treningowych i procedur bezpieczeństwa. 

Dostawca systemu musi natomiast opracować własną dokumentację, która będzie częścią oceny zgodności. Oznacza to, że dokumentacja modelu jest wprowadzeniem do dokumentacji systemu. Dlatego przejrzystość modelu stanowi krytyczny element, ponieważ bez dostępu do informacji na temat jego działania dostawca systemu nie będzie w stanie spełnić obowiązków regulacyjnych. Wymogi dokumentacyjne są więc mechanizmem, który łączy poziom modelu z poziomem systemu.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów