Tło strzałki Strzałka
0 0
dni
0 0
godz
0 0
min
0 0
sek

Czy ChatGPT może być używany w pracy?

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Ze sztuczną inteligencją współżyjemy od naprawdę bardzo dawna. Jednak teraz za sprawą ChatGPT oraz innych podobnych aplikacji o AI zrobiło się nad wyraz głośno. Nie można się temu dziwić, ponieważ właściciele firm pracujących nad wspomnianymi algorytmami cały czas podsycają entuzjazm i obawy co do tego, jak będzie wyglądała przyszłość dzięki ich dziełom. Na każdym kroku możemy usłyszeć lub przeczytać, że miliony osób stracą pracę przez nowoczesne roboty. Warto uspokoić –Cz ChatGPT nie zastąpi człowieka w każdym aspekcie jego pracy. Obserwujemy już pierwsze przypadki firm, które postawiły wyłącznie na sztuczną inteligencję i pozwalniały pracowników, a teraz ponownie prowadzą rekrutację, gdyż przedsiębiorstwo chyli się ku upadkowi. Omawiane modele językowe są świetnym narzędziem w rękach ludzi, którzy znają się na swojej pracy i wiedzą, jak je wykorzystać. W innym wypadku korzystanie z nich może wyrządzić więcej złego niż dobrego.

Jak ChatGPT widzi sam siebie?

Na wstępie warto przybliżyć, czym jest ChatGPT. Aby się tego dowiedzieć, zapytałem o to… ChatGPT. Według niego jest to zaawansowany model językowy oparty na technologii sztucznej inteligencji, opracowany przez OpenAI. Jest to narzędzie, które potrafi generować naturalne odpowiedzi na podstawie wprowadzonego tekstu.

ChatGPT opiera się na architekturze GPT (Generative Pre-trained Transformer). Jest to rodzaj sztucznej inteligencji, który został wyszkolony na ogromnych zbiorach danych tekstowych, takich jak książki, artykuły, strony internetowe i inne źródła tekstowe. Model uczy się rozumieć ogólną strukturę języka oraz relacje między słowami, zdaniami i kontekstami na podstawie ogromnej liczby danych. Jest dopasowywany do konkretnego zastosowania, w szczególności do konwersacji i odpowiedzi na zadane mu pytania.

Co wynika z powyższego? Jest to algorytm, który agreguje informacje dostępne w internecie i następnie wykorzystuje je w czasie rozmowy z użytkownikiem. Dzięki temu, że program jest cały czas rozwijany, jest on w stanie się „uczyć”, czyli modyfikować i uaktualniać swoje informacje. Jest przy tym w swoim działaniu bardzo szybki i dosyć precyzyjny. Wydaje się, że wie wszystko na każdy temat. W rzeczywistości jednak jest to wrażenie powierzchowne i tym samym złudne, ponieważ tam, gdzie brak mu danych, po prostu zmyśla (o tym poniżej).

Czy można zaufać ChatGPT?

Zanim w ogóle zaczniemy rozważania, czy można używać w pracy sztucznej inteligencji, zastanówmy się, czy w ogóle powinniśmy to robić. Programy te zostały stworzone przez konkretne zespoły ludzi i co ważniejsze – w konkretnych państwach. Nie ma przy tym co ukrywać, że w zależności od zakątka świata nastawienie polityczno-ideologiczne sztucznej inteligencji będzie inne. Konkretnie mówimy tu o cenzurze i próbie kreowania własnej „agendy”.

Można to łatwo sprawdzić. Porównałem wyniki z ChatGPT i najnowszego chińskiego modelu AI – DeepSeek. Wystarczyło zapytać o „niewygodne” fakty z historii Chin. ChatGPT nie miał problemu, aby je opisać, z kolei chińskie oprogramowanie albo zmieniało narrację na tę korzystniejszą dla Chińczyków, albo pokazywało komunikat, że nie ma wystarczających danych na ten temat. 

Dwa eksperymenty – nie wszystkie odpowiedzi były prawidłowe

Przejdźmy jednak do kwestii bardziej dotykającej możliwości wykorzystywania AI w pracy. Przeprowadziłem 2 szybkie eksperymenty mające sprawdzić „wiedzę” ChatGPT, którą rzeczywiście ktoś mógłby wykorzystać w życiu, w tym również w miejscu pracy.

Tworzenie kodu programistycznego

Pierwszy test dotyczył kodu programistycznego. Poprosiłem, aby aplikacja podała mi kod w języku PHP do przekierowania logowania użytkownika ze strony „domyślnej” na stronę stworzoną przeze mnie. ChatGPT zrobił to w 3 sekundy. Wystarczyło wprowadzić kilka modyfikacji i wszystko działało bez zarzutów.

Wiedza prawnicza

Drugi eksperyment dotyczył wiedzy prawniczej. Zadałem 3 pytania. Pierwsze dotyczyło tego, czy można sprzedać nieruchomość na podstawie umowy w formie pisemnej. ChatGPT się popisał i odpowiedział prawidłowo: „nie, sprzedaż nieruchomości w Polsce nie może zostać skutecznie dokonana na podstawie zwykłej pisemnej umowy. W polskim systemie prawnym, aby sprzedaż nieruchomości była ważna, musi być zawarta w formie aktu notarialnego, sporządzonego przez notariusza”.

Drugie pytanie brzmiało: czy umowa przedwstępna sprzedaży nieruchomości musi być w formie aktu notarialnego? Tutaj również bez pudła. AI wskazało, że: „umowa przedwstępna sprzedaży nieruchomości nie musi być zawarta w formie aktu notarialnego, ale warto wiedzieć, że forma umowy przedwstępnej wpływa na jej skutki prawne”.

Z trzecim pytaniem już sobie nie poradził. Zapytałem, czy można ogłosić upadłość z jednym wierzycielem. ChatGPT odpowiedział: „tak, w Polsce można ogłosić upadłość nawet wtedy, gdy dłużnik ma tylko jednego wierzyciela, o ile spełnia określone warunki przewidziane w przepisach prawa upadłościowego. Kluczowe jest to, że podstawą ogłoszenia upadłości nie jest liczba wierzycieli, ale stan niewypłacalności dłużnika. W przypadku osoby fizycznej (nieprowadzącej działalności gospodarczej), tzw. upadłość konsumencka może być ogłoszona nawet w sytuacji, gdy dłużnik ma tylko jednego wierzyciela. W przypadku przedsiębiorcy sytuacja wygląda podobnie. Możliwość ogłoszenia upadłości nie jest uzależniona od liczby wierzycieli”. W dalszej części odpowiedzi ChatGPT zmyślał już pod wyżej wskazaną tezę.

Co z tą odpowiedzią jest nie tak? Otóż jedynie upadłość konsumencka może być ogłoszona przy posiadaniu tylko jednego wierzyciela. W przypadku przedsiębiorców nie jest to możliwe. Mówi o tym już pierwszy przepis ustawy – Prawo upadłościowe.

Dlaczego ChatGPT skłamał?

Dlaczego sztuczna inteligencja skłamała? Tego nie wiem, nie znam algorytmu aplikacji. Zdaje się jednak, że albo program skorzystał z artykułu opublikowanego w sieci, w którym autor nie do końca wiedział, o czym pisze, albo ChatGPT nie radzi sobie z interpretacją gromadzonych informacji (informacja o konieczności posiadania kilku wierzycieli do ogłoszenia upadłości nie jest podana wprost w przepisie ustawy). Co więcej, aplikacja brnęła dalej, tworząc treści, które były jawnie nieprawdziwe – podawała podstawy do ogłoszenia upadłości, o których nie przeczytamy w ustawie.

Powyższe oznacza, że nie możemy ufać sztucznej inteligencji. Możemy się nią posiłkować, ale jednocześnie musimy sprawdzać podane przez nią informacje w innych źródłach. W moim przypadku – w ustawach. Gdyż tylko one są „pewne”.

Co by było, gdyby ktoś otworzył kancelarię prawną i uznał, że nie potrzebuje fachowców, bo we wszystkim wyręczy go sztuczna inteligencja? Otóż w co trzeciej sprawie popełniłby on kardynalny błąd, który zaszkodziłby nie tylko jemu, ale również jego klientowi. Znamy zresztą historię amerykańskiego adwokata, który napisał apelację w całości przy pomocy AI. Sprawa została przegrana, a adwokat już nie jest adwokatem.

Czy zatem ChatGPT może być używany w pracy?

Na razie nie znajdziemy przepisów prawa, które zabraniałyby korzystać z omawianych modeli językowych w pracy. Trzeba jednak pamiętać o kilku kwestiach, które mogą wpłynąć na owoce takiego działania.

Pominę już kwestię nieprawdziwych lub cenzurowanych informacji, jakimi potrafią posługiwać się aplikacje AI. O tym było w poprzednich akapitach.

Dzieło sztucznej inteligencji nie należy do użytkownika

Mimo że w regulaminie korzystania z ChatGPT znajdziemy informację, że wszystko, co wygeneruje aplikacja w odpowiedzi na zapytanie użytkownika, jest własnością tego ostatniego, to prawo – zarówno amerykańskie, jak i europejskie – ma w tym aspekcie inne zdanie.

W gruncie prawa polskiego dzieła wygenerowane za pomocą AI nie stanowią utworu w rozumieniu ustawy o prawie autorskim i prawach pokrewnych. Użytkownik ChatGPT, który wydał mu polecenie stworzenia określonego tekstu, obrazu, utworu muzycznego itd., nie staje się zatem jego autorem. Bez utworu bowiem nie ma autora.

Wytwory sztucznej inteligencji nie są objęte ochroną prawnoautorską, co z kolei oznacza, że należą one do domeny publicznej. W dalszym ciągu można zarabiać na utworach stworzonych przez AI, np. tworzyć grafiki do swojej książki czy okładki do płyt muzycznych. Jednakże nie będzie można żądać ochrony prawnoautorskiej, jeżeli ktoś skopiuje nasze „dzieło” i zacznie je spieniężać. Jak podkreśla przedstawiciel doktryny, zlecając sztucznej inteligencji wykonanie „utworu”, nie jesteśmy w stanie przewidzieć, jaki będzie rezultat pracy maszyny, w związku z czym wkład człowieka w jego powstanie nie jest wystarczający do uznania go za autora (por. A. Chłopecki, Sztuczna inteligencja – szkice prawnicze i futurologiczne. Wyd. 2, Warszawa 2021). Oczywiście wszystko tu zależy od konkretnych okoliczności sprawy. Wspomaganie się AI w pracy kreatywnej nie zawsze będzie można odbierać jako tworzenie utworu przez sztuczną inteligencję. Będzie to uwarunkowane od proporcji pracy włożonej przez autora-człowieka i AI w stworzenie konkretnego dzieła.

Więcej na ten temat znajdziecie w artykule Sztuczna inteligencja (AI) – jak korzystać z niej zgodnie z prawem?

Łatwo naruszyć cudze prawa autorskie

Pomoc sztucznej inteligencji nie tylko nie gwarantuje użytkownikowi ochrony prawnoautorskiej, ale również naraża go na odpowiedzialność cywilną. ChatGPT korzysta z dotychczasowych dokonań cywilizacyjno-kulturowych wprowadzonych do sieci. Oznacza to, że generując obraz, komponując muzykę czy tworząc książkę przy pomocy AI, możemy otrzymać „dzieło” będące zlepkiem innych utworów chronionych prawem autorskim.

W takim wypadku, jeżeli dzieło osiągnie sukces komercyjny, szybko znajdą się autorzy, którzy dopatrzą się w nim plagiatu swoich utworów. I najpewniej będą mieli rację. ChatGPT ma problemy z kreatywnością. Działa on wyłącznie na tym, co już zna. Jest w stanie z łatwością modyfikować agregowane lub wprowadzone przez użytkownika dane, jednakże istnieje wysokie ryzyko, że „parafrazując” czyjeś dzieło, wykorzysta do tego utwory innych autorów.

ChatGPT a bezpieczeństwo danych

Niewiele się mówi o bezpieczeństwie danych w kontekście korzystania ze sztucznej inteligencji. Jest to błąd. Wydaje się jednak, że zaawansowane przedsiębiorstwa zdają sobie z tego sprawę, ponieważ coraz więcej firm zabrania korzystania z AI w pracy, lub znacznie ogranicza możliwość jej stosowania.

Wyobraźmy sobie sytuację, w której urzędnik wrzuca do aplikacji dane obywateli w celu wygenerowania decyzji administracyjnych. Zapewne mu się to uda, dokumentacja być może będzie potrzebowała kilku poprawek, ale i tak całość zajmie o wiele mniej czasu, niż pochłonęłaby praca „ręczna”. Cel został osiągnięty. Tylko czy na pewno było to działanie odpowiedzialne?

Inna sytuacja – ministerstwo sprawiedliwości zleca modyfikację strony rządowej ministerstwa. W przetargu wygrywa najtańsza oferta. Programista pobiera kod strony rządowej, podaje go sztucznej inteligencji i nakazuje zmienić określone parametry. W ciągu kilku sekund praca jest niemal skończona. Ale czy możemy uznać, że została ona wykonana prawidłowo?

W odpowiedzi na oba powyższe pytania trzeba jasno stwierdzić, że nie. Nie było to działanie właściwe, racjonalne i rozsądne. Nie wiemy bowiem co dalej dzieje się z danymi wprowadzonymi do okienka konwersacyjnego AI. Być może informacje te wyciekną albo zostaną wykorzystane przeciwko interesom Polski. Zresztą to samo jest w sektorze prywatnym. Dane podawane przez pracowników dużych przedsiębiorstw w łatwy sposób mogą zostać użyte w celach handlowych, np. do skopiowania produktu konkurencji czy wyprzedzenia jej planowanych kroków na rynku.

Wydaje się zatem, że dopóki nie powstanie jakiegoś rodzaju międzynarodowy akt prawny mający standaryzować funkcjonalności modeli językowych albo Unia Europejska nie doczeka się własnej sztucznej inteligencji, korzystanie z programów typu ChatGPT nie będzie bezpieczne. Warto mieć to z tyłu głowy, uruchamiając aplikacje AI na swoim komputerze.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów