Tło strzałki Strzałka
0 0
dni
0 0
godz
0 0
min
0 0
sek

Etyka i ochrona praw człowieka w kontekście AI - wytyczne unijnych ekspertów

Nasz ekspert:
Artykuły autora

Wielkość tekstu:

Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji wydane przez unijną Grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji w 2019 roku (dalej: wytyczne) przewidują szereg wskazówek dotyczące zagadnienia: etyka i ochrona praw człowieka w kontekście AI. Zapoznaj się z poniższym artykułem i sprawdź, co warto wiedzieć o standardach etycznych funkcjonowania AI.

Etyka i ochrona praw człowieka w kontekście AI według UE

Komisja Europejska w licznych dokumentach wypowiada się na temat sztucznej inteligencji w kontekście etyki i ochrony praw człowieka. Z komunikatów Komisji Europejskiej wynika, że priorytetami w osiągnięciu celów związanych z zapewnieniem etycznego funkcjonowania systemów AI jest dla Unii Europejskiej zwiększenie inwestycji publicznych i prywatnych w SI w celu jej szerszego rozpowszechnienia, przygotowanie się na zmiany społeczno-gospodarcze oraz zapewnienie odpowiednich ram etycznych i prawnych, aby wzmocnić wartości europejskie. Komisja Europejska opracowała także wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji.

Czym jest godna zaufania sztuczna inteligencja? Zdaniem UE powinna ona mieć następujące cechy:

  • zgodność z prawem,
  • etyczność,
  • solidność.

Systemy sztucznej inteligencji powinny być tworzone z uwzględnieniem zasad wynikających m.in. z Karty Praw Podstawowych.

Zgodnie z tym aktem zakazana jest m.in. wszelka dyskryminacja, w szczególności ze względu na płeć, rasę, kolor skóry, pochodzenie etniczne lub społeczne, cechy genetyczne, język, religię lub przekonania, poglądy polityczne lub wszelkie inne poglądy, przynależność do mniejszości narodowej, majątek, urodzenie, niepełnosprawność, wiek lub orientację seksualną. Zakazana jest wszelka dyskryminacja ze względu na przynależność państwową.

Zasadą powinno być takie dobieranie danych do szkolenia systemów sztucznej inteligencji, aby dane te były możliwie najbardziej zapobiegające wykluczeniu i reprezentujące różne grupy społeczne.
 

Zgodnie z Kartą praw podstawowych godność człowieka jest nienaruszalna, musi być szanowana i chroniona. W relacji do sztucznej inteligencji nienaruszalność godności ludzkiej w myśl wytycznych w zakresie etyki wydanych przez UE oznacza, że wszyscy ludzie są traktowani z szacunkiem, a nie jako przedmioty „[…] które mają być przesiewane, sortowane, oceniane, gromadzone, warunkowane lub manipulowane”.

Zgodnie z Kartą praw podstawowych każdy ma prawo do wolności i bezpieczeństwa osobistego, do poszanowania życia prywatnego i rodzinnego, domu i komunikowania się. W kontekście sztucznej inteligencji zgodnie z wytycznymi „[…] wolność jednostki wymaga zapobiegania (bez)pośredniemu nielegalnemu przymusowi, zagrożeniom dla niezależności psychicznej i zdrowia psychicznego, nieuzasadnionemu nadzorowi, wprowadzaniu w błąd i nieuczciwej manipulacji”.

W myśl Karty praw podstawowych każdy obywatel UE ma prawo głosowania i kandydowania w wyborach do Parlamentu Europejskiego w Państwie Członkowskim, w którym ma miejsce zamieszkania, na takich samych warunkach jak obywatele tego państwa. Każdy obywatel UE ma prawo głosowania i kandydowania w wyborach do władz lokalnych w państwie członkowskim, w którym ma miejsce zamieszkania, na takich samych warunkach jak obywatele tego państwa. Każdy ma prawo do bezstronnego i sprawiedliwego rozpatrzenia swojej sprawy w rozsądnym terminie przez instytucje, organy i jednostki organizacyjne UE. Każdy obywatel UE i każda osoba fizyczna lub prawna mająca miejsce zamieszkania lub statutową siedzibę w państwie członkowskim ma prawo dostępu do dokumentów instytucji, organów i jednostek organizacyjnych UE, niezależnie od ich formy. Każdy obywatel UE i każda osoba fizyczna lub prawna mająca miejsce zamieszkania lub statutową siedzibę w państwie członkowskim ma prawo petycji do Parlamentu Europejskiego. Zgodnie z wytycznymi: „[…] zastosowania SI mogą mieć negatywny wpływ na prawa obywateli, dlatego prawa te wymagają ochrony”.

Zasady etyczne a opracowanie, wdrażanie i wykorzystywanie sztucznej inteligencji

Unia Europejska na podstawie Karty praw podstawowych w ramach wytycznych sformułowała następujące zasady etyczne, które powinny być przestrzegane, jeżeli system sztucznej inteligencji ma zostać opracowany, wdrażany i wykorzystywany w sposób etyczny:

  • poszanowanie autonomii człowieka,
  • zapobieganie szkodom,
  • sprawiedliwość,
  • możliwość wyjaśnienia.

Systemy sztucznej inteligencji powinny mieć na celu: „[…] zwiększenie, uzupełnienie i wzmocnienie zdolności poznawczych, społecznych i kulturowych człowieka. Podział funkcji między ludzi i systemy SI powinien opierać się na zasadach projektowania ukierunkowanych na człowieka i pozostawiać człowiekowi rzeczywistą możliwość wyboru. Oznacza to zapewnienie sprawowania nadzoru przez człowieka”.

Budowa systemu sztucznej inteligencji powinna uwzględniać wsparcie dla równych szans: „[…] w zakresie dostępu do edukacji, towarów, usług i technologii. Ponadto korzystanie z systemów SI nigdy nie powinno prowadzić do oszukiwania użytkowników (końcowych) ani zagrażać ich wolności wyboru. Ponadto sprawiedliwość oznacza, że specjaliści w dziedzinie SI powinni przestrzegać zasady proporcjonalności między środkami a celami oraz dokładnie rozważać, w jaki sposób pogodzić konkurencyjne interesy i cele”.

Przykład 1.

Na czym polega zasada wyjaśniania?

Oznacza ona konieczność budowania systemów sztucznej inteligencji w sposób przejrzysty, zapewniający możliwość poznania możliwości i celów systemu, a także wyjaśnienia decyzji podejmowanych na podstawie analiz systemu. Użytkownik powinien mieć możliwość dowiedzenia się, dlaczego względem niego system podjął określoną decyzję lub określił dany wynik. W tym celu powinny również zostać wdrożone środki pozwalające na kontrolowanie wydawanych decyzji/wyników, w tym procesu dochodzenia do nich przez system.

Wytyczne przewidują następujące wymogi względem wdrażania sztucznej inteligencji:

  • przewodnia i nadzorcza rola człowieka;
  • techniczna solidność i bezpieczeństwo;
  • ochrona prywatności i zarządzanie danymi;
  • przejrzystość;
  • różnorodność, niedyskryminacja i sprawiedliwość;
  • dobrostan społeczny i środowiskowy;
  • odpowiedzialność.

Wytyczne przewidują, że nadzorcza rola człowieka może być realizowana przez odpowiednie mechanizmy zarządzania, w tym:

  • zasadę udziału czynnika ludzkiego,
  • zasadę ludzkiej interwencji,
  • zasadę ludzkiej kontroli.

Zasada udziału czynnika ludzkiego przewiduje udział człowieka w każdym etapie decyzyjnym systemu sztucznej inteligencji.

Zasada ludzkiej interwencji z kolei zakłada monitorowanie systemu sztucznej inteligencji i ewentualną reakcję ludzką w razie zidentyfikowania takiej potrzeby.

W przypadku zasady ludzkiej kontroli nadzór ludzki jest realizowany na bardziej ogólnej płaszczyźnie. Zasada ta skupia się na sposobach korzystania z systemu sztucznej inteligencji i ich ewentualnych skutkach.

Zasada technicznej solidności i bezpieczeństwa zakłada, że każdy system sztucznej inteligencji powinien być tworzony z uwzględnieniem odpowiednich reguł bezpieczeństwa działających prewencyjnie. Zgodnie z wytycznymi: „Aby systemy SI można było uznać za bezpieczne, należy wziąć pod uwagę ewentualne niezamierzone zastosowania SI (np. podwójne zastosowania) i potencjalne nadużycia systemu SI przez działające w złym zamiarze podmioty, a także podjąć działania ukierunkowane na zapobieganie tym zjawiskom i ich ograniczanie”. Administratorzy systemów sztucznej inteligencji powinni ponadto mieć i testować odpowiedni plan awaryjny i dbać o bezpieczeństwo ogólne zarówno systemu, jak i organizacji.

Wytyczne przewidują, że etyczny system sztucznej inteligencji powinien być wiarygodny i odtwarzalny. Oznacza to, że AI powinno działać właściwie na podstawie wielu różnych danych wejściowych i w wielu sytuacjach.

Zgodnie z wytycznymi niezwykle istotna jest również jakość i wiarygodność danych. Dane wykorzystywane do szkolenia algorytmów nie mogą być dyskryminacyjne, nieścisłe czy błędne. Zbiory danych wykorzystywanych w ramach AI powinny być regularnie testowane.

Etyczne działanie sztucznej inteligencji zgodnie z wytycznymi wymaga także, aby procesy w systemie AI i oparte o nie decyzje były wytłumaczalne. Chodzi w tym wypadku o możliwość zrozumienia i prześledzenia decyzji podejmowanych przez system AI.

Artykuły
Brak wyników.
Więcej artykułów
Wzory
Brak wyników.
Więcej wzorów