Zalecenie w sprawie etyki sztucznej inteligencji #
#
Zalecenie w sprawie etyki sztucznej inteligencji #
PREAMBUŁA
Uznając głęboki i dynamiczny pozytywny i negatywny wpływ sztucznej inteligencji (AI) na społeczeństwa, środowisko, ekosystemy i życie ludzkie, w tym ludzki umysł, częściowo ze względu na nowe sposoby, w jakie jej wykorzystanie wpływa na ludzkie myślenie, interakcje i podejmowanie decyzji i wpływa na edukację, nauki humanistyczne, społeczne i przyrodnicze, kulturę oraz komunikację i informację,
Przypominając , że zgodnie z postanowieniami swojej Konstytucji UNESCO stara się przyczyniać do pokoju i bezpieczeństwa poprzez promowanie współpracy między narodami poprzez edukację, naukę, kulturę, komunikację i informację, w celu dalszego powszechnego poszanowania sprawiedliwości, rządów prawa oraz o prawa człowieka i podstawowe wolności, które są zapewnione dla narodów świata,
Przekonani , że przedstawione tutaj zalecenie, jako instrument wyznaczający standardy, opracowany w ramach globalnego podejścia, opartego na prawie międzynarodowym, skupiającego się na godności ludzkiej i prawach człowieka, a także na równości płci, sprawiedliwości i rozwoju społecznym i gospodarczym, dobrostanie fizycznym i psychicznym- istota, różnorodność, wzajemne powiązania, inkluzywność oraz ochrona środowiska i ekosystemów mogą poprowadzić technologie sztucznej inteligencji w odpowiedzialnym kierunku,
Kierując się celami i zasadami Karty Narodów Zjednoczonych,
Biorąc pod uwagę , że technologie sztucznej inteligencji mogą bardzo przysłużyć się ludzkości i wszystkie kraje mogą z nich skorzystać, ale budzą one również fundamentalne obawy etyczne, na przykład dotyczące uprzedzeń, które mogą zakorzeniać i pogłębiać, potencjalnie skutkując dyskryminacją, nierównością, przepaścią cyfrową, wykluczeniem i zagrożenie dla różnorodności kulturowej, społecznej i biologicznej oraz podziałów społecznych lub ekonomicznych; potrzeba przejrzystości i zrozumiałości działania algorytmów oraz danych, z których zostały wyszkolone; oraz ich potencjalny wpływ, w tym między innymi na godność ludzką, prawa człowieka i podstawowe wolności, równouprawnienie płci, demokrację, procesy społeczne, gospodarcze, polityczne i kulturowe, praktyki naukowe i inżynieryjne, dobrostan zwierząt oraz środowisko i ekosystemy,
Uznając również , że technologie sztucznej inteligencji mogą pogłębić istniejące podziały i nierówności na świecie, w obrębie krajów i między nimi, oraz że należy stać na straży sprawiedliwości, zaufania i uczciwości, aby żaden kraj ani nikt nie został pozostawiony w tyle, czy to poprzez sprawiedliwy dostęp do technologii sztucznej inteligencji i czerpania z nich korzyści lub ochrony przed ich negatywnymi skutkami, uznając jednocześnie różne okoliczności w różnych krajach i respektując pragnienie niektórych osób, by nie brać udziału we wszystkich zmianach technologicznych,
Świadomy faktu, że wszystkie kraje stoją w obliczu przyspieszenia wykorzystania technologii informacyjnych i komunikacyjnych oraz technologii sztucznej inteligencji, a także rosnącego zapotrzebowania na umiejętności korzystania z mediów i informacji oraz że gospodarka cyfrowa przedstawia ważne wyzwania i możliwości społeczne, gospodarcze i środowiskowe podziału korzyści, zwłaszcza dla krajów o niskich i średnich dochodach (LMIC), w tym między innymi krajów najsłabiej rozwiniętych (LDC), rozwijających się krajów śródlądowych (LLDC) i małych rozwijających się państw wyspiarskich (SIDS), wymagających uznania, ochrony oraz promowanie endogenicznych kultur, wartości i wiedzy w celu rozwoju zrównoważonych gospodarek cyfrowych,
Ponadto uznając , że technologie sztucznej inteligencji mogą być korzystne dla środowiska i ekosystemów oraz że aby te korzyści zostały zrealizowane, nie należy ignorować potencjalnych szkód i negatywnych skutków dla środowiska i ekosystemów, lecz raczej zająć się nimi,
Zauważając , że zajmowanie się zagrożeniami i kwestiami etycznymi nie powinno utrudniać innowacji i rozwoju, ale raczej stwarzać nowe możliwości i stymulować etycznie prowadzone badania i innowacje, które zakotwiczają technologie sztucznej inteligencji w prawach człowieka i podstawowych wolnościach, wartościach i zasadach oraz refleksji moralnej i etycznej,
Przypominając również , że w listopadzie 2019 r. Konferencja Generalna UNESCO na swojej 40. sesji przyjęła Rezolucję 40 C/37, w której upoważniła Dyrektora Generalnego do „przygotowania międzynarodowego instrumentu wyznaczającego standardy w zakresie etyki sztucznej inteligencji (AI ) w formie rekomendacji”, która ma zostać przedstawiona Konferencji Generalnej na jej 41. sesji w 2021 r.,
Uznając , że rozwój technologii sztucznej inteligencji wymaga proporcjonalnego wzrostu umiejętności korzystania z danych, mediów i informacji, a także dostępu do niezależnych, pluralistycznych i zaufanych źródeł informacji, w tym w ramach wysiłków na rzecz ograniczenia ryzyka dezinformacji, dezinformacji i mowy nienawiści oraz szkód spowodowane niewłaściwym wykorzystaniem danych osobowych,
Zauważając , że ramy normatywne dla technologii sztucznej inteligencji i ich implikacji społecznych opierają się na międzynarodowych i krajowych ramach prawnych, prawach człowieka i podstawowych wolnościach, etyce, potrzebie dostępu do danych, informacji i wiedzy, wolności badań i innowacji, prawach człowieka i środowisku i dobrostanu ekosystemów oraz łączy wartości i zasady etyczne z wyzwaniami i możliwościami związanymi z technologiami sztucznej inteligencji, w oparciu o wspólne zrozumienie i wspólne cele,
Uznając również , że wartości i zasady etyczne mogą pomóc w opracowaniu i wdrożeniu środków politycznych i norm prawnych opartych na prawach, dostarczając wskazówek z myślą o szybkim tempie rozwoju technologicznego,
Przekonany również , że przyjęte na całym świecie standardy etyczne dotyczące technologii sztucznej inteligencji, przy pełnym poszanowaniu prawa międzynarodowego, w szczególności prawa dotyczącego praw człowieka, mogą odegrać kluczową rolę w opracowywaniu norm związanych z sztuczną inteligencją na całym świecie,
Pamiętając Powszechna Deklaracja Praw Człowieka (1948), instrumenty międzynarodowych praw człowieka, w tym Konwencja dotycząca statusu uchodźców (1951), Konwencja dotycząca dyskryminacji (w zakresie zatrudnienia i wykonywania zawodu) (1958), Międzynarodowa konwencja w sprawie likwidacji wszelkich form dyskryminacji rasowej (1965), Międzynarodowy Pakt Praw Obywatelskich i Politycznych (1966), Międzynarodowy Pakt Praw Gospodarczych, Społecznych i Kulturalnych (1966), Konwencja w sprawie likwidacji wszelkich form dyskryminacji kobiet (1979 ), Konwencja o prawach dziecka (1989) oraz Konwencja o prawach osób niepełnosprawnych (2006), Konwencja przeciwko dyskryminacji w edukacji (1960), Konwencja w sprawie ochrony i promowania różnorodności kulturowej Wyrażenia (2005),jak również wszelkie inne stosowne instrumenty międzynarodowe, zalecenia i deklaracje,
Zauważając również Deklaracja Narodów Zjednoczonych w sprawie prawa do rozwoju (1986); Deklaracja o obowiązkach obecnych pokoleń wobec przyszłych pokoleń (1997); Powszechna Deklaracja w sprawie Bioetyki i Praw Człowieka (2005); Deklaracja Narodów Zjednoczonych w sprawie praw ludów tubylczych (2007); rezolucja Zgromadzenia Ogólnego Organizacji Narodów Zjednoczonych w sprawie przeglądu Światowego Szczytu Społeczeństwa Informacyjnego (A/RES/70/125) (2015); Rezolucja Zgromadzenia Ogólnego Narodów Zjednoczonych w sprawie przekształcenia naszego świata: Agenda na rzecz zrównoważonego rozwoju 2030 (A/RES/70/1) (2015); Zalecenie dotyczące zachowania i dostępu do Dziedzictwo dokumentalne, w tym w formie cyfrowej (2015); Deklaracja zasad etycznych w związku ze zmianami klimatycznymi (2017); zalecenie w sprawie nauki i naukowców (2017); wskaźniki uniwersalności Internetu (zatwierdzone przez Międzynarodowy Program Rozwoju Komunikacji UNESCO w 2018 r.), w tym zasady ROAM (zatwierdzone przez Konferencję Generalną UNESCO w 2015 r.); rezolucja Rady Praw Człowieka w sprawie „Prawa do prywatności w epoce cyfrowej” (A/HRC/RES/42/15) (2019); oraz rezolucja Rady Praw Człowieka w sprawie „Nowych i pojawiających się technologii cyfrowych i praw człowieka” (A/HRC/RES/41/11) (2019), w tym zasady ROAM (zatwierdzone przez Konferencję Generalną UNESCO w 2015 r.); rezolucja Rady Praw Człowieka w sprawie „Prawa do prywatności w epoce cyfrowej” (A/HRC/RES/42/15) (2019); oraz rezolucja Rady Praw Człowieka w sprawie „Nowych i pojawiających się technologii cyfrowych i praw człowieka” (A/HRC/RES/41/11) (2019), w tym zasady ROAM (zatwierdzone przez Konferencję Generalną UNESCO w 2015 r.); rezolucja Rady Praw Człowieka w sprawie „Prawa do prywatności w epoce cyfrowej” (A/HRC/RES/42/15) (2019); oraz rezolucja Rady Praw Człowieka w sprawie „Nowych i pojawiających się technologii cyfrowych i praw człowieka” (A/HRC/RES/41/11) (2019),
podkreślając , że szczególną uwagę należy zwrócić na kraje LMIC, w tym między innymi kraje najsłabiej rozwinięte, LLDC i SIDS, ponieważ dysponują one własnym potencjałem, ale są niedostatecznie reprezentowane w debacie na temat etyki SI, co budzi obawy dotyczące lekceważenia lokalnej wiedzy, pluralizmu kulturowego, systemów wartości oraz wymagania globalnej sprawiedliwości dotyczące radzenia sobie z pozytywnymi i negatywnymi skutkami technologii sztucznej inteligencji,
Mając również świadomość wielu istniejących polityk krajowych, innych ram i inicjatyw opracowanych przez odpowiednie jednostki Organizacji Narodów Zjednoczonych, organizacje międzyrządowe, w tym organizacje regionalne, jak również przez sektor prywatny, organizacje zawodowe, organizacje pozarządowe i społeczność naukową, związane do etyki i regulacji technologii sztucznej inteligencji,
Ponadto przekonany , że technologie sztucznej inteligencji mogą przynieść istotne korzyści, ale ich osiągnięcie może również zwiększyć napięcia wokół innowacji, asymetryczny dostęp do wiedzy i technologii, w tym deficyt umiejętności cyfrowych i obywatelskich, który ogranicza zdolność społeczeństwa do angażowania się w tematy związane z sztuczną inteligencją, a także jako bariery w dostępie do informacji i luki w zdolnościach, zdolnościach ludzkich i instytucjonalnych, bariery w dostępie do innowacji technologicznych oraz brak odpowiedniej infrastruktury fizycznej i cyfrowej oraz ram regulacyjnych, w tym związanych z danymi, z których wszystkimi należy się uporać,
podkreślając , że wzmocnienie globalnej współpracy i solidarności, w tym poprzez multilateralizm, jest potrzebne, aby ułatwić sprawiedliwy dostęp do technologii sztucznej inteligencji i sprostać wyzwaniom, jakie one stwarzają dla różnorodności i wzajemnych powiązań kultur i systemów etycznych, aby ograniczyć potencjalne nadużycia, w pełni wykorzystać potencjał jakie sztuczna inteligencja może przynieść, zwłaszcza w obszarze rozwoju, oraz dopilnowanie, by krajowe strategie SI kierowały się zasadami etycznymi,
Biorąc w pełni pod uwagę , że szybki rozwój technologii sztucznej inteligencji stanowi wyzwanie dla ich etycznego wdrażania i zarządzania, a także dla poszanowania i ochrony różnorodności kulturowej oraz może zakłócić lokalne i regionalne standardy i wartości etyczne,
1. Przyjmuje niniejsze Zalecenie w sprawie etyki sztucznej inteligencji w dniu dwudziestego trzeciego listopada 2021 r.;
2. Zaleca Państwom Członkowskim stosowanie na zasadzie dobrowolności postanowień niniejszego Zalecenia poprzez podjęcie odpowiednich kroków, w tym wszelkich środków legislacyjnych lub innych, które mogą być wymagane, zgodnie z praktyką konstytucyjną i strukturami zarządzającymi każdego Państwa, w celu wprowadzenia w życie w ramach ich jurysdykcji do zasad i norm Zalecenia zgodnie z prawem międzynarodowym, w tym międzynarodowym prawem dotyczącym praw człowieka;
3. zaleca również , aby państwa członkowskie zaangażowały wszystkie zainteresowane strony, w tym przedsiębiorstwa, w celu zapewnienia, że będą odgrywać swoje role we wdrażaniu niniejszego zalecenia; oraz skierować zalecenie do wiadomości władz, organów, organizacji badawczych i akademickich, instytucji i organizacji w sektorach publicznym, prywatnym i społeczeństwa obywatelskiego zaangażowanych w technologie sztucznej inteligencji, tak aby rozwój i wykorzystanie technologii sztucznej inteligencji opierało się zarówno na rzetelnych badaniach naukowych a także analizę i ocenę etyczną.
#
I. ZAKRES STOSOWANIA #
1. #
Niniejsze Zalecenie odnosi się do kwestii etycznych związanych z dziedziną sztucznej inteligencji w zakresie, w jakim wchodzą one w zakres mandatu UNESCO. Traktuje etykę sztucznej inteligencji jako systematyczną refleksję normatywną, opartą na holistycznych, wszechstronnych, wielokulturowych i ewoluujących ramach współzależnych wartości, zasad i działań, które mogą kierować społeczeństwami w odpowiedzialnym radzeniu sobie ze znanym i nieznanym wpływem technologii sztucznej inteligencji na ludzi, społeczeństwa i środowiska i ekosystemów oraz oferuje im podstawę do zaakceptowania lub odrzucenia technologii sztucznej inteligencji. Uznaje etykę za dynamiczną podstawę normatywnej oceny i wytycznych w zakresie technologii sztucznej inteligencji, odnosząc się do ludzkiej godności, dobrostanu i zapobiegania szkodom jako kompasu i jako zakorzenione w etyce nauki i technologii.
2. #
Niniejsze zalecenie nie ma na celu przedstawienia jednej definicji sztucznej inteligencji, ponieważ taka definicja musiałaby zmieniać się w czasie zgodnie z rozwojem technologicznym. Jego ambicją jest raczej zajęcie się tymi cechami systemów sztucznej inteligencji, które mają zasadnicze znaczenie etyczne. W związku z tym w niniejszym zaleceniu systemy sztucznej inteligencji traktuje się jako systemy, które mają zdolność przetwarzania danych i informacji w sposób przypominający inteligentne zachowanie i zazwyczaj obejmują aspekty rozumowania, uczenia się, postrzegania, przewidywania, planowania lub kontroli. Centralne miejsce w tym podejściu zajmują trzy elementy:
a) #
Systemy sztucznej inteligencji to technologie przetwarzania informacji, które integrują modele i algorytmy umożliwiające zdolność uczenia się i wykonywania zadań poznawczych prowadzących do takich wyników, jak przewidywanie i podejmowanie decyzji w środowiskach materialnych i wirtualnych. Systemy sztucznej inteligencji są zaprojektowane do działania z różnym stopniem autonomii za pomocą modelowania i reprezentacji wiedzy oraz wykorzystywania danych i obliczania korelacji. Systemy sztucznej inteligencji mogą obejmować kilka metod, takich jak między innymi:
(i) #
uczenie maszynowe, w tym uczenie głębokie i uczenie przez wzmacnianie;
II.
rozumowanie maszynowe, w tym planowanie, harmonogramowanie, reprezentacja i wnioskowanie wiedzy, wyszukiwanie i optymalizacja.
Systemy AI mogą być wykorzystywane w systemach cyberfizycznych, w tym w Internecie rzeczy, systemach robotycznych, robotyce społecznej i interfejsach człowiek-komputer, które obejmują kontrolę, percepcję, przetwarzanie danych zebranych przez czujniki oraz działanie elementów wykonawczych w środowisko, w którym działają systemy AI.
(b) #
Kwestie etyczne dotyczące systemów sztucznej inteligencji odnoszą się do wszystkich etapów cyklu życia systemu sztucznej inteligencji, rozumianego tutaj jako obejmujący zakres od badań, projektowania i rozwoju po wdrożenie i użytkowanie, w tym konserwację, eksploatację, handel, finansowanie, monitorowanie i ocenę, walidację, zakończenie -użytkowania, demontażu i zakończenia.
Ponadto podmioty AI można zdefiniować jako dowolne podmioty zaangażowane w co najmniej jeden etap cyklu życia systemu AI i mogą one odnosić się zarówno do osób fizycznych, jak i prawnych, takich jak badacze, programiści, inżynierowie, naukowcy zajmujący się danymi, użytkownicy końcowi, przedsiębiorstwa przedsiębiorstwa, uczelnie oraz podmioty publiczne i prywatne, m.in.
c) #
systemy sztucznej inteligencji wiążą się z nowymi rodzajami kwestii etycznych, które obejmują między innymi ich wpływ na podejmowanie decyzji, zatrudnienie i pracę, interakcje społeczne, opiekę zdrowotną, edukację, media, dostęp do informacji, przepaść cyfrową, dane osobowe i ochrony konsumentów, środowiska, demokracji, praworządności, bezpieczeństwa i policji, podwójnego zastosowania oraz praw człowieka i podstawowych wolności, w tym wolności wypowiedzi, prywatności i niedyskryminacji.
Ponadto potencjał algorytmów sztucznej inteligencji do powielania i wzmacniania istniejących uprzedzeń, a tym samym do zaostrzania już istniejących form dyskryminacji, uprzedzeń i stereotypów, stwarza nowe wyzwania etyczne.
Niektóre z tych kwestii są związane ze zdolnością systemów sztucznej inteligencji do wykonywania zadań, które wcześniej mogły wykonywać tylko żywe istoty, a w niektórych przypadkach były nawet ograniczone tylko do ludzi.
Te cechy nadają systemom sztucznej inteligencji głęboką, nową rolę w praktykach ludzkich i społeczeństwie, a także w ich relacjach ze środowiskiem i ekosystemami, tworząc nowy kontekst dla dzieci i młodzieży do dorastania, rozwijania zrozumienia świata i samych siebie , krytycznie rozumieć media i informacje oraz uczyć się podejmować decyzje.
W dłuższej perspektywie systemy sztucznej inteligencji mogą stanowić wyzwanie dla szczególnego ludzkiego poczucia doświadczenia i sprawczości, budząc dodatkowe obawy dotyczące między innymi samo rozumienia człowieka, interakcji społecznych, kulturowych i środowiskowych, autonomii, sprawczości, wartości i godności. rozwijać zrozumienie świata i siebie, krytycznie rozumieć media i informacje oraz uczyć się podejmować decyzje.
W dłuższej perspektywie systemy sztucznej inteligencji mogą stanowić wyzwanie dla szczególnego ludzkiego poczucia doświadczenia i sprawczości, budząc dodatkowe obawy dotyczące między innymi samo rozumienia człowieka, interakcji społecznych, kulturowych i środowiskowych, autonomii, sprawczości, wartości i godności. rozwijać zrozumienie świata i siebie, krytycznie rozumieć media i informacje oraz uczyć się podejmować decyzje.
W dłuższej perspektywie systemy sztucznej inteligencji mogą stanowić wyzwanie dla szczególnego ludzkiego poczucia doświadczenia i sprawczości, budząc dodatkowe obawy dotyczące między innymi samo rozumienia człowieka, interakcji społecznych, kulturowych i środowiskowych, autonomii, sprawczości, wartości i godności.
3. #
W niniejszym zaleceniu zwraca się szczególną uwagę na szersze implikacje etyczne systemów sztucznej inteligencji w odniesieniu do głównych dziedzin UNESCO: edukacji, nauki, kultury oraz komunikacji i informacji, zgodnie z badaniem wstępnym dotyczącym etyki sztucznej inteligencji z 2019 r. przeprowadzonym przez Światowa Komisja UNESCO ds. Etyki Wiedzy Naukowej i Technologii (COMEST):
(a) #
Edukacja, ponieważ życie w społeczeństwach cyfrowych wymaga nowych praktyk edukacyjnych, refleksji etycznej, krytycznego myślenia, odpowiedzialnych praktyk projektowych i nowych umiejętności, biorąc pod uwagę implikacje dla rynku pracy, zdolność do zatrudnienia i aktywność obywatelska.
(b) #
nauka, w najszerszym znaczeniu i obejmująca wszystkie dziedziny akademickie, od nauk przyrodniczych i medycznych po nauki społeczne i humanistyczne, ponieważ technologie sztucznej inteligencji przynoszą nowe możliwości i podejścia badawcze, mają wpływ na nasze koncepcje naukowego rozumienia i wyjaśniania oraz stworzyć nową podstawę do podejmowania decyzji.
c) #
Tożsamość kulturowa i różnorodność, ponieważ technologie sztucznej inteligencji mogą wzbogacić sektory kultury i branżę twórczą, ale mogą również prowadzić do zwiększonej koncentracji podaży treści kulturowych, danych, rynków i dochodów w rękach zaledwie kilku podmiotów, co może mieć negatywne konsekwencje na rzecz różnorodności i pluralizmu języków, mediów, form wyrazu kulturowego, uczestnictwa i równości.
d) #
komunikacja i informacja, ponieważ technologie sztucznej inteligencji odgrywają coraz ważniejszą rolę w przetwarzaniu, strukturyzacji i dostarczaniu informacji; zagadnienia zautomatyzowanego dziennikarstwa i algorytmicznego dostarczania wiadomości oraz moderowania i kuracji treści w mediach społecznościowych i wyszukiwarkach to tylko kilka przykładów poruszających kwestie związane z dostępem do informacji, dezinformacją, dezinformacją, mową nienawiści, pojawieniem się nowych form społecznych narracji, dyskryminacji, wolności wypowiedzi, prywatności oraz umiejętności korzystania z mediów i informacji.
4. #
Niniejsze zalecenie jest skierowane do państw członkowskich, zarówno jako podmiotów zajmujących się sztuczną inteligencją, jak i organów odpowiedzialnych za opracowywanie ram prawnych i regulacyjnych w całym cyklu życia systemu SI oraz za promowanie odpowiedzialności biznesowej. Zapewnia również wytyczne etyczne wszystkim podmiotom zajmującym się sztuczną inteligencją, w tym sektorowi publicznemu i prywatnemu, zapewniając podstawę do etycznej oceny skutków systemów sztucznej inteligencji w całym ich cyklu życia.
II. CELE I ZADANIA #
5. #
Niniejsze zalecenie ma na celu zapewnienie podstaw, aby systemy sztucznej inteligencji działały dla dobra ludzkości, jednostek, społeczeństw oraz środowiska i ekosystemów, a także aby zapobiegać szkodom. Ma również na celu stymulowanie pokojowego wykorzystania systemów sztucznej inteligencji.
6. #
Oprócz istniejących ram etycznych dotyczących sztucznej inteligencji na całym świecie niniejsze zalecenie ma na celu wprowadzenie akceptowanego na całym świecie instrumentu normatywnego, który koncentruje się nie tylko na wyrażaniu wartości i zasad, ale także na ich praktycznej realizacji, poprzez konkretne zalecenia polityczne, z silny nacisk na kwestie włączenia, równości płci oraz ochrony środowiska i ekosystemów.
7. #
Ponieważ złożoność kwestii etycznych związanych z SI wymaga współpracy wielu zainteresowanych stron na różnych poziomach i sektorach społeczności międzynarodowych, regionalnych i krajowych, niniejsze zalecenie ma na celu umożliwienie zainteresowanym stronom przyjęcia wspólnej odpowiedzialności w oparciu o globalny i międzykulturowy dialog.
8. #
Cele niniejszego Zalecenia są następujące:
(a) #
zapewnienie uniwersalnych ram wartości, zasad i działań, które będą kierować państwami przy formułowaniu ich ustawodawstwa, polityk lub innych instrumentów dotyczących sztucznej inteligencji, zgodnych z prawem międzynarodowym;
b) #
kierowanie działaniami jednostek, grup, społeczności, instytucji i przedsiębiorstw sektora prywatnego w celu zapewnienia zakorzenienia etyki na wszystkich etapach cyklu życia systemu sztucznej inteligencji;
c) #
ochrona, propagowanie i poszanowanie praw człowieka i podstawowych wolności, godności ludzkiej i równości, w tym równości płci; chronić interesy obecnych i przyszłych pokoleń; zachowanie środowiska, różnorodności biologicznej i ekosystemów; oraz szanować różnorodność kulturową na wszystkich etapach cyklu życia systemu SI;
d) #
wspieranie wielopodmiotowego, multidyscyplinarnego i pluralistycznego dialogu i budowania konsensusu w kwestiach etycznych związanych z systemami sztucznej inteligencji;
e) #
promowanie równego dostępu do rozwoju i wiedzy w dziedzinie sztucznej inteligencji oraz podziału korzyści, ze szczególnym uwzględnieniem potrzeb i wkładu LMIC, w tym LDC, LLDC i SIDS.
III. WARTOŚCI I ZASADY #
9. #
Wymienione poniżej wartości i zasady powinny być przede wszystkim respektowane przez wszystkie podmioty w cyklu życia systemu SI, a tam, gdzie jest to konieczne i właściwe, promowane poprzez zmiany w istniejących i opracowywanie nowych przepisów, regulacji i wytycznych biznesowych. Musi to być zgodne z prawem międzynarodowym, w tym z Kartą Narodów Zjednoczonych i zobowiązaniami państw członkowskich w zakresie praw człowieka, oraz z uzgodnionymi na szczeblu międzynarodowym celami społecznymi, politycznymi, środowiskowymi, edukacyjnymi, naukowymi i gospodarczymi dotyczącymi zrównoważonego rozwoju, takimi jak cele zrównoważonego rozwoju Organizacji Narodów Zjednoczonych (Cele zrównoważonego rozwoju).
10. #
Wartości odgrywają potężną rolę jako motywujące ideały w kształtowaniu środków politycznych i norm prawnych. Podczas gdy zestaw wartości nakreślony poniżej inspiruje pożądane zachowania i stanowi podstawę zasad, zasady rozwijają wartości leżące u ich podstaw w sposób bardziej konkretny, dzięki czemu wartości te mogą być łatwiej zoperacjonalizowane w deklaracjach politycznych i działaniach.
11. #
Chociaż wszystkie przedstawione poniżej wartości i zasady są pożądane same w sobie, w każdym praktycznym kontekście mogą wystąpić napięcia między tymi wartościami i zasadami. W każdej sytuacji konieczna będzie ocena kontekstowa, aby poradzić sobie z potencjalnymi napięciami, z uwzględnieniem zasady proporcjonalności i zgodnie z prawami człowieka i podstawowymi wolnościami. We wszystkich przypadkach wszelkie możliwe ograniczenia praw człowieka i podstawowych wolności muszą mieć podstawę prawną oraz być rozsądne, konieczne i proporcjonalne oraz zgodne z zobowiązaniami państw wynikającymi z prawa międzynarodowego. Rozsądne poruszanie się po takich scenariuszach zazwyczaj wymaga zaangażowania szerokiego grona odpowiednich interesariuszy, wykorzystania dialogu społecznego, a także rozważań etycznych, należytej staranności i oceny skutków.
12. #
Wiarygodność i integralność cyklu życia systemów sztucznej inteligencji ma zasadnicze znaczenie dla zapewnienia, by technologie sztucznej inteligencji działały dla dobra ludzkości, jednostek, społeczeństw oraz środowiska i ekosystemów oraz były zgodne z wartościami i zasadami określonymi w niniejszym zaleceniu. Ludzie powinni mieć uzasadnione powody, by ufać, że systemy sztucznej inteligencji mogą przynieść indywidualne i wspólne korzyści, przy jednoczesnym podejmowaniu odpowiednich środków w celu ograniczenia ryzyka. Zasadniczym wymogiem wiarygodności jest to, aby przez cały cykl życia systemy sztucznej inteligencji podlegały dokładnemu monitorowaniu przez odpowiednie zainteresowane strony. Ponieważ wiarygodność jest wynikiem operacjonalizacji zasad zawartych w niniejszym dokumencie, wszystkie działania polityczne zaproponowane w niniejszym zaleceniu mają na celu promowanie wiarygodności na wszystkich etapach cyklu życia systemu SI.
III.1 WARTOŚCI #
Poszanowanie, ochrona i promowanie praw człowieka i podstawowych wolności oraz godności ludzkiej #
13. #
Nienaruszalna i przyrodzona godność każdego człowieka stanowi podstawę powszechnego, niepodzielnego, niezbywalnego, współzależnego i wzajemnie powiązanego systemu praw człowieka i podstawowych wolności. W związku z tym poszanowanie, ochrona i propagowanie godności i praw człowieka ustanowionych w prawie międzynarodowym, w tym w międzynarodowym prawie dotyczącym praw człowieka, ma zasadnicze znaczenie w całym cyklu życia systemów sztucznej inteligencji. Godność ludzka odnosi się do uznania wewnętrznej i równej wartości każdego człowieka, bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia lub niepełnosprawności oraz wszelkich innych powodów.
14. #
Żadna istota ludzka ani społeczność ludzka nie powinna doznawać krzywdy ani być podporządkowana fizycznie, ekonomicznie, społecznie, politycznie, kulturowo lub psychicznie na jakimkolwiek etapie cyklu życia systemów sztucznej inteligencji. W całym cyklu życia systemów sztucznej inteligencji należy poprawiać jakość życia ludzi, natomiast definicję „jakości życia” należy pozostawić otwartą dla jednostek lub grup, o ile nie dochodzi do łamania lub nadużywania praw człowieka i podstawowych wolności lub godności człowieka w rozumieniu tej definicji.
15. #
Osoby mogą wchodzić w interakcje z systemami sztucznej inteligencji przez cały cykl życia i otrzymywać od nich pomoc, taką jak opieka nad osobami wymagającymi szczególnego traktowania lub osobami znajdującymi się w trudnej sytuacji, w tym między innymi dziećmi, osobami starszymi, osobami niepełnosprawnymi lub chorymi. W ramach takich interakcji nigdy nie należy uprzedmiotawiać osób ani w inny sposób podważać ich godności, a także naruszać lub nadużywać praw człowieka i podstawowych wolności.
16. #
Prawa człowieka i podstawowe wolności muszą być szanowane, chronione i propagowane przez cały cykl życia systemów SI. Rządy, sektor prywatny, społeczeństwo obywatelskie, organizacje międzynarodowe, społeczności techniczne i środowisko akademickie muszą przestrzegać instrumentów i ram praw człowieka podczas swoich interwencji w procesy otaczające cykl życia systemów sztucznej inteligencji. Nowe technologie muszą zapewniać nowe środki do obrony i egzekwowania praw człowieka, a nie do ich naruszania.
Rozkwit środowiska i ekosystemu #
17. #
Rozkwit środowiska i ekosystemów powinien być uznawany, chroniony i promowany przez cały cykl życia systemów sztucznej inteligencji. Ponadto środowisko i ekosystemy są egzystencjalną koniecznością ludzkości i innych żywych istot, aby móc czerpać korzyści z postępu w sztucznej inteligencji.
18. #
Wszystkie podmioty zaangażowane w cykl życia systemów sztucznej inteligencji muszą przestrzegać obowiązującego prawa międzynarodowego i ustawodawstwa krajowego, norm i praktyk, takich jak środki ostrożności, mających na celu ochronę i odbudowę środowiska i ekosystemów oraz zrównoważony rozwój. Powinny ograniczać wpływ systemów sztucznej inteligencji na środowisko, w tym między innymi ślad węglowy, aby zapewnić minimalizację zmiany klimatu i środowiskowych czynników ryzyka oraz zapobiegać niezrównoważonej eksploatacji, wykorzystaniu i przekształcaniu zasobów naturalnych, przyczyniając się do pogorszenia stanu środowiska i degradację ekosystemów.
Zapewnienie różnorodności i integracji #
19. #
Należy zapewnić poszanowanie, ochronę i propagowanie różnorodności i inkluzywności przez cały cykl życia systemów SI, zgodnie z prawem międzynarodowym, w tym prawami dotyczącymi praw człowieka. Można to osiągnąć poprzez promowanie aktywnego uczestnictwa wszystkich osób lub grup bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia lub niepełnosprawność i wszelkie inne podstawy.
20. #
Zakres wyborów dotyczących stylu życia, przekonań, opinii, wyrażeń lub osobistych doświadczeń, w tym opcjonalnego korzystania z systemów sztucznej inteligencji i współprojektowania tych architektur, nie powinien być ograniczany na żadnym etapie cyklu życia systemów sztucznej inteligencji.
21. #
Ponadto należy podejmować wysiłki, w tym współpracę międzynarodową, w celu przezwyciężenia, a nigdy nie wykorzystywania braku niezbędnej infrastruktury technologicznej, edukacji i umiejętności, a także ram prawnych, zwłaszcza w krajach LMIC, LDC, LLDC i SIDS, co ma wpływ na społeczności.
Życie w pokojowych, sprawiedliwych i połączonych społeczeństwach #
22. #
Podmioty zajmujące się sztuczną inteligencją powinny odgrywać rolę partycypacyjną i wspomagającą, aby zapewnić pokojowe i sprawiedliwe społeczeństwa, które opierają się na wzajemnie powiązanej przyszłości dla dobra wszystkich, zgodnie z prawami człowieka i podstawowymi wolnościami. Wartość życia w pokojowych i sprawiedliwych społeczeństwach wskazuje na potencjał systemów sztucznej inteligencji w zakresie przyczyniania się przez cały cykl ich życia do wzajemnych powiązań wszystkich żywych stworzeń między sobą i ze środowiskiem naturalnym.
23. #
Koncepcja wzajemnego powiązania ludzi opiera się na wiedzy, że każdy człowiek należy do większej całości, która rozwija się, gdy wszystkie jej części składowe mogą się rozwijać. Życie w pokojowych, sprawiedliwych i wzajemnie powiązanych społeczeństwach wymaga organicznej, bezpośredniej, nieprzemyślanej więzi solidarności, charakteryzującej się nieustannym poszukiwaniem pokojowych stosunków, zmierzających do troski o innych i szeroko rozumianego środowiska naturalnego.
24. #
Ta wartość wymaga promowania pokoju, inkluzywności i sprawiedliwości, równości i wzajemnych powiązań w całym cyklu życia systemów sztucznej inteligencji, o ile procesy cyklu życia systemów sztucznej inteligencji nie powinny segregować, obiektywizować ani podważać wolności i autonomicznych decyzji -tworzenie oraz bezpieczeństwo ludzi i społeczności, dzielą i zwracają jednostki i grupy przeciwko sobie lub zagrażają współistnieniu ludzi, innych istot żywych i środowiska naturalnego.
III.2 ZASADY #
Proporcjonalność i nie szkodzić #
25. #
Należy uznać, że technologie sztucznej inteligencji same w sobie niekoniecznie zapewniają rozkwit ludzi, środowiska i ekosystemów. Ponadto żaden z procesów związanych z cyklem życia systemu AI nie może wykraczać poza to, co jest konieczne do osiągnięcia uzasadnionych celów lub zadań i powinien być odpowiedni do kontekstu. W przypadku możliwości wystąpienia jakichkolwiek szkód dla ludzi, praw człowieka i podstawowych wolności, ogółu społeczności i społeczeństwa lub środowiska i ekosystemów, wdrożenie procedur oceny ryzyka i podjęcie działań w celu wykluczenia wystąpienia takich szkód należy zapewnić szkodę.
26. #
Decyzję o wykorzystaniu systemów sztucznej inteligencji i wybraną metodę sztucznej inteligencji należy uzasadnić w następujący sposób: a) wybrana metoda sztucznej inteligencji powinna być odpowiednia i proporcjonalna do osiągnięcia danego uzasadnionego celu; (b) wybrana metoda sztucznej inteligencji nie powinna naruszać fundamentalnych wartości ujętych w niniejszym dokumencie, w szczególności jej stosowanie nie może naruszać ani nadużywać praw człowieka; oraz c) metoda sztucznej inteligencji powinna być odpowiednia do kontekstu i oparta na rygorystycznych podstawach naukowych. W scenariuszach, w których uznaje się, że decyzje mają nieodwracalny lub trudny do odwrócenia wpływ lub mogą wiązać się z decyzjami dotyczącymi życia i śmierci, zastosowanie powinna mieć ostateczna determinacja człowieka. W szczególności systemy sztucznej inteligencji nie powinny być wykorzystywane do celów oceny społecznej ani do celów masowej inwigilacji.
Bezpieczeństwo i ochrona #
27. #
Należy unikać niepożądanych szkód (zagrożenia dla bezpieczeństwa), a także podatności na ataki (zagrożenia dla bezpieczeństwa), a także reagować na nie, zapobiegać im i eliminować je w całym cyklu życia systemów sztucznej inteligencji, aby zapewnić bezpieczeństwo i ochronę ludzi, środowiska i ekosystemów. Bezpieczna sztuczna inteligencja będzie możliwa dzięki opracowaniu zrównoważonych ram dostępu do danych chroniących prywatność, które sprzyjają lepszemu szkoleniu i walidacji modeli sztucznej inteligencji wykorzystujących wysokiej jakości dane.
Uczciwość i niedyskryminacja #
28. #
Podmioty zajmujące się SI powinny promować sprawiedliwość społeczną oraz chronić sprawiedliwość i niedyskryminację jakiegokolwiek rodzaju zgodnie z prawem międzynarodowym.
Oznacza to integracyjne podejście do zapewnienia, aby korzyści płynące z technologii sztucznej inteligencji były dostępne i dostępne dla wszystkich, z uwzględnieniem szczególnych potrzeb różnych grup wiekowych, systemów kulturowych, różnych grup językowych, osób niepełnosprawnych, dziewcząt i kobiet oraz osób znajdujących się w niekorzystnej sytuacji, marginalizowanych i osób znajdujących się w trudnej sytuacji lub osób znajdujących się w trudnej sytuacji.
Państwa członkowskie powinny działać na rzecz promowania integracyjnego dostępu dla wszystkich, w tym społeczności lokalnych, do systemów SI z lokalnymi treściami i usługami oraz z poszanowaniem wielojęzyczności i różnorodności kulturowej. Państwa członkowskie powinny działać na rzecz rozwiązania problemu przepaści cyfrowej i zapewnienia sprzyjającego włączeniu społecznemu dostępu do sztucznej inteligencji i udziału w jej rozwoju.
Na szczeblu krajowym państwa członkowskie powinny promować równość między obszarami wiejskimi i miejskimi oraz wśród wszystkich osób bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, pochodzenie narodowe, etniczne, społeczne, ekonomiczne lub społeczne warunki urodzenia lub niepełnosprawność oraz wszelkie inne przesłanki w zakresie dostępu i uczestnictwa w cyklu życia systemu SI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej.
Państwa członkowskie powinny promować równość między obszarami wiejskimi i miejskimi oraz wśród wszystkich osób bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia, lub niepełnosprawność oraz wszelkie inne przesłanki związane z dostępem i uczestnictwem w cyklu życia systemu SI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej.
Państwa członkowskie powinny promować równość między obszarami wiejskimi i miejskimi oraz wśród wszystkich osób bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia, lub niepełnosprawność oraz wszelkie inne przesłanki związane z dostępem i uczestnictwem w cyklu życia systemu SI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej. oraz wśród wszystkich osób bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia, niepełnosprawność i wszelkie inne przyczyny, w zakresie dostępu i udział w cyklu życia systemu AI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej. oraz wśród wszystkich osób bez względu na rasę, kolor skóry, pochodzenie, płeć, wiek, język, religię, przekonania polityczne, narodowość, pochodzenie etniczne, pochodzenie społeczne, sytuację ekonomiczną lub społeczną urodzenia, niepełnosprawność i wszelkie inne przyczyny, w zakresie dostępu i udział w cyklu życia systemu AI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej. ekonomiczne lub społeczne warunki urodzenia lub niepełnosprawność oraz wszelkie inne przesłanki związane z dostępem i uczestnictwem w cyklu życia systemu SI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej. ekonomiczne lub społeczne warunki urodzenia lub niepełnosprawność oraz wszelkie inne przesłanki związane z dostępem i uczestnictwem w cyklu życia systemu SI.
Na szczeblu międzynarodowym kraje najbardziej zaawansowane technologicznie są zobowiązane do solidarności z krajami najmniej zaawansowanymi, aby zapewnić podział korzyści płynących z technologii sztucznej inteligencji, tak aby dostęp tych ostatnich do cyklu życia systemu sztucznej inteligencji i uczestnictwo w nim przyczyniał się do bardziej sprawiedliwego porządku światowego w odniesieniu do informacji, komunikacji, kultury, edukacji, badań oraz stabilności społeczno-gospodarczej i politycznej.
29. #
Podmioty zajmujące się sztuczną inteligencją powinny dołożyć wszelkich rozsądnych starań, aby zminimalizować i unikać wzmacniania lub utrwalania dyskryminujących lub stronniczych zastosowań i wyników w całym cyklu życia systemu sztucznej inteligencji, aby zapewnić uczciwość takich systemów. Powinny być dostępne skuteczne środki zaradcze przeciwko dyskryminacji i stronniczym determinacjom algorytmicznym.
30. #
Ponadto należy zająć się podziałami cyfrowymi i dzielącymi wiedzę w obrębie krajów i między nimi przez cały cykl życia systemu SI, w tym pod względem dostępu i jakości dostępu do technologii i danych, zgodnie z odpowiednimi krajowymi, regionalnymi i międzynarodowymi ramami prawnymi, jak jak również pod względem łączności, wiedzy i umiejętności oraz znaczącego udziału dotkniętych społeczności, tak aby każda osoba była traktowana sprawiedliwie.
Zrównoważony rozwój #
31. #
Rozwój zrównoważonych społeczeństw opiera się na osiągnięciu złożonego zestawu celów w kontinuum wymiaru ludzkiego, społecznego, kulturowego, gospodarczego i środowiskowego. Pojawienie się technologii sztucznej inteligencji może sprzyjać celom zrównoważonego rozwoju lub utrudniać ich realizację, w zależności od tego, w jaki sposób są one stosowane w różnych krajach o różnym poziomie rozwoju. Ciągłą ocenę wpływu technologii sztucznej inteligencji na ludzi, społeczeństwo, kulturę, gospodarkę i środowisko należy zatem przeprowadzać z pełnym uwzględnieniem wpływu technologii sztucznej inteligencji na zrównoważony rozwój jako zestawu stale zmieniających się celów w różnych wymiarach, takich jak obecnie określone w Celach Zrównoważonego Rozwoju (SDG) Organizacji Narodów Zjednoczonych.
Prawo do prywatności i ochrony danych #
32. #
Prywatność, prawo niezbędne do ochrony godności ludzkiej, autonomii i sprawczości człowieka, musi być szanowana, chroniona i promowana przez cały cykl życia systemów sztucznej inteligencji. Ważne jest, aby dane dotyczące systemów sztucznej inteligencji były gromadzone, wykorzystywane, udostępniane, archiwizowane i usuwane w sposób zgodny z prawem międzynarodowym oraz zgodnie z wartościami i zasadami określonymi w niniejszym zaleceniu, przy jednoczesnym poszanowaniu odpowiednich krajowych, regionalnych i międzynarodowych ram prawnych .
33. #
Należy ustanowić odpowiednie ramy ochrony danych i mechanizmy zarządzania w ramach wielostronnego podejścia na szczeblu krajowym lub międzynarodowym, które powinny być chronione przez systemy sądowe i zapewniane przez cały cykl życia systemów sztucznej inteligencji.
Ramy ochrony danych i wszelkie powiązane mechanizmy powinny odnosić się do międzynarodowych zasad i standardów ochrony danych dotyczących gromadzenia, wykorzystywania i ujawniania danych osobowych oraz wykonywania praw przez osoby, których dane dotyczą, przy jednoczesnym zapewnieniu uzasadnionego celu i ważnej podstawy prawnej przetwarzania danych osobowych danych, w tym świadomej zgody.
34. #
Systemy algorytmiczne wymagają odpowiednich ocen wpływu na prywatność, które obejmują również względy społeczne i etyczne związane z ich użytkowaniem oraz innowacyjne podejście do ochrony prywatności już w fazie projektowania.
Podmioty zajmujące się sztuczną inteligencją muszą zapewnić, że są odpowiedzialne za projektowanie i wdrażanie systemów sztucznej inteligencji w taki sposób, aby zapewnić ochronę danych osobowych przez cały cykl życia systemu sztucznej inteligencji.
Ludzki nadzór i determinacja #
35. #
Państwa członkowskie powinny zapewnić, aby zawsze istniała możliwość przypisania odpowiedzialności etycznej i prawnej za każdy etap cyklu życia systemów sztucznej inteligencji, a także w przypadkach środków zaradczych związanych z systemami sztucznej inteligencji, osobom fizycznym lub istniejącym podmiotom prawnym.
Nadzór ze strony człowieka odnosi się zatem nie tylko do indywidualnego nadzoru ze strony człowieka, ale także, w stosownych przypadkach, do obejmującego wszystkich nadzoru publicznego.
36. #
Może się zdarzyć, że czasami ludzie zdecydują się polegać na systemach sztucznej inteligencji ze względu na ich skuteczność, ale decyzja o scedowaniu kontroli w ograniczonych kontekstach należy do ludzi, ponieważ ludzie mogą uciekać się do systemów sztucznej inteligencji przy podejmowaniu decyzji i działaniach, ale system sztucznej inteligencji nigdy nie zastąpi ostatecznej ludzkiej odpowiedzialności i odpowiedzialności.
Z zasady decyzje dotyczące życia i śmierci nie powinny być scedowane na systemy AI.
Przejrzystość i zrozumiałość #
37. #
Przejrzystość i zrozumiałość systemów sztucznej inteligencji są często niezbędnymi warunkami wstępnymi zapewnienia poszanowania, ochrony i propagowania praw człowieka, podstawowych wolności i zasad etycznych.
Przejrzystość jest niezbędna do skutecznego działania odpowiednich krajowych i międzynarodowych systemów odpowiedzialności. Brak przejrzystości mógłby również osłabić możliwość skutecznego kwestionowania decyzji opartych na wynikach uzyskanych przez systemy sztucznej inteligencji, a tym samym może naruszać prawo do rzetelnego procesu i skutecznego środka odwoławczego oraz ograniczać obszary, w których systemy te mogą być legalnie wykorzystywane.
38. #
Chociaż należy dołożyć starań, aby zwiększyć przejrzystość i wytłumaczalność systemów sztucznej inteligencji, w tym systemów o skutkach eksterytorialnych, w całym ich cyklu życia, aby wspierać demokratyczne rządy, poziom przejrzystości i możliwości wyjaśnienia powinien zawsze być odpowiedni do kontekstu i wpływu, ponieważ może zaistnieć potrzeba zrównoważenia między przejrzystością i zrozumiałością a innymi zasadami, takimi jak prywatność, bezpieczeństwo i ochrona.
Ludzie powinni być w pełni informowani, gdy decyzja jest podejmowana w oparciu o algorytmy AI, w tym gdy ma to wpływ na ich bezpieczeństwo lub prawa człowieka, i w takich okolicznościach powinni mieć możliwość zażądania informacji wyjaśniających od odpowiedniego podmiotu zajmującego się sztuczną inteligencją lub opinii publicznej instytucje branżowe.
Ponadto osoby fizyczne powinny mieć możliwość dostępu do uzasadnienia decyzji mającej wpływ na ich prawa i wolności, oraz mają możliwość złożenia uwag do wyznaczonego członka personelu firmy sektora prywatnego lub instytucji sektora publicznego, który jest w stanie zweryfikować i poprawić decyzję.
Podmioty zajmujące się sztuczną inteligencją powinny we właściwy i terminowy sposób informować użytkowników o dostarczaniu produktu lub usługi bezpośrednio lub przy pomocy systemów sztucznej inteligencji.
39. #
Patrząc z perspektywy społeczno-technicznej, większa przejrzystość przyczynia się do powstania bardziej pokojowych, sprawiedliwych, demokratycznych i integracyjnych społeczeństw.
Pozwala na kontrolę publiczną, która może zmniejszyć korupcję i dyskryminację, a także może pomóc w wykrywaniu negatywnych skutków dla praw człowieka i zapobieganiu im.
Przejrzystość ma na celu dostarczenie odpowiednich informacji odpowiednim adresatom, aby umożliwić ich zrozumienie i wzbudzić zaufanie. Specyficzna dla systemu sztucznej inteligencji przejrzystość może umożliwić ludziom zrozumienie, w jaki sposób wdrażany jest każdy etap systemu sztucznej inteligencji, odpowiednio do kontekstu i wrażliwości systemu sztucznej inteligencji. Może również obejmować wgląd w czynniki, które mają wpływ na konkretną prognozę lub decyzję oraz czy istnieją odpowiednie gwarancje (takie jak środki bezpieczeństwa lub uczciwości).
W przypadkach poważnego zagrożenia negatywnymi skutkami dla praw człowieka,
40. #
Wyjaśnialność odnosi się do uczynienia zrozumiałym i zapewniającym wgląd w wyniki systemów sztucznej inteligencji. Wyjaśnialność systemów sztucznej inteligencji odnosi się również do zrozumiałości danych wejściowych, wyjściowych i funkcjonowania każdego algorytmicznego elementu konstrukcyjnego oraz tego, w jaki sposób przyczynia się on do wyników systemów.
Zatem wyjaśnialność jest ściśle związana z przejrzystością, ponieważ wyniki i podprocesy prowadzące do wyników powinny dążyć do tego, aby były zrozumiałe i identyfikowalne, adekwatne do kontekstu.
Podmioty zajmujące się sztuczną inteligencją powinny zobowiązać się do zapewnienia, aby opracowywane algorytmy były zrozumiałe.
W przypadku zastosowań sztucznej inteligencji, które wpływają na użytkownika końcowego w sposób, który nie jest tymczasowy, łatwo odwracalny lub w inny sposób wiąże się z niskim ryzykiem,
41. #
Przejrzystość i zrozumiałość są ściśle związane z odpowiednimi środkami w zakresie odpowiedzialności i rozliczalności, a także z wiarygodnością systemów sztucznej inteligencji.
Odpowiedzialność i odpowiedzialność #
42. #
Podmioty zajmujące się AI i państwa członkowskie powinny szanować, chronić i propagować prawa człowieka i podstawowe wolności, a także promować ochronę środowiska i ekosystemów, przyjmując na siebie odpowiednią odpowiedzialność etyczną i prawną, zgodnie z prawem krajowym i międzynarodowym, w szczególności z prawem państw członkowskich
Obowiązki państw w zakresie praw człowieka oraz wytyczne etyczne w całym cyklu życia systemów sztucznej inteligencji, w tym w odniesieniu do podmiotów zajmujących się sztuczną inteligencją na ich faktycznym terytorium i pod ich kontrolą.
Odpowiedzialność etyczna i odpowiedzialność za decyzje i działania oparte w jakikolwiek sposób na systemie sztucznej inteligencji powinny zawsze ostatecznie przypisywać podmiotom zajmującym się sztuczną inteligencją odpowiednio do ich roli w cyklu życia systemu sztucznej inteligencji.
43. #
Należy opracować odpowiednie mechanizmy nadzoru, oceny skutków, audytu i należytej staranności, w tym ochronę sygnalistów, aby zapewnić rozliczalność systemów sztucznej inteligencji i ich wpływu przez cały cykl ich życia.
Zarówno projekty techniczne, jak i instytucjonalne powinny zapewniać możliwość kontroli i identyfikowalność (działania) systemów sztucznej inteligencji, w szczególności w celu rozwiązania wszelkich konfliktów z normami i standardami w zakresie praw człowieka oraz zagrożeń dla dobrostanu środowiska i ekosystemu.
Świadomość i umiejętność czytania i pisania #
44. Należy propagować świadomość społeczną i zrozumienie technologii sztucznej inteligencji oraz wartości danych poprzez otwartą i dostępną edukację, zaangażowanie obywatelskie, szkolenia w zakresie umiejętności cyfrowych i etyki SI, umiejętności korzystania z mediów i informacji oraz szkolenia prowadzone wspólnie przez rządy, organizacje międzyrządowe, społeczeństwo obywatelskie, środowiska akademickiego, mediów, liderów społeczności i sektora prywatnego, a także biorąc pod uwagę istniejącą różnorodność językową, społeczną i kulturową, w celu zapewnienia skutecznego udziału społeczeństwa, tak aby wszyscy członkowie społeczeństwa mogli podejmować świadome decyzje dotyczące korzystania z systemów sztucznej inteligencji i byli chronieni przed niepożądanymi wpływami .
45. #
Poznawanie wpływu systemów sztucznej inteligencji powinno obejmować uczenie się o prawach człowieka i podstawowych wolnościach oraz za ich pośrednictwem, co oznacza, że podejście i rozumienie systemów sztucznej inteligencji powinno opierać się na ich wpływie na prawa człowieka i dostęp do praw, a także na środowisko i ekosystemy.
Wielostronne i adaptacyjne zarządzanie i współpraca #
46. #
Przy wykorzystywaniu danych należy przestrzegać prawa międzynarodowego i suwerenności narodowej.
Oznacza to, że państwa, przestrzegając prawa międzynarodowego, mogą regulować dane generowane na ich terytoriach lub przez nie przechodzą oraz podejmować środki w kierunku skutecznej regulacji danych, w tym ochrony danych, w oparciu o poszanowanie prawa do prywatności zgodnie z prawem międzynarodowym i innymi normy i standardy praw człowieka.
47. #
Udział różnych zainteresowanych stron w całym cyklu życia systemu sztucznej inteligencji jest niezbędny do integracyjnego podejścia do zarządzania SI, umożliwiającego wszystkim czerpanie korzyści i przyczynianie się do zrównoważonego rozwoju.
Zainteresowane strony obejmują między innymi rządy, organizacje międzyrządowe, społeczność techniczną, społeczeństwo obywatelskie, naukowców i środowisko akademickie, media, edukację, decydentów, firmy sektora prywatnego, instytucje praw człowieka i organy ds. równości, organy monitorujące działania antydyskryminacyjne i grupy dla młodzieży i dzieci.
Należy przyjąć otwarte standardy i interoperacyjność w celu ułatwienia współpracy.
Należy przyjąć środki uwzględniające zmiany technologiczne, pojawienie się nowych grup zainteresowanych stron oraz umożliwiające znaczący udział grup zmarginalizowanych,
IV. OBSZARY DZIAŁANIA POLITYKI #
48. #
Działania polityczne opisane w poniższych obszarach polityki stanowią operacjonalizację wartości i zasad określonych w niniejszym zaleceniu.
Główne działanie polega na wprowadzeniu przez państwa członkowskie skutecznych środków, w tym na przykład ram lub mechanizmów polityki, oraz dopilnowaniu, aby inne zainteresowane strony, takie jak przedsiębiorstwa sektora prywatnego, instytucje akademickie i badawcze oraz społeczeństwo obywatelskie, stosowały się do nich poprzez: między innymi zachęcanie wszystkich zainteresowanych stron do rozwijania praw człowieka, praworządności, demokracji i oceny skutków etycznych oraz narzędzi należytej staranności zgodnie z wytycznymi, w tym Wytycznymi Organizacji Narodów Zjednoczonych dotyczącymi biznesu i praw człowieka.
Proces opracowywania takich polityk lub mechanizmów powinien obejmować wszystkie zainteresowane strony i powinien uwzględniać okoliczności i priorytety każdego państwa członkowskiego.
49. #
UNESCO uznaje, że państwa członkowskie będą na różnych etapach gotowości do wdrożenia niniejszego Zalecenia, pod względem wymiaru naukowego, technologicznego, ekonomicznego, edukacyjnego, prawnego, regulacyjnego, infrastrukturalnego, społecznego, kulturowego i innych. Należy zauważyć, że „gotowość” jest tutaj stanem dynamicznym.
Aby umożliwić skuteczne wdrożenie niniejszego Zalecenia, UNESCO:
(1) #
opracuje metodologię oceny gotowości, aby pomóc zainteresowanym Państwom Członkowskim w określeniu ich statusu w określonych momentach trajektorii gotowości wzdłuż kontinuum wymiarów; oraz
(2) #
zapewnić wsparcie dla zainteresowanych państw członkowskich w zakresie opracowania metodologii UNESCO w zakresie oceny wpływu etycznego (OOŚ) technologii sztucznej inteligencji, wymiany najlepszych praktyk, wytycznych dotyczących oceny i innych mechanizmów oraz prac analitycznych.
OBSZAR POLITYKI 1: OCENA SKUTKÓW ETYCZNYCH #
50. #
Państwa członkowskie powinny wprowadzić ramy ocen skutków, takich jak ocena skutków etycznych, w celu zidentyfikowania i oceny korzyści, obaw i zagrożeń związanych z systemami sztucznej inteligencji, a także odpowiednich środków zapobiegania ryzyku, ograniczania go i monitorowania, a także innych mechanizmów zapewniania.
Takie oceny skutków powinny określać wpływ na prawa człowieka i podstawowe wolności, w szczególności między innymi prawa osób zmarginalizowanych i znajdujących się w trudnej sytuacji lub osób znajdujących się w trudnej sytuacji, prawa pracownicze, środowisko i ekosystemy oraz implikacje etyczne i społeczne, a także ułatwiać udział obywateli w zgodne z wartościami i zasadami określonymi w niniejszym Zaleceniu.
51. #
Państwa członkowskie i przedsiębiorstwa sektora prywatnego powinny opracować mechanizmy należytej staranności i nadzoru, aby identyfikować, zapobiegać, ograniczać i rozliczać sposób, w jaki odnoszą się do wpływu systemów sztucznej inteligencji na poszanowanie praw człowieka, praworządność i społeczeństwa integracyjne.
Państwa członkowskie powinny również być w stanie ocenić społeczno-ekonomiczny wpływ systemów sztucznej inteligencji na ubóstwo i zapewnić, by przepaść między ludźmi żyjącymi w zamożności i ubóstwie, a także przepaść cyfrowa między krajami i w ich obrębie nie pogłębiały się wraz z masowym przyjmowaniem Technologie AI obecnie iw przyszłości.
W tym celu należy w szczególności wdrożyć egzekwowalne protokoły przejrzystości odpowiadające dostępowi do informacji, w tym informacji będących przedmiotem zainteresowania publicznego, będących w posiadaniu podmiotów prywatnych.
Kraje członkowskie, przedsiębiorstwa sektora prywatnego i społeczeństwo obywatelskie powinny zbadać socjologiczny i psychologiczny wpływ zaleceń opartych na sztucznej inteligencji na ludzi w zakresie ich autonomii decyzyjnej.
Systemy sztucznej inteligencji zidentyfikowane jako potencjalne zagrożenia dla praw człowieka powinny zostać szeroko przetestowane przez podmioty zajmujące się sztuczną inteligencją, w tym w razie potrzeby w rzeczywistych warunkach, w ramach oceny wpływu etycznego przed wprowadzeniem ich na rynek.
52. Państwa członkowskie i przedsiębiorstwa powinny wdrożyć odpowiednie środki w celu monitorowania wszystkich faz cyklu życia systemu SI, w tym funkcjonowania algorytmów wykorzystywanych do podejmowania decyzji, danych, a także zaangażowanych w ten proces podmiotów AI, zwłaszcza w usługach publicznych oraz tam, gdzie wymagana jest bezpośrednia interakcja z użytkownikiem końcowym, w ramach oceny wpływu etycznego. Obowiązki państw członkowskich w zakresie praw człowieka powinny stanowić część etycznych aspektów ocen systemów sztucznej inteligencji.
53. #
Rządy powinny przyjąć ramy regulacyjne określające procedurę, w szczególności dla organów publicznych, przeprowadzania etycznych ocen wpływu systemów sztucznej inteligencji w celu przewidywania konsekwencji, ograniczania ryzyka, unikania szkodliwych konsekwencji, ułatwiania udziału obywateli i reagowania na wyzwania społeczne.
Ocena powinna również ustanowić odpowiednie mechanizmy nadzoru, w tym możliwości audytu, identyfikowalności i wyjaśnialności, które umożliwiają ocenę algorytmów, danych i procesów projektowych, a także obejmować zewnętrzny przegląd systemów AI.
W stosownych przypadkach oceny skutków etycznych powinny być przejrzyste i otwarte dla opinii publicznej. Takie oceny powinny być również multidyscyplinarne, wielostronne, wielokulturowe, pluralistyczne i integracyjne.
OBSZAR POLITYKI 2: ETYCZNE ZARZĄDZANIE I ZARZĄDZANIE #
54. #
Państwa członkowskie powinny zapewnić, aby mechanizmy zarządzania AI były otwarte, przejrzyste, multidyscyplinarne, wielostronne (obejmuje to możliwość transgranicznego łagodzenia szkód i naprawiania szkód) i obejmowały wiele zainteresowanych stron. W szczególności zarządzanie powinno obejmować aspekty przewidywania i skutecznej ochrony, monitorowania wpływu, egzekwowania i dochodzenia roszczeń.
55. #
Państwa członkowskie powinny zapewnić zbadanie i naprawienie szkód wyrządzonych przez systemy sztucznej inteligencji poprzez wprowadzenie silnych mechanizmów egzekwowania i działań naprawczych, aby zapewnić poszanowanie praw człowieka i podstawowych wolności oraz praworządności w świecie cyfrowym i fizycznym świat.
Takie mechanizmy i działania powinny obejmować mechanizmy naprawcze zapewniane przez przedsiębiorstwa sektora prywatnego i publicznego. W tym celu należy propagować możliwość kontroli i identyfikowalność systemów sztucznej inteligencji.
Ponadto państwa członkowskie powinny wzmocnić swoje zdolności instytucjonalne, aby wywiązać się z tego zobowiązania, oraz współpracować z naukowcami i innymi zainteresowanymi stronami w celu badania, zapobiegania i ograniczania wszelkich potencjalnie złośliwych zastosowań systemów sztucznej inteligencji.
56. Zachęca się państwa członkowskie do opracowania krajowych i regionalnych strategii SI oraz do rozważenia form miękkiego zarządzania, takich jak mechanizm certyfikacji systemów AI i wzajemne uznawanie ich certyfikacji, zgodnie z wrażliwością dziedziny zastosowania i oczekiwanym wpływem na prawa człowieka , środowisko i ekosystemy oraz inne względy etyczne określone w niniejszym zaleceniu.
Taki mechanizm może obejmować różne poziomy audytu systemów, danych oraz przestrzeganie wytycznych etycznych i wymogów proceduralnych z punktu widzenia aspektów etycznych.
Jednocześnie taki mechanizm nie powinien utrudniać innowacji ani stawiać w niekorzystnej sytuacji małych i średnich przedsiębiorstw lub przedsiębiorstw typu start-up, społeczeństwa obywatelskiego oraz organizacji badawczych i naukowych w wyniku nadmiernych obciążeń administracyjnych.
57. #
Państwa członkowskie i organy publiczne powinny przeprowadzić przejrzystą samoocenę istniejących i proponowanych systemów sztucznej inteligencji, która w szczególności powinna obejmować ocenę, czy przyjęcie sztucznej inteligencji jest właściwe, a jeśli tak, powinna obejmować dalszą ocenę w celu ustalenia, jakie odpowiednią metodą, a także ocenę, czy takie przyjęcie skutkowałoby naruszeniem lub nadużyciem zobowiązań państw członkowskich w zakresie praw człowieka, a jeśli tak, zakazać jej stosowania.
58. #
Państwa członkowskie powinny zachęcać podmioty publiczne, przedsiębiorstwa sektora prywatnego i organizacje społeczeństwa obywatelskiego do angażowania różnych zainteresowanych stron w zarządzanie sztuczną inteligencją oraz do rozważenia dodania roli niezależnego specjalisty ds. etyki SI lub innego mechanizmu nadzorującego ocenę skutków etycznych, audyty i ciągłe monitorowanie wysiłki i zapewnić etyczne wytyczne dotyczące systemów sztucznej inteligencji.
Zachęca się państwa członkowskie, przedsiębiorstwa sektora prywatnego i organizacje społeczeństwa obywatelskiego, aby przy wsparciu UNESCO utworzyły sieć niezależnych rzeczników ds. etyki SI, którzy wspieraliby ten proces na szczeblu krajowym, regionalnym i międzynarodowym.
59. #
Państwa członkowskie powinny wspierać rozwój ekosystemu cyfrowego i dostęp do niego na potrzeby etycznego i sprzyjającego włączeniu społecznemu rozwoju systemów sztucznej inteligencji na szczeblu krajowym, w tym w celu wyeliminowania luk w dostępie do cyklu życia systemu SI, jednocześnie przyczyniając się do współpracy międzynarodowej.
Taki ekosystem obejmuje w stosownych przypadkach w szczególności technologie i infrastrukturę cyfrową oraz mechanizmy udostępniania wiedzy na temat sztucznej inteligencji.
60. #
Państwa członkowskie powinny ustanowić mechanizmy, we współpracy z organizacjami międzynarodowymi, korporacjami transnarodowymi, instytucjami akademickimi i społeczeństwem obywatelskim, aby zapewnić aktywny udział wszystkich państw członkowskich, zwłaszcza LMIC, w szczególności LDC, LLDC i SIDS, w międzynarodowych dyskusjach dotyczących zarządzania AI . Może to nastąpić poprzez zapewnienie funduszy, zapewnienie równego udziału regionów lub za pomocą innych mechanizmów. Ponadto, aby zapewnić inkluzywny charakter forów ds. sztucznej inteligencji, państwa członkowskie powinny ułatwiać podmiotom zajmującym się SI podróżowanie na swoje terytorium i poza jego terytorium, zwłaszcza z LMIC, w szczególności LDC, LLDC i SIDS, w celu uczestniczenia w tych forach.
61. #
Zmiany w obowiązujących lub opracowywanych nowych przepisach krajowych dotyczących systemów sztucznej inteligencji muszą być zgodne ze zobowiązaniami państw członkowskich w zakresie praw człowieka oraz promować prawa człowieka i podstawowe wolności przez cały cykl życia systemu sztucznej inteligencji. Ich promowanie powinno również przybrać formę inicjatyw zarządczych, dobrych przykładów wspólnych praktyk w zakresie systemów sztucznej inteligencji oraz krajowych i międzynarodowych wytycznych technicznych i metodologicznych w miarę rozwoju technologii sztucznej inteligencji.
Różne sektory, w tym sektor prywatny, w swoich praktykach dotyczących systemów sztucznej inteligencji muszą szanować, chronić i propagować prawa człowieka i podstawowe wolności, korzystając z istniejących i nowych instrumentów w połączeniu z niniejszym zaleceniem.
62. #
Państwa członkowskie, które nabywają systemy AI do przypadków użycia wrażliwych na prawa człowieka, takich jak organy ścigania, opieka społeczna, zatrudnienie, dostawcy mediów i informacji, opieka zdrowotna i niezawisłe sądownictwo, powinny zapewnić mechanizmy monitorowania społecznego i gospodarczego wpływu takich systemów przez odpowiednie organy nadzoru, w tym niezależne organy ochrony danych, nadzór sektorowy oraz organy publiczne odpowiedzialne za nadzór.
63. #
Państwa członkowskie powinny zwiększyć zdolność sądownictwa do podejmowania decyzji związanych z systemami sztucznej inteligencji zgodnie z zasadą praworządności oraz zgodnie z prawem i standardami międzynarodowymi, w tym w zakresie korzystania z systemów sztucznej inteligencji w swoich obradach, przy jednoczesnym zapewnieniu przestrzegania zasady zachowany jest nadzór ludzki. W przypadku stosowania systemów sztucznej inteligencji przez sądownictwo potrzebne są wystarczające zabezpieczenia, aby zagwarantować między innymi ochronę podstawowych praw człowieka, praworządności, niezawisłości sędziowskiej, a także zasady nadzoru ze strony człowieka, a także aby zapewnić godną zaufania ochronę interesu publicznego zorientowany na człowieka rozwój i wykorzystanie systemów sztucznej inteligencji w sądownictwie.
64. #
Państwa członkowskie powinny zapewnić, aby rządy i organizacje wielostronne odgrywały wiodącą rolę w zapewnianiu bezpieczeństwa i ochrony systemów sztucznej inteligencji przy udziale wielu zainteresowanych stron.
W szczególności państwa członkowskie, organizacje międzynarodowe i inne odpowiednie organy powinny opracować międzynarodowe normy opisujące wymierne, sprawdzalne poziomy bezpieczeństwa i przejrzystości, tak aby można było obiektywnie ocenić systemy i określić poziomy zgodności.
Ponadto państwa członkowskie i przedsiębiorstwa powinny stale wspierać badania strategiczne dotyczące potencjalnych zagrożeń dla bezpieczeństwa i ochrony związanych z technologiami sztucznej inteligencji oraz powinny zachęcać do badań nad przejrzystością i wyjaśnialnością, włączeniem i umiejętnością czytania i pisania, przeznaczając dodatkowe fundusze na te obszary w różnych dziedzinach i na różnych poziomach, np. język techniczny i naturalny.
65. #
Państwa członkowskie powinny wdrożyć polityki zapewniające zgodność działań podmiotów zajmujących się sztuczną inteligencją z międzynarodowymi przepisami, standardami i zasadami dotyczącymi praw człowieka w całym cyklu życia systemów SI, przy pełnym uwzględnieniu obecnych różnic kulturowych i społecznych, w tym lokalnych zwyczajów i tradycji religijnych, z należytym uwzględnieniem pierwszeństwa i powszechności praw człowieka.
66. #
Państwa członkowskie powinny wprowadzić mechanizmy zobowiązujące podmioty zajmujące się sztuczną inteligencją do ujawniania i zwalczania wszelkiego rodzaju stereotypów dotyczących wyników systemów i danych sztucznej inteligencji, niezależnie od tego, czy zostały zaprojektowane, czy też przez zaniedbanie, oraz zapewnić, aby zbiory danych szkoleniowych dla systemów sztucznej inteligencji nie sprzyjały nierówności kulturowe, ekonomiczne lub społeczne, uprzedzenia, szerzenie dezinformacji i dezinformacji oraz zakłócanie wolności słowa i dostępu do informacji.
Szczególną uwagę należy zwrócić na regiony, w których dane są rzadkie.
67. #
Państwa członkowskie powinny wdrożyć strategie polityczne mające na celu promowanie i zwiększanie różnorodności i włączenia społecznego, które odzwierciedlają ich populacje w zespołach opracowujących sztuczną inteligencję i zbiory danych szkoleniowych, a także zapewnić równy dostęp do technologii SI i płynących z nich korzyści, w szczególności grupom marginalizowanym, zarówno ze stref wiejskich, jak i miejskich.
68. #
Państwa członkowskie powinny w stosownych przypadkach opracować, dokonać przeglądu i dostosować ramy regulacyjne, aby osiągnąć rozliczalność i odpowiedzialność za treść i wyniki systemów SI na różnych etapach ich cyklu życia.
Państwa członkowskie powinny w razie potrzeby wprowadzić ramy odpowiedzialności lub wyjaśnić interpretację istniejących ram, aby zapewnić przypisanie odpowiedzialności za wyniki i funkcjonowanie systemów sztucznej inteligencji.
Ponadto, opracowując ramy regulacyjne, państwa członkowskie powinny w szczególności wziąć pod uwagę, że ostateczna odpowiedzialność musi zawsze spoczywać na osobach fizycznych lub prawnych oraz że same systemy sztucznej inteligencji nie powinny mieć osobowości prawnej.
Aby to zapewnić, #
69. #
Aby ustanowić normy tam, gdzie takie nie istnieją, lub dostosować istniejące ramy prawne, państwa członkowskie powinny zaangażować wszystkie podmioty zajmujące się sztuczną inteligencją (w tym między innymi badaczy, przedstawicieli społeczeństwa obywatelskiego i organów ścigania, ubezpieczycieli, inwestorów, producentów, inżynierów, prawników i użytkowników). Normy mogą przekształcić się w najlepsze praktyki, prawa i regulacje.
Ponadto zachęca się państwa członkowskie do korzystania z mechanizmów, takich jak prototypy polityki i piaskownice regulacyjne, w celu przyspieszenia rozwoju przepisów ustawowych, wykonawczych i politycznych, w tym ich regularnych przeglądów, zgodnie z szybkim rozwojem nowych technologii oraz zapewnienia możliwości testowania przepisów ustawowych i wykonawczych w bezpiecznym środowisku przed oficjalną adopcją.
Państwa członkowskie powinny wspierać samorządy lokalne w kształtowaniu polityk lokalnych,
70. #
Państwa członkowskie powinny określić jasne wymogi dotyczące przejrzystości i zrozumiałości systemu SI, aby pomóc w zapewnieniu wiarygodności całego cyklu życia systemu SI. Wymogi takie powinny obejmować zaprojektowanie i wdrożenie mechanizmów wpływu, które uwzględniają charakter dziedziny zastosowania, zamierzone zastosowanie, grupę docelową i wykonalność każdego konkretnego systemu SI.
OBSZAR POLITYKI 3: POLITYKA DOTYCZĄCA DANYCH #
71. #
Państwa członkowskie powinny pracować nad opracowaniem strategii zarządzania danymi, które zapewniają ciągłą ocenę jakości danych szkoleniowych dla systemów sztucznej inteligencji, w tym adekwatności procesów gromadzenia i selekcji danych, odpowiednich środków bezpieczeństwa i ochrony danych, a także mechanizmów informacji zwrotnych do uczenia się błędów i dzielenia się najlepszymi praktykami wśród wszystkich aktorów AI.
72. #
Państwa członkowskie powinny wprowadzić odpowiednie zabezpieczenia w celu ochrony prawa do prywatności zgodnie z prawem międzynarodowym, w tym zająć się kwestiami takimi jak inwigilacja.
Państwa członkowskie powinny między innymi przyjąć lub egzekwować ramy legislacyjne zapewniające odpowiednią ochronę, zgodną z prawem międzynarodowym.
Państwa członkowskie powinny zdecydowanie zachęcać wszystkie podmioty zajmujące się sztuczną inteligencją, w tym przedsiębiorstwa, do przestrzegania istniejących norm międzynarodowych, a w szczególności do przeprowadzania odpowiednich ocen wpływu na prywatność w ramach ocen skutków etycznych, które uwzględniają szerszy społeczno-gospodarczy wpływ zamierzonego przetwarzania danych oraz zastosować w swoich systemach zasadę ochrony prywatności od samego początku.
Prywatność należy szanować, chronić i promować przez cały cykl życia systemów sztucznej inteligencji.
73. #
Państwa członkowskie powinny zapewnić, aby osoby fizyczne zachowały prawa do swoich danych osobowych i były chronione przez ramy, które przewidują w szczególności: przejrzystość; odpowiednie zabezpieczenia przetwarzania danych wrażliwych; odpowiedni poziom ochrony danych; skuteczne i sensowne schematy i mechanizmy odpowiedzialności; pełnego korzystania z praw osób, których dane dotyczą, oraz możliwości dostępu do ich danych osobowych w systemach AI i ich usuwania, z wyjątkiem pewnych okoliczności zgodnych z prawem międzynarodowym; odpowiedni poziom ochrony w pełnej zgodności z przepisami dotyczącymi ochrony danych, w przypadku gdy dane są wykorzystywane do celów komercyjnych, takich jak umożliwienie reklamy mikroukierunkowanej, przekazywane transgranicznie; oraz skuteczny niezależny nadzór w ramach mechanizmu zarządzania danymi, który zapewnia jednostkom kontrolę nad ich danymi osobowymi i sprzyja korzyściom płynącym ze swobodnego przepływu informacji na szczeblu międzynarodowym, w tym dostępu do danych.
74. #
Państwa członkowskie powinny ustanowić swoje polityki dotyczące danych lub równoważne ramy lub wzmocnić istniejące, aby zapewnić pełne bezpieczeństwo danych osobowych i danych szczególnie chronionych, których ujawnienie może spowodować wyjątkowe szkody, obrażenia lub trudności dla osób fizycznych.
Przykłady obejmują dane dotyczące przestępstw, postępowań karnych i wyroków skazujących oraz powiązanych środków bezpieczeństwa; dane biometryczne, genetyczne i zdrowotne; oraz -dane osobowe, takie jak dotyczące rasy, koloru skóry, pochodzenia, płci, wieku, języka, religii, poglądów politycznych, pochodzenia narodowego, pochodzenia etnicznego, pochodzenia społecznego, warunków ekonomicznych lub społecznych urodzenia lub niepełnosprawności i wszelkich innych cech.
75. #
Państwa członkowskie powinny promować otwarte dane. W związku z tym państwa członkowskie powinny rozważyć przegląd swoich polityk i ram regulacyjnych, w tym w zakresie dostępu do informacji i otwartego rządu, aby odzwierciedlić wymogi dotyczące sztucznej inteligencji i mechanizmy promowania, takie jak otwarte repozytoria danych finansowanych ze środków publicznych lub znajdujących się w posiadaniu publicznym oraz kod źródłowy i fundusze powiernicze dotyczące danych , aby wspierać między innymi bezpieczne, uczciwe, zgodne z prawem i etyczne udostępnianie danych.
76. #
Państwa członkowskie powinny promować i ułatwiać korzystanie z wysokiej jakości i solidnych zbiorów danych do celów szkolenia, opracowywania i wykorzystywania systemów sztucznej inteligencji oraz wykazywać czujność w nadzorowaniu ich gromadzenia i wykorzystywania.
Mogłoby to, o ile to możliwe i wykonalne, obejmować inwestowanie w tworzenie zbiorów danych o złotym standardzie, w tym otwartych i godnych zaufania zbiorów danych, które są różnorodne, zbudowane na ważnej podstawie prawnej, w tym na zgodzie osób, których dane dotyczą, jeżeli jest to wymagane przez prawo.
Należy zachęcać do standardów dotyczących adnotacji zbiorów danych, w tym dezagregacji danych na podstawie płci i innych podstaw, aby można było łatwo określić, w jaki sposób zestaw danych jest gromadzony i jakie ma właściwości.
77. #
Państwa członkowskie, jak również zasugerowano w sprawozdaniu Panelu Wysokiego Szczebla ds. Współpracy Cyfrowej Sekretarza Generalnego Organizacji Narodów Zjednoczonych, przy wsparciu Organizacji Narodów Zjednoczonych i UNESCO, powinny w stosownych przypadkach przyjąć podejście oparte na wspólnej technologii cyfrowej, zwiększyć interoperacyjność narzędzia i zbiory danych oraz interfejsy systemów przechowujących dane, a także zachęcać przedsiębiorstwa sektora prywatnego do udostępniania gromadzonych danych wszystkim zainteresowanym stronom, w stosownych przypadkach, na potrzeby badań, innowacji lub pożytku publicznego.
Powinny również promować publiczne i prywatne wysiłki na rzecz tworzenia platform współpracy w celu wymiany wysokiej jakości danych w zaufanych i zabezpieczonych przestrzeniach danych.
OBSZAR POLITYKI 4: ROZWÓJ I WSPÓŁPRACA MIĘDZYNARODOWA #
78. #
Państwa członkowskie i korporacje ponadnarodowe powinny nadać priorytet etyce SI, włączając dyskusje na temat kwestii etycznych związanych z AI na odpowiednich forach międzynarodowych, międzyrządowych i wielostronnych.
79. #
Państwa członkowskie powinny zapewnić, aby wykorzystanie sztucznej inteligencji w obszarach rozwoju, takich jak edukacja, nauka, kultura, komunikacja i informacja, opieka zdrowotna, rolnictwo i zaopatrzenie w żywność, środowisko, zarządzanie zasobami naturalnymi i infrastrukturą, planowanie gospodarcze i wzrost gospodarczy, m.in. , przestrzega wartości i zasad określonych w niniejszej Rekomendacji.
80. #
Państwa członkowskie powinny pracować za pośrednictwem organizacji międzynarodowych, aby zapewnić platformy współpracy międzynarodowej w zakresie sztucznej inteligencji na potrzeby rozwoju, w tym poprzez wnoszenie wiedzy fachowej, środków finansowych, danych, wiedzy dziedzinowej, infrastruktury oraz ułatwianie współpracy wielu zainteresowanych stron w celu rozwiązywania trudnych problemów rozwojowych, zwłaszcza w przypadku LMIC, w szczególności LDC, LLDC i SIDS.
81. #
Państwa członkowskie powinny działać na rzecz promowania międzynarodowej współpracy w zakresie badań naukowych i innowacji w zakresie sztucznej inteligencji, w tym centrów i sieci badań i innowacji, które promują większy udział i przywództwo naukowców z krajów LMIC i innych krajów, w tym krajów najsłabiej rozwiniętych, LLDC i SIDS.
82. #
Państwa członkowskie powinny promować badania nad etyką sztucznej inteligencji poprzez angażowanie międzynarodowych organizacji i instytucji badawczych, a także korporacji transnarodowych, które mogą stanowić podstawę etycznego korzystania z systemów sztucznej inteligencji przez podmioty publiczne i prywatne, w tym badania nad możliwością zastosowania określonych ram etycznych w określonych kulturach i kontekstach oraz możliwości opracowania wykonalnych technologicznie rozwiązań zgodnych z tymi ramami.
83. #
Państwa członkowskie powinny zachęcać do współpracy międzynarodowej i współpracy w dziedzinie sztucznej inteligencji w celu pokonywania granic geotechnologicznych.
Wymiana technologiczna i konsultacje powinny odbywać się między państwami członkowskimi i ich ludnością, między sektorem publicznym i prywatnym oraz między krajami najbardziej i najmniej zaawansowanymi technologicznie i wśród nich, przy pełnym poszanowaniu prawa międzynarodowego.
OBSZAR POLITYKI 5: ŚRODOWISKO I EKOSYSTEMY #
84. #
Państwa członkowskie i przedsiębiorstwa powinny oceniać bezpośredni i pośredni wpływ na środowisko w całym cyklu życia systemu sztucznej inteligencji, w tym między innymi jego ślad węglowy, zużycie energii i wpływ na środowisko wydobycia surowców w celu wspierania produkcji technologii sztucznej inteligencji oraz ograniczyć wpływ systemów sztucznej inteligencji i infrastruktury danych na środowisko.
Państwa członkowskie powinny zapewnić zgodność wszystkich podmiotów zajmujących się sztuczną inteligencją z prawem, polityką i praktykami w zakresie ochrony środowiska.
85. #
W razie potrzeby i w stosownych przypadkach państwa członkowskie powinny wprowadzić zachęty, aby zapewnić opracowanie i przyjęcie opartych na prawach i etycznych rozwiązań opartych na sztucznej inteligencji na rzecz odporności na ryzyko klęsk żywiołowych; monitorowanie, ochrona i regeneracja środowiska i ekosystemów; i zachowanie planety.
Te systemy sztucznej inteligencji powinny obejmować udział społeczności lokalnych i tubylczych przez cały cykl życia systemów sztucznej inteligencji i powinny wspierać podejścia oparte na gospodarce o obiegu zamkniętym oraz wzorce zrównoważonej konsumpcji i produkcji.
Niektóre przykłady obejmują wykorzystanie systemów sztucznej inteligencji, gdy jest to potrzebne i właściwe, do:
(a) #
wspierania ochrony, monitorowania i zarządzania zasobami naturalnymi.
(b) #
Wspieranie przewidywania, zapobiegania, kontroli i łagodzenia problemów związanych z klimatem.
(c) #
Wspieranie wydajniejszego i bardziej zrównoważonego ekosystemu żywnościowego.
(d) #
Wspierać przyspieszenie dostępu do zrównoważonej energii i jej masowe przyjęcie.
(e) #
Umożliwienie i promowanie włączania zrównoważonej infrastruktury, zrównoważonych modeli biznesowych i zrównoważonego finansowania na rzecz zrównoważonego rozwoju.
(f) #
Wykrywanie substancji zanieczyszczających lub przewidywanie poziomu zanieczyszczenia, a tym samym pomaganie zainteresowanym stronom w określaniu, planowaniu i wdrażaniu ukierunkowanych interwencji w celu zapobiegania zanieczyszczeniom i narażeniu oraz ich ograniczania.
86. #
Wybierając metody sztucznej inteligencji, biorąc pod uwagę, że niektóre z nich mogą wymagać dużych ilości danych lub zasobów oraz ich wpływ na środowisko, państwa członkowskie powinny zapewnić, aby podmioty zajmujące się sztuczną inteligencją, zgodnie z zasadą proporcjonalności, faworyzowały dane, energię i zasobooszczędne metody sztucznej inteligencji.
Należy opracować wymogi w celu zapewnienia dostępności odpowiednich dowodów wykazujących, że zastosowanie sztucznej inteligencji przyniesie zamierzony skutek lub że zabezpieczenia towarzyszące zastosowaniu sztucznej inteligencji mogą uzasadniać jego użycie. Jeżeli nie można tego zrobić, należy preferować zasadę ostrożności, aw przypadkach, w których występują nieproporcjonalne negatywne skutki dla środowiska, nie należy stosować sztucznej inteligencji.
OBSZAR POLITYKI 6: PŁEĆ #
87. #
Państwa członkowskie powinny dopilnować, aby potencjał technologii cyfrowych i sztucznej inteligencji w zakresie przyczyniania się do osiągnięcia równości płci został w pełni zmaksymalizowany, oraz muszą zapewnić, by prawa człowieka i podstawowe wolności dziewcząt i kobiet oraz ich bezpieczeństwo i integralność nie były w żadnym wypadku naruszane etap cyklu życia systemu AI.
Ponadto ocena skutków etycznych powinna uwzględniać przekrojową perspektywę płci.
88. #
Państwa członkowskie powinny dysponować specjalnymi funduszami ze swoich budżetów publicznych na finansowanie programów uwzględniających problematykę płci, dopilnować, aby krajowe polityki cyfrowe obejmowały plan działania w zakresie równouprawnienia płci, oraz opracować odpowiednie polityki, na przykład dotyczące edukacji w zakresie pracy, ukierunkowane na wspieranie dziewcząt i kobiet w upewnić się, że nie zostaną wykluczeni z gospodarki cyfrowej napędzanej przez sztuczną inteligencję.
Specjalne inwestycje w zapewnianie ukierunkowanych programów i języka uwzględniającego płeć, aby zwiększyć możliwości udziału dziewcząt i kobiet w naukach ścisłych, technologii, inżynierii i matematyce (STEM), w tym w dyscyplinach technologii informacyjnych i komunikacyjnych (ICT), gotowości, zdolności do zatrudnienia, równych rozwoju zawodowego i rozwoju zawodowego dziewcząt i kobiet, należy rozważyć i wdrożyć.
89. #
Państwa członkowskie powinny zapewnić wykorzystanie potencjału systemów sztucznej inteligencji w zakresie osiągania równości płci.
Powinny dopilnować, aby technologie te nie pogłębiły i tak już znacznych różnic między płciami istniejących w kilku dziedzinach w świecie analogowym, a zamiast tego wyeliminować te różnice.
Różnice te obejmują: różnice w wynagrodzeniach kobiet i mężczyzn; nierówna reprezentacja w niektórych zawodach i rodzajach działalności; brak reprezentacji na najwyższych stanowiskach kierowniczych, zarządach czy zespołach badawczych w obszarze AI; luka edukacyjna; luka w dostępie cyfrowym i sztucznej inteligencji, adopcji, wykorzystaniu i przystępności cenowej; oraz nierówny podział nieodpłatnej pracy i obowiązków opiekuńczych w naszych społeczeństwach.
90. #
Państwa członkowskie powinny dopilnować, aby stereotypy związane z płcią i dyskryminujące uprzedzenia nie przekładały się na systemy sztucznej inteligencji, a zamiast tego zidentyfikować te zjawiska i proaktywnie je naprawić.
Konieczne są wysiłki, aby uniknąć pogłębiających się negatywnych skutków podziałów technologicznych w osiąganiu równości płci i unikaniu przemocy, takiej jak nękanie, zastraszanie lub handel dziewczętami i kobietami oraz grupami niedostatecznie reprezentowanymi, w tym w domenie internetowej.
91. #
Państwa członkowskie powinny zachęcać kobiety do przedsiębiorczości, udziału i zaangażowania na wszystkich etapach cyklu życia systemu SI poprzez oferowanie i promowanie zachęt ekonomicznych, regulacyjnych, wśród innych zachęt i programów wsparcia, a także polityki, które mają na celu zrównoważony udział płci w sztucznej inteligencji badania w środowisku akademickim, reprezentacja płci na najwyższych stanowiskach kierowniczych w firmach cyfrowych i AI, zarządach i zespołach badawczych.
Państwa członkowskie powinny dopilnować, aby fundusze publiczne (na innowacje, badania i technologie) były kierowane do programów i przedsiębiorstw sprzyjających włączeniu społecznemu z wyraźną reprezentacją płci oraz aby środki prywatne były podobnie zachęcane poprzez zasady akcji afirmatywnej. Należy opracować i egzekwować zasady dotyczące środowisk wolnych od molestowania,
92. #
Państwa członkowskie powinny promować różnorodność płci w badaniach nad sztuczną inteligencją w środowisku akademickim i przemysłowym, zachęcając dziewczęta i kobiety do podejmowania działań w tej dziedzinie, wprowadzając mechanizmy zwalczania stereotypów związanych z płcią i nękania w środowisku naukowym zajmującym się sztuczną inteligencją oraz zachęcając podmioty akademickie i prywatne do dzielić się najlepszymi praktykami w zakresie zwiększania różnorodności płci.
93. #
UNESCO może pomóc w utworzeniu repozytorium najlepszych praktyk zachęcających do udziału dziewcząt, kobiet i grup niedostatecznie reprezentowanych na wszystkich etapach cyklu życia systemu SI.
OBSZAR POLITYKI 7: KULTURA #
94. #
Zachęca się państwa członkowskie do włączania, w stosownych przypadkach, systemów sztucznej inteligencji do ochrony, wzbogacania, zrozumienia, promowania, zarządzania i udostępniania materialnego, dokumentacyjnego i niematerialnego dziedzictwa kulturowego, w tym języków zagrożonych wyginięciem oraz języków i wiedzy rdzennych, na przykład poprzez wprowadzenie lub aktualizacja programów edukacyjnych związanych ze stosowaniem systemów sztucznej inteligencji w tych obszarach, w stosownych przypadkach, oraz poprzez zapewnienie podejścia partycypacyjnego, skierowanego do instytucji i społeczeństwa.
95. #
Zachęca się państwa członkowskie do zbadania i zajęcia się kulturowym wpływem systemów sztucznej inteligencji, zwłaszcza aplikacji do przetwarzania języka naturalnego (NLP), takich jak automatyczne tłumaczenie i asystenci głosowi, na niuanse ludzkiego języka i ekspresji.
Takie oceny powinny stanowić wkład w projektowanie i wdrażanie strategii, które maksymalizują korzyści płynące z tych systemów poprzez wypełnianie luk kulturowych i zwiększanie ludzkiego zrozumienia, a także uwzględnianie negatywnych konsekwencji, takich jak ograniczenie użytkowania, które może prowadzić do zniknięcia zagrożonych języki, lokalne dialekty oraz różnice tonalne i kulturowe związane z ludzkim językiem i ekspresją.
96. #
Państwa członkowskie powinny promować kształcenie w zakresie sztucznej inteligencji i szkolenia cyfrowe dla artystów i osób zawodowo zajmujących się działalnością kreatywną w celu oceny przydatności technologii AI do wykorzystania w ich zawodzie oraz przyczyniać się do projektowania i wdrażania odpowiednich technologii AI, ponieważ technologie AI są wykorzystywane do tworzenia, produkować, rozpowszechniać, nadawać i konsumować różnorodne dobra i usługi związane z kulturą, pamiętając o znaczeniu zachowania dziedzictwa kulturowego, różnorodności i wolności artystycznej.
97. #
Państwa członkowskie powinny promować świadomość i ocenę narzędzi sztucznej inteligencji wśród lokalnego przemysłu kulturalnego oraz małych i średnich przedsiębiorstw działających w dziedzinie kultury, aby uniknąć ryzyka koncentracji na rynku kultury.
98. #
Państwa członkowskie powinny angażować przedsiębiorstwa technologiczne i inne zainteresowane strony do promowania zróżnicowanej podaży i pluralistycznego dostępu do form wyrazu kulturowego, a w szczególności do zapewnienia, aby rekomendacje algorytmiczne zwiększały widoczność i wykrywalność treści lokalnych.
99. #
Państwa członkowskie powinny wspierać nowe badania na styku sztucznej inteligencji i własności intelektualnej (IP), na przykład w celu ustalenia, czy i jak chronić prawami własności intelektualnej utwory stworzone za pomocą technologii AI.
Państwa członkowskie powinny również ocenić, w jaki sposób technologie sztucznej inteligencji wpływają na prawa lub interesy właścicieli własności intelektualnej, których prace są wykorzystywane do badania, opracowywania, szkolenia lub wdrażania zastosowań sztucznej inteligencji.
100. #
Państwa członkowskie powinny zachęcać muzea, galerie, biblioteki i archiwa na szczeblu krajowym do korzystania z systemów sztucznej inteligencji w celu eksponowania swoich zbiorów i wzbogacania swoich bibliotek, baz danych i bazy wiedzy, zapewniając jednocześnie dostęp swoim użytkownikom.
OBSZAR POLITYKI 8: EDUKACJA I BADANIA #
101. #
Państwa członkowskie powinny współpracować z organizacjami międzynarodowymi, instytucjami edukacyjnymi oraz podmiotami prywatnymi i pozarządowymi, aby zapewnić społeczeństwu odpowiednie kształcenie w zakresie umiejętności korzystania z AI na wszystkich poziomach we wszystkich krajach, aby wzmocnić pozycję ludzi i zmniejszyć przepaści cyfrowe i nierówności w dostępie do technologii cyfrowych wynikające z szerokie zastosowanie systemów sztucznej inteligencji.
102. #
Państwa członkowskie powinny promować nabywanie „umiejętności niezbędnych” do nauczania SI, takich jak podstawowa umiejętność czytania, pisania, liczenia, kodowania i umiejętności cyfrowe oraz umiejętność korzystania z mediów i informacji, a także krytyczne i kreatywne myślenie, praca zespołowa, komunikacja, społeczno-emocjonalne oraz umiejętności w zakresie etyki SI, zwłaszcza w krajach i regionach lub na obszarach w krajach, w których występują znaczne luki w kształceniu tych umiejętności.
103. #
Państwa członkowskie powinny promować programy podnoszenia ogólnej świadomości na temat rozwoju sztucznej inteligencji, w tym danych oraz możliwości i wyzwań związanych z technologiami sztucznej inteligencji, wpływu systemów sztucznej inteligencji na prawa człowieka i ich skutki, w tym prawa dzieci.
Programy te powinny być dostępne zarówno dla grup nietechnicznych, jak i technicznych.
104. #
Państwa członkowskie powinny wspierać inicjatywy badawcze dotyczące między innymi odpowiedzialnego i etycznego wykorzystania technologii AI w nauczaniu, szkoleniu nauczycieli i e-uczeniu się, aby zwiększyć możliwości i złagodzić wyzwania i zagrożenia związane z tym obszarem. Inicjatywom powinna towarzyszyć odpowiednia ocena jakości kształcenia oraz wpływu wykorzystania technologii AI na uczniów i nauczycieli.
Państwa członkowskie powinny również zapewnić, aby technologie sztucznej inteligencji wzmacniały pozycję uczniów i nauczycieli oraz zwiększały ich doświadczenie, pamiętając, że aspekty relacyjne i społeczne oraz wartość tradycyjnych form edukacji mają kluczowe znaczenie w relacjach nauczyciel-uczeń i uczeń-uczeń i należy je brać pod uwagę przy omawianiu przyjęcie technologii AI w edukacji.
Systemy sztucznej inteligencji wykorzystywane w uczeniu się powinny podlegać ścisłym wymogom, jeśli chodzi o monitorowanie, ocenę umiejętności czy przewidywanie zachowań uczących się.
Sztuczna inteligencja powinna wspierać proces uczenia się bez ograniczania zdolności poznawczych i bez wydobywania informacji wrażliwych, zgodnie z odpowiednimi standardami ochrony danych osobowych.
Dane przekazane w celu zdobycia wiedzy, zebrane podczas interakcji osoby uczącej się z systemem sztucznej inteligencji, nie mogą być przedmiotem nadużycia, sprzeniewierzenia ani wykorzystywania przestępczego, w tym do celów komercyjnych.
105. #
Państwa członkowskie powinny promować udział i przywództwo dziewcząt i kobiet, różnych grup etnicznych i kultur, osób niepełnosprawnych, osób zmarginalizowanych i znajdujących się w trudnej sytuacji lub osób znajdujących się w trudnej sytuacji, mniejszości i wszystkich osób, które nie czerpią pełnych korzyści z integracji cyfrowej, w edukacji AI programów na wszystkich poziomach, a także monitorowanie i wymiana najlepszych praktyk w tym zakresie z innymi państwami członkowskimi.
106. #
Państwa członkowskie powinny opracować, zgodnie ze swoimi krajowymi programami i tradycjami edukacyjnymi, programy nauczania etyki SI na wszystkich poziomach oraz promować wzajemną współpracę między kształceniem w zakresie umiejętności technicznych w zakresie SI a humanistycznymi, etycznymi i społecznymi aspektami edukacji w zakresie SI.
Kursy internetowe i cyfrowe zasoby edukacji etycznej SI powinny być rozwijane w językach lokalnych, w tym w językach tubylczych, i uwzględniać różnorodność środowisk, w szczególności zapewniając dostępność formatów dla osób niepełnosprawnych.
107. #
Państwa członkowskie powinny promować i wspierać badania nad sztuczną inteligencją, w szczególności badania nad etyką SI, w tym na przykład poprzez inwestowanie w takie badania lub tworzenie zachęt dla sektora publicznego i prywatnego do inwestowania w tej dziedzinie, uznając, że badania znacznie przyczyniają się do dalszego rozwoju i doskonalenie technologii sztucznej inteligencji w celu promowania prawa międzynarodowego oraz wartości i zasad określonych w niniejszym zaleceniu. Państwa członkowskie powinny również publicznie promować najlepsze praktyki i współpracę z naukowcami i przedsiębiorstwami, które opracowują sztuczną inteligencję w sposób etyczny.
108. #
Państwa członkowskie powinny dopilnować, aby naukowcy zajmujący się sztuczną inteligencją zostali przeszkoleni w zakresie etyki badawczej i wymagać od nich uwzględniania kwestii etycznych w swoich projektach, produktach i publikacjach, zwłaszcza w analizach zbiorów danych, z których korzystają, sposobu opisywania ich oraz jakości i zakresu wyniki z możliwymi zastosowaniami.
109. #
Państwa członkowskie powinny zachęcać przedsiębiorstwa sektora prywatnego do ułatwiania społeczności naukowej dostępu do ich danych na potrzeby badań, zwłaszcza w krajach LMIC, w szczególności w krajach LDC, LLDC i SIDS.
Dostęp ten powinien być zgodny z odpowiednimi standardami prywatności i ochrony danych.
110. #
Aby zapewnić krytyczną ocenę badań nad sztuczną inteligencją i odpowiednie monitorowanie potencjalnych nadużyć lub skutków ubocznych, państwa członkowskie powinny zapewnić, aby wszelkie przyszłe zmiany w zakresie technologii sztucznej inteligencji opierały się na rygorystycznych i niezależnych badaniach naukowych, oraz promować interdyscyplinarne badania nad sztuczną inteligencją poprzez włączenie dyscypliny inne niż nauka, technologia, inżynieria i matematyka (STEM), takie jak kulturoznawstwo, edukacja, etyka, stosunki międzynarodowe, prawo, językoznawstwo, filozofia, politologia, socjologia i psychologia.
111. #
Uznając, że technologie sztucznej inteligencji stwarzają ogromne możliwości wspierania rozwoju wiedzy i praktyki naukowej, zwłaszcza w dyscyplinach tradycyjnie opartych na modelach, państwa członkowskie powinny zachęcać społeczności naukowe do uświadamiania sobie korzyści, ograniczeń i zagrożeń związanych z ich stosowaniem; obejmuje to próbę zapewnienia, że wnioski wyciągnięte z podejść, modeli i zabiegów opartych na danych są solidne i solidne.
Ponadto państwa członkowskie powinny z zadowoleniem przyjąć i wspierać rolę społeczności naukowej w przyczynianiu się do kształtowania polityki i kultywowaniu świadomości mocnych i słabych stron technologii sztucznej inteligencji.
OBSZAR POLITYKI 9: KOMUNIKACJA I INFORMACJA #
112. #
Państwa członkowskie powinny wykorzystywać systemy sztucznej inteligencji w celu poprawy dostępu do informacji i wiedzy. Może to obejmować wsparcie dla naukowców, środowisk akademickich, dziennikarzy, ogółu społeczeństwa i programistów w celu zwiększenia wolności słowa, wolności akademickich i naukowych, dostępu do informacji oraz zwiększonego proaktywnego ujawniania oficjalnych danych i informacji.
113. #
Państwa członkowskie powinny zapewnić, aby podmioty zajmujące się sztuczną inteligencją szanowały i promowały wolność wypowiedzi, a także dostęp do informacji w odniesieniu do automatycznego generowania, moderowania i nadzorowania treści.
Odpowiednie ramy, w tym regulacje, powinny umożliwiać przejrzystość działań operatorów komunikacji i informacji online oraz zapewniać użytkownikom dostęp do różnorodnych punktów widzenia, a także procesy szybkiego powiadamiania użytkowników o powodach usunięcia lub innego traktowania treści oraz mechanizmy odwoławcze które umożliwiają użytkownikom dochodzenie roszczeń.
114. #
Państwa członkowskie powinny inwestować i promować umiejętności korzystania z technologii cyfrowych, mediów i informacji, aby wzmocnić krytyczne myślenie i kompetencje potrzebne do zrozumienia wykorzystania i skutków systemów sztucznej inteligencji, aby ograniczać i przeciwdziałać dezinformacji, dezinformacji i mowie nienawiści.
Częścią tych wysiłków powinno być lepsze zrozumienie i ocena zarówno pozytywnych, jak i potencjalnie szkodliwych skutków systemów rekomendujących.
115. #
Państwa członkowskie powinny stworzyć warunki umożliwiające mediom posiadanie praw i zasobów umożliwiających skuteczne informowanie o korzyściach i szkodach systemów sztucznej inteligencji, a także zachęcać media do etycznego wykorzystywania systemów sztucznej inteligencji w swoich działaniach.
OBSZAR POLITYKI 10: GOSPODARKA I PRACA #
116. #
Państwa członkowskie powinny ocenić i zająć się wpływem systemów sztucznej inteligencji na rynki pracy i jego wpływem na wymogi edukacyjne we wszystkich krajach, ze szczególnym uwzględnieniem krajów, w których gospodarka jest pracochłonna.
Może to obejmować wprowadzenie szerszego zakresu „podstawowych” i interdyscyplinarnych umiejętności na wszystkich poziomach edukacji, aby zapewnić obecnym pracownikom i nowym pokoleniom równe szanse na znalezienie pracy na szybko zmieniającym się rynku oraz zapewnić im świadomość etycznych aspektów sztucznej inteligencji systemy.
Umiejętności takie jak „uczenie się, jak się uczyć”, komunikacja, krytyczne myślenie, praca zespołowa, empatia i umiejętność przenoszenia wiedzy między dziedzinami powinny być nauczane równolegle z umiejętnościami specjalistycznymi, technicznymi i zadaniami wymagającymi niskich kwalifikacji.
Kluczowe znaczenie ma zachowanie przejrzystości co do tego, jakie umiejętności są poszukiwane, oraz aktualizowanie programów nauczania wokół nich.
117. #
Państwa członkowskie powinny wspierać porozumienia o współpracy między rządami, instytucjami akademickimi, instytucjami kształcenia i szkolenia zawodowego, przemysłem, organizacjami pracowniczymi i społeczeństwem obywatelskim, aby wypełnić lukę w wymaganiach dotyczących umiejętności, aby dostosować programy i strategie szkoleniowe do implikacji przyszłości pracy i potrzeb przemysłu, w tym małych i średnich przedsiębiorstw.
Należy promować podejście do nauczania i uczenia się oparte na projektach w zakresie sztucznej inteligencji, umożliwiające tworzenie partnerstw między instytucjami publicznymi, przedsiębiorstwami sektora prywatnego, uniwersytetami i ośrodkami badawczymi.
118. #
Państwa członkowskie powinny współpracować z przedsiębiorstwami sektora prywatnego, organizacjami społeczeństwa obywatelskiego i innymi zainteresowanymi stronami, w tym pracownikami i związkami zawodowymi, aby zapewnić sprawiedliwą zmianę dla zagrożonych pracowników.
Obejmuje to wdrażanie programów podnoszenia i przekwalifikowywania kwalifikacji, znajdowanie skutecznych mechanizmów zatrzymywania pracowników w tych okresach przejściowych oraz badanie programów „sieci bezpieczeństwa” dla tych, których nie można przekwalifikować.
Państwa członkowskie powinny opracować i wdrożyć programy badań i sprostania zidentyfikowanym wyzwaniom, które mogą obejmować między innymi podnoszenie i przekwalifikowywanie, wzmocnioną ochronę socjalną, proaktywną politykę i interwencje branżowe, ulgi podatkowe, nowe formy opodatkowania.
Państwa członkowskie powinny zapewnić wystarczające środki publiczne na wsparcie tych programów.
Odpowiednie regulacje, takie jak systemy podatkowe, #
119. #
Państwa członkowskie powinny zachęcać i wspierać naukowców do analizowania wpływu systemów sztucznej inteligencji na lokalne środowisko pracy, aby przewidywać przyszłe trendy i wyzwania.
Badania te powinny mieć podejście interdyscyplinarne i badać wpływ systemów sztucznej inteligencji na sektory gospodarcze, społeczne i geograficzne, a także na interakcje człowiek-robot i relacje człowiek-człowiek, aby doradzać w zakresie najlepszych praktyk w zakresie przekwalifikowania i ponownego rozmieszczenia.
120. #
Państwa członkowskie powinny podjąć odpowiednie kroki w celu zapewnienia konkurencyjnych rynków i ochrony konsumentów, biorąc pod uwagę możliwe środki i mechanizmy na szczeblu krajowym, regionalnym i międzynarodowym, aby zapobiegać nadużywaniu dominującej pozycji rynkowej, w tym przez monopole, w odniesieniu do systemów sztucznej inteligencji przez cały cykl ich życia niezależnie od tego, czy są to dane, badania, technologia czy rynek.
Państwa członkowskie powinny zapobiegać powstającym nierównościom, oceniać właściwe rynki i wspierać konkurencyjne rynki.
Należy zwrócić należytą uwagę na kraje LMIC, w szczególności LDC, LLDC i SIDS, które są bardziej narażone i podatne na możliwość nadużyć pozycji dominującej na rynku, między innymi w wyniku braku infrastruktury, potencjału ludzkiego i regulacji.
OBSZAR POLITYKI 11: ZDROWIE I DOBROSTAN SPOŁECZNY #
121. #
Państwa członkowskie powinny dążyć do stosowania skutecznych systemów sztucznej inteligencji w celu poprawy zdrowia ludzkiego i ochrony prawa do życia, w tym łagodzenia ognisk chorób, przy jednoczesnym budowaniu i utrzymywaniu międzynarodowej solidarności w celu przeciwdziałania globalnym opieki zdrowotnej były zgodne z prawem międzynarodowym i zobowiązaniami wynikającymi z praw człowieka.
Państwa członkowskie powinny zapewnić, aby podmioty zaangażowane w systemy sztucznej inteligencji w opiece zdrowotnej uwzględniały znaczenie relacji pacjenta z rodziną i personelem medycznym.
122. #
Państwa członkowskie powinny zapewnić, aby rozwój i wdrażanie systemów sztucznej inteligencji związanych ze zdrowiem ogólnym, a w szczególności ze zdrowiem psychicznym, z należytym uwzględnieniem dzieci i młodzieży, było regulowane w taki sposób, aby były one bezpieczne, skuteczne, wydajne, naukowo i medycznie udowodnione i umożliwiają oparte na dowodach innowacje i postęp w medycynie. Ponadto w powiązanym obszarze cyfrowych interwencji zdrowotnych państwa członkowskie są zdecydowanie zachęcane do aktywnego angażowania pacjentów i ich przedstawicieli we wszystkie istotne etapy rozwoju systemu.
123. #
Państwa członkowskie powinny zwrócić szczególną uwagę przy regulowaniu rozwiązań w zakresie przewidywania, wykrywania i leczenia w opiece zdrowotnej w zastosowaniach sztucznej inteligencji poprzez:
a) #
zapewnienie nadzoru w celu zminimalizowania i złagodzenia stronniczości;
(b) #
zapewnienie, aby profesjonalista, pacjent, opiekun lub użytkownik usługi był włączony jako „ekspert dziedzinowy” do zespołu na wszystkich odpowiednich etapach opracowywania algorytmów;
(c) #
zwracanie należytej uwagi na prywatność ze względu na potencjalną potrzebę monitorowania medycznego oraz zapewnienie spełnienia wszystkich odpowiednich krajowych i międzynarodowych wymogów w zakresie ochrony danych;
d) #
zapewnienie skutecznych mechanizmów, dzięki którym osoby, których dane osobowe są analizowane, były świadome i wyrażały świadomą zgodę na wykorzystanie i analizę ich danych, bez utrudniania dostępu do opieki zdrowotnej;
(e) #
zapewnienie, że opieka nad człowiekiem i ostateczna decyzja dotycząca diagnozy i leczenia są zawsze podejmowane przez ludzi, przy jednoczesnym uznaniu, że systemy sztucznej inteligencji mogą również pomagać w ich pracy;
f) #
zapewnienie, w stosownych przypadkach, przeglądu systemów sztucznej inteligencji przez komisję ds. badań etycznych przed zastosowaniem klinicznym.
124. #
Państwa członkowskie powinny rozpocząć badania nad skutkami i regulacjami potencjalnych szkód dla zdrowia psychicznego związanych z systemami sztucznej inteligencji, takich jak między innymi wyższy stopień depresji, lęk, izolacja społeczna, rozwijające się uzależnienie, handel ludźmi, radykalizacja postaw i dezinformacja.
125. #
Państwa członkowskie powinny opracować wytyczne dotyczące interakcji człowiek-robot i ich wpływu na relacje człowiek-ludzki, oparte na badaniach i ukierunkowane na przyszły rozwój robotów, ze szczególnym uwzględnieniem zdrowia psychicznego i fizycznego ludzi.
Szczególną uwagę należy zwrócić na wykorzystanie robotów w opiece zdrowotnej i opiece nad osobami starszymi i niepełnosprawnymi, w edukacji oraz robotów do użytku przez dzieci, robotów-zabawek, chatbotów i robotów towarzyszących dla dzieci i dorosłych. Ponadto w celu zwiększenia bezpieczeństwa i ergonomii użytkowania robotów, w tym w środowisku pracy człowiek-robot, należy zastosować wsparcie technologii sztucznej inteligencji.
Szczególną uwagę należy zwrócić na możliwość wykorzystania sztucznej inteligencji do manipulowania ludzkimi uprzedzeniami poznawczymi i nadużywania ich.
126. #
Państwa członkowskie powinny zapewnić, aby interakcje człowiek-robot były zgodne z tymi samymi wartościami i zasadami, które mają zastosowanie do wszelkich innych systemów sztucznej inteligencji, w tym praw człowieka i podstawowych wolności, promowania różnorodności oraz ochrony osób wymagających szczególnego traktowania lub osób znajdujących się w trudnej sytuacji. Aby zachować ludzką godność i autonomię, należy rozważyć kwestie etyczne związane z systemami opartymi na sztucznej inteligencji dla neurotechnologii i interfejsami mózg-komputer.
127. #
Państwa członkowskie powinny zapewnić, aby użytkownicy mogli łatwo określić, czy wchodzą w interakcję z żywą istotą, czy z systemem sztucznej inteligencji imitującym cechy ludzkie lub zwierzęce, oraz aby mogli skutecznie odmówić takiej interakcji i zażądać interwencji człowieka.
128. #
Państwa członkowskie powinny wdrożyć strategie mające na celu podnoszenie świadomości na temat antropomorfizacji technologii sztucznej inteligencji oraz technologii, które rozpoznają i naśladują ludzkie emocje, w tym w języku używanym do ich opisania, oraz oceniać przejawy, implikacje etyczne i możliwe ograniczenia takiej antropomorfizacji, w szczególności w kontekście interakcji robot-człowiek, a zwłaszcza gdy w grę wchodzą dzieci.
129. #
Państwa członkowskie powinny zachęcać i promować wspólne badania nad skutkami długotrwałej interakcji ludzi z systemami sztucznej inteligencji, zwracając szczególną uwagę na psychologiczny i poznawczy wpływ, jaki te systemy mogą mieć na dzieci i młodzież. Należy tego dokonać przy użyciu wielu norm, zasad, protokołów, podejść dyscyplinarnych oraz oceny modyfikacji zachowań i nawyków, a także starannej oceny dalszych wpływów kulturowych i społecznych.
Ponadto państwa członkowskie powinny zachęcać do badań nad wpływem technologii sztucznej inteligencji na działanie systemu opieki zdrowotnej i wyniki zdrowotne.
130. #
Państwa członkowskie, jak również wszystkie zainteresowane strony, powinny wprowadzić mechanizmy znaczącego angażowania dzieci i młodzieży w rozmowy, debaty i podejmowanie decyzji w odniesieniu do wpływu systemów sztucznej inteligencji na ich życie i przyszłość.
V. MONITOROWANIE I EWALUACJA #
131. #
Państwa członkowskie powinny, zgodnie ze swoimi szczególnymi warunkami, strukturami zarządzającymi i przepisami konstytucyjnymi, wiarygodnie i przejrzyście monitorować i oceniać polityki, programy i mechanizmy związane z etyką SI, stosując połączenie podejścia ilościowego i jakościowego.
Aby wesprzeć państwa członkowskie, UNESCO może wnieść swój wkład poprzez:
a) #
opracowanie metodologii UNESCO oceny wpływu etycznego (OOŚ) technologii sztucznej inteligencji w oparciu o rygorystyczne badania naukowe i oparte na międzynarodowym prawie dotyczącym praw człowieka, wytyczne dotyczące jej wdrażania na wszystkich etapach sztucznej inteligencji cykl życia systemu oraz materiały do budowania potencjału, aby wesprzeć wysiłki państw członkowskich w zakresie szkolenia urzędników państwowych, decydentów politycznych i innych odpowiednich podmiotów zajmujących się sztuczną inteligencją w zakresie metodologii OOŚ;
b) #
opracowanie metodologii oceny gotowości UNESCO, aby pomóc państwom członkowskim w określeniu ich statusu w określonych momentach ich trajektorii gotowości wzdłuż kontinuum wymiarów;
c) #
opracowanie metodologii UNESCO w celu oceny ex ante i ex post skuteczności i wydajności polityk dotyczących etyki i zachęt związanych z SI w odniesieniu do określonych celów;
d) #
wzmocnienie opartej na badaniach i dowodach analizy i sprawozdawczości w zakresie polityk dotyczących etyki SI;
e) #
gromadzenie i rozpowszechnianie postępów, innowacji, sprawozdań z badań, publikacji naukowych, danych i statystyk dotyczących polityki w zakresie etyki SI, w tym za pośrednictwem istniejących inicjatyw, aby wspierać wymianę najlepszych praktyk i wzajemne uczenie się oraz przyspieszyć wdrażanie niniejszego zalecenia.
132. #
Procesy monitorowania i oceny powinny zapewniać szeroki udział wszystkich zainteresowanych stron, w tym między innymi osób wymagających szczególnego traktowania lub osób znajdujących się w trudnej sytuacji.
Należy zapewnić różnorodność społeczną, kulturową i płciową w celu usprawnienia procesów uczenia się i wzmocnienia powiązań między ustaleniami, podejmowaniem decyzji, przejrzystością i rozliczalnością za wyniki.
133. #
W interesie promowania najlepszych polityk i praktyk związanych z etyką sztucznej inteligencji należy opracować odpowiednie narzędzia i wskaźniki do oceny ich skuteczności i wydajności w odniesieniu do uzgodnionych standardów, priorytetów i celów, w tym konkretnych celów dla osób należących do defaworyzowanych, zmarginalizowanych grup społecznych oraz osób znajdujących się w trudnej sytuacji lub osób znajdujących się w trudnej sytuacji, a także wpływu systemów sztucznej inteligencji na poziomie indywidualnym i społecznym.
Monitorowanie i ocena wpływu systemów sztucznej inteligencji oraz związanych z nimi polityk i praktyk w zakresie etyki w zakresie sztucznej inteligencji powinny być prowadzone w sposób ciągły i systematyczny, proporcjonalny do odpowiednich zagrożeń. Powinno to opierać się na ramach uzgodnionych na szczeblu międzynarodowym i obejmować oceny prywatnych i publicznych instytucji, usługodawców i programów, w tym samooceny, a także badania śladowe i opracowanie zestawów wskaźników. Gromadzenie i przetwarzanie danych powinno odbywać się zgodnie z prawem międzynarodowym, krajowymi przepisami dotyczącymi ochrony danych i prywatności danych oraz wartościami i zasadami określonymi w niniejszej Rekomendacji.
134. #
W szczególności państwa członkowskie mogą chcieć rozważyć możliwe mechanizmy monitorowania i oceny, takie jak komisja ds. etyki, obserwatorium ds. etyki SI, repozytorium obejmujące zgodny z prawami człowieka i etyczny rozwój systemów sztucznej inteligencji lub wkład w istniejące inicjatywy poprzez zajęcie się przestrzeganiem zasady etyczne we wszystkich obszarach kompetencji UNESCO, mechanizm wymiany doświadczeń, piaskownice regulacyjne AI oraz przewodnik oceny dla wszystkich podmiotów AI, aby ocenić ich przestrzeganie zaleceń politycznych wymienionych w tym dokumencie.
VI. WYKORZYSTANIE I WYKORZYSTANIE NINIEJSZEGO ZALECENIA #
135. #
Państwa członkowskie i wszystkie inne zainteresowane strony określone w niniejszym zaleceniu powinny szanować, promować i chronić wartości etyczne, zasady i standardy dotyczące sztucznej inteligencji, które są określone w niniejszym zaleceniu, oraz powinny podejmować wszelkie możliwe kroki, aby wprowadzić w życie zawarte w nim zalecenia dotyczące polityki.
136. #
Państwa członkowskie powinny dążyć do rozszerzenia i uzupełnienia własnych działań w odniesieniu do niniejszego Zalecenia, współpracując ze wszystkimi odpowiednimi krajowymi i międzynarodowymi organizacjami rządowymi i pozarządowymi, a także korporacjami transnarodowymi i organizacjami naukowymi, których działalność mieści się w zakresie i cele niniejszego zalecenia
. Opracowanie metodologii oceny wpływu etycznego UNESCO oraz powołanie krajowych komisji ds. etyki sztucznej inteligencji może być ważnymi instrumentami w tym zakresie.
VII. PROMOCJA NINIEJSZEGO ZALECENIA #
137. #
UNESCO ma powołanie do bycia główną agencją Organizacji Narodów Zjednoczonych do promowania i rozpowszechniania niniejszego Zalecenia iw związku z tym będzie współpracować z innymi odpowiednimi jednostkami Organizacji Narodów Zjednoczonych, szanując ich mandat i unikając powielania pracy.
138. #
UNESCO, w tym jego organy, takie jak Światowa Komisja Etyki Wiedzy Naukowej i Technologii (COMEST), Międzynarodowy Komitet Bioetyczny (IBC) oraz Międzyrządowy Komitet Bioetyczny (IGBC), będzie również współpracować z innymi międzynarodowymi, regionalne i subregionalne organizacje rządowe i pozarządowe.
139. #
Mimo że w ramach UNESCO mandat promowania i ochrony należy do kompetencji rządów i organów międzyrządowych, społeczeństwo obywatelskie będzie ważnym aktorem broniącym interesów sektora publicznego i dlatego UNESCO musi zapewnić i promować swoją legitymację.
VIII. POSTANOWIENIA KOŃCOWE #
140. #
Niniejsze Zalecenie należy rozumieć jako całość, a podstawowe wartości i zasady należy rozumieć jako uzupełniające się i wzajemnie powiązane.
141. #
Żadne z postanowień niniejszego Zalecenia nie może być interpretowane jako zastępujące, zmieniające lub w inny sposób naruszające zobowiązania lub prawa państw wynikające z prawa międzynarodowego, ani jako aprobata dla jakiegokolwiek państwa, innego podmiotu politycznego, gospodarczego lub społecznego, grupy lub osoby do angażowania się w jakąkolwiek działalność lub wykonywanie każdy czyn sprzeczny z prawami człowieka, podstawowymi wolnościami, godnością ludzką oraz troską o środowisko i ekosystemy, zarówno żywe, jak i nieożywione.
Monitorowanie #
Rekomendacja, za monitorowanie której odpowiada Zarząd
Pierwsza konsultacja (2025)
Prezentacja skonsolidowanego raportu na Konferencji Generalnej na jej 43. sesji (jesień 2025 r.)
Rozpatrzenie skonsolidowanego sprawozdania Zarządu na jego 222. posiedzeniu (jesień 2025 r.)
Analiza przygotowania zbliżających się konsultacji przez Zarząd na jego 219. sesji (wiosna 2024 r.)
Dodaj komentarz