Etyczna Sztuczna Inteligencja – rekomendacje OECD

OECD w maju 2019 r. opublikowało pierwsze międzyrządowe standardy rozwoju Sztucznej Inteligencji. Rekomendacje mają wspierać innowacje i jednocześnie budować zaufanie do Sztucznej Inteligencji poprzez promowanie odpowiedzialnego zarządzania oraz poszanowania praw człowieka i wartości demokratycznych. Zalecenia podzielono na dwie sekcje: skierowane do twórców rozwiązań z zakresu Sztucznej Inteligencji, a także przeznaczone dla decydentów, którzy są odpowiedzialni za tworzenie polityk krajowych.

OECD podjęło się pracy nad Sztuczną Inteligencją podczas szczytu Technology Foresight Forum on AI w 2016 r. oraz konferencji Intelligent Machines, Smart Policies 2017 r. Od tego czasu organizacja opracowała wiele publikacji[1], które analizują rozwój nowoczesnych technologii i jego wpływ na ekonomię, gospodarkę i życie społeczne zarówno na poziomie krajowym, jak i międzynarodowym.

We wrześniu 2018 r. OECD powołało grupę roboczą pod patronatem Komitetu ds. Polityki Gospodarki Cyfrowej (Committee on Digital Economy Policy – CDEP). W skład grupy weszło ponad 50 ekspertów z różnych państw, przedstawicieli administracji, biznesu, społeczeństwa obywatelskiego i środowiska akademickiego. Grupa spotkała się czterokrotnie, a wynikiem jej prac są opublikowane 22 maja 2019 roku rekomendacje: Recommendation of the Council on Artificial Intelligence.

Podzielono je na dwie sekcje: jedna skierowana do twórców rozwiązań z zakresu Sztucznej Inteligencji, a druga przeznaczona dla decydentów, którzy są odpowiedzialni za tworzenie polityk krajowych.

Sekcja 1: Zasady odpowiedzialnego zarządzania Sztuczną Inteligencją

  • Rozwój AI dla dobrobytu i zrównoważonego rozwoju

Sztuczna Inteligencja powinna zapewniać dobrobyt ludzkości i przynosić korzyści planecie. Zwiększać możliwości ludzkie, rozwijać kreatywność, umożliwiać integrację grup wykluczonych, minimalizować nierówności gospodarcze, społeczne, płciowe i inne. Ważne, aby rozwój technologii odbywał się z poszanowaniem środowiska naturalnego i w myśl idei zrównoważonego rozwoju.

  • Koncentracja na wartościach i człowieku

Twórcy Sztucznej Inteligencji powinni respektować praworządność, prawa człowieka i wartości demokratyczne. Rozwój technologii musi odbywać się z poszanowaniem wolności, prywatności, godności człowieka, z uwzględnieniem ochrony danych, sprawiedliwości i równości społecznej. Eksperci zalecają, aby systemy miały zabezpieczenia umożliwiające ludziom przejęcie kontroli nad maszyną, gdy zajdzie taka potrzeba.

  • Transparentność

Systemy Sztucznej Inteligencji powinny być projektowane w sposób transparentny i umożliwiający uzyskanie przez użytkownika informacji o sposobach działania systemu, logice podejmowania decyzji przez algorytm i czynnikach wpływających na tę decyzję. Ważne, aby użytkownikowi przysługiwało prawo zakwestionowania decyzji podjętej przez maszynę. 

  • Bezpieczeństwo

Sztuczna inteligencja powinna być projektowana w taki sposób, aby zapewnić bezpieczeństwo użytkownikowi, a także przeciwdziałać wykorzystywaniu jej do nieodpowiednich celów. Dlatego konieczna jest możliwość systematycznej analizy ryzyka na każdym etapie cyklu życia maszyny. Użytkownicy powinni również mieć możliwość wglądu w historię podejmowanych przez algorytmy decyzji.

  • Odpowiedzialność

Twórcy Sztucznej Inteligencji są odpowiedzialni za prawidłowe funkcjonowanie systemów AI i przestrzeganie zasad etyki.

Sekcja 2: Zasady dla decydentów na poziomie policy

  • Inwestowanie w badania i rozwój

Państwa powinny rozważyć długofalowe inwestycje w badania i rozwój Sztucznej Inteligencji, a także zachęcać sektor prywatny do podejmowania inwestycji w technologię, która będzie godna zaufania, etyczna i odpowiedzialna społecznie. Podobne inwestycje powinny być podejmowane na rzecz budowy otwartych i wysokiej jakości zbiorów danych.

  • Wspieranie ekosystemu dla rozwoju AI

Państwa powinny promować działania budujące zaufanie do otwartych zbiorów danych i Sztucznej Inteligencji, a także dbać o to, aby rozwój technologii odbywał się w sposób legalny, uczciwy i etyczny. Konieczne jest również budowanie platform dzielenia się wiedzą.

  • Kształtowanie środowiska politycznego

Stworzenie i kształtowanie środowiska politycznego, które umożliwia rozwój i eksploatację Sztucznej Inteligencji w sposób etyczny. Zapewnienie kontroli i umożliwienie odpowiedniego skalowania nowych rozwiązań. Państwa powinny dokonać przeglądu obecnych ram prawnych i zadbać o powstanie takich regulacji, które będą sprzyjały rozwojowi etycznych i odpowiedzialnych systemów.

  • Budowa kompetencji i przygotowanie rynku pracy

Państwa powinny blisko współpracować ze wszystkimi interesariuszami na rzecz wdrażania transformacji cyfrowej. Ważne, aby motywować obywateli do wykorzystywania nowoczesnych technologii i zwiększać ich kompetencje w tym zakresie. Należy zadbać o dostosowanie rynku pracy, umożliwić przekwalifikowanie pracowników i wspierać procesy uczenia i używania maszyn w codziennych obowiązkach. Państwa powinny promować wykorzystanie AI w celu zwiększenia bezpieczeństwa pracowników, rozwoju przedsiębiorczości, maksymalizacji wydajności i  zapewnienia równego dostępu do technologii.

  • Współpraca międzynarodowa

Konieczne jest kontynuowanie współpracy międzynarodowej w ramach OECD i innych organizacji, na rzecz budowania etycznej i godnej zaufania Sztucznej Inteligencji. Państwa powinny zachęcać do udziału w międzynarodowych, międzysektorowych inicjatywach, które służą wymianie wiedzy i dobrych praktyk, a także promować rozwój standardów technicznych dla godnych zaufania systemów. OECD proponuje opracowanie porównywalnych na poziomie międzynarodowym wskaźników, które mogą służyć do badań, pomiarów rozwoju i wdrażania AI. Zalecenia OECD nie mają mocy prawnej, ale są brane pod uwagę przy ustalaniu międzynarodowych standardów i projektowaniu prawa krajowego. Stanowią też wytyczne do przeprowadzania dalszych analiz i wypracowania narzędzi wspierających państwa we wdrażaniu etycznej i godnej zaufania Sztucznej Inteligencji. Wdrażanie zaleceń będzie monitorowane przez Komitet ds. Polityki Gospodarki Cyfrowej. Komitet ma również kontynuować prace nad Sztuczną Inteligencją we współpracy z UNESCO, Radą Europy i innymi organizacjami międzynarodowymi.

Podsumowanie:

Szybki rozwój nowoczesnych technologii, w tym Sztucznej Inteligencji, niesie za sobą głębokie zmiany społeczne. Technologia, która staje się stałym elementem codziennego życia, powinna być tworzona z poszanowaniem europejskich praw i wartości. Dlatego na licznych forach międzynarodowych podejmowany jest temat etycznych aspektów rozwoju AI.

Działania OECD korespondują z inicjatywami Komisji Europejskiej, która w 2018 r. opublikowała dwa dokumenty na temat Sztucznej Inteligencji: Komunikat KE Sztuczna Inteligencja dla Europy i Skoordynowany Plan dla Sztucznej Inteligencji. Zarówno w zaleceniach OECD, jak i w dokumentach KE pojawiają się podobne postulaty:

  1. Opracowanie ram prawnych i etycznych dla bezpiecznej i godnej zaufania Sztucznej Inteligencji.
  2. Zwiększenie zdolności UE w obszarze Sztucznej Inteligencji poprzez wzrost inwestycji w badania i rozwój, w tym także zachęcanie sektora prywatnego do podejmowania takich inwestycji.
  3. Nacisk na bezpieczeństwo – ochrona przed zagrożeniami, zaadresowanie potencjalnych nadużyć, analiza ryzyka.

W czerwcu 2018 r. KE powołała grupę 52 ekspertów wysokiego szczebla, którzy opracowali Wytyczne w Zakresie Rozwoju i Wykorzystania Sztucznej Inteligencji (Ethics guidelines for trustworthy AI), zawierające 7 kluczowych wymagań do spełnienia dla rozwoju godnej zaufania Sztucznej Inteligencji. Grupa planuje przeprowadzić ewaluację wypracowanych wniosków i opublikować wyniki prac w 2020 r.

Dyskusje na temat etycznych aspektów AI wydają się niezwykle interesujące także w kontekście obowiązujących od maja 2018 roku nowych rozwiązań europejskich w zakresie ochrony danych osobowych (przeczytaj więcej o RODO). Ochrona danych osobowych by design powinna być elementem tworzonych rozwiązań technologicznych.


[1] Raporty OECD są ogólnodostępne na stronie internetowej: https://www.oecd-ilibrary.org/