OECD w maju 2019 r. opublikowało pierwsze międzyrządowe standardy rozwoju Sztucznej Inteligencji. Rekomendacje mają wspierać innowacje i jednocześnie budować zaufanie do Sztucznej Inteligencji poprzez promowanie odpowiedzialnego zarządzania oraz poszanowania praw człowieka i wartości demokratycznych. Zalecenia podzielono na dwie sekcje: skierowane do twórców rozwiązań z zakresu Sztucznej Inteligencji, a także przeznaczone dla decydentów, którzy są odpowiedzialni za tworzenie polityk krajowych.
OECD podjęło się pracy nad Sztuczną Inteligencją podczas szczytu Technology Foresight Forum on AI w 2016 r. oraz konferencji Intelligent Machines, Smart Policies 2017 r. Od tego czasu organizacja opracowała wiele publikacji[1], które analizują rozwój nowoczesnych technologii i jego wpływ na ekonomię, gospodarkę i życie społeczne zarówno na poziomie krajowym, jak i międzynarodowym.
We wrześniu 2018 r. OECD powołało grupę roboczą pod patronatem Komitetu ds. Polityki Gospodarki Cyfrowej (Committee on Digital Economy Policy – CDEP). W skład grupy weszło ponad 50 ekspertów z różnych państw, przedstawicieli administracji, biznesu, społeczeństwa obywatelskiego i środowiska akademickiego. Grupa spotkała się czterokrotnie, a wynikiem jej prac są opublikowane 22 maja 2019 roku rekomendacje: Recommendation of the Council on Artificial Intelligence.
Podzielono je na dwie sekcje: jedna skierowana do twórców rozwiązań z zakresu Sztucznej Inteligencji, a druga przeznaczona dla decydentów, którzy są odpowiedzialni za tworzenie polityk krajowych.
Sekcja 1: Zasady odpowiedzialnego zarządzania Sztuczną Inteligencją
- Rozwój AI dla dobrobytu i zrównoważonego rozwoju
Sztuczna Inteligencja powinna zapewniać dobrobyt ludzkości i przynosić korzyści planecie. Zwiększać możliwości ludzkie, rozwijać kreatywność, umożliwiać integrację grup wykluczonych, minimalizować nierówności gospodarcze, społeczne, płciowe i inne. Ważne, aby rozwój technologii odbywał się z poszanowaniem środowiska naturalnego i w myśl idei zrównoważonego rozwoju.
- Koncentracja na wartościach i człowieku
Twórcy Sztucznej Inteligencji powinni respektować praworządność, prawa człowieka i wartości demokratyczne. Rozwój technologii musi odbywać się z poszanowaniem wolności, prywatności, godności człowieka, z uwzględnieniem ochrony danych, sprawiedliwości i równości społecznej. Eksperci zalecają, aby systemy miały zabezpieczenia umożliwiające ludziom przejęcie kontroli nad maszyną, gdy zajdzie taka potrzeba.
- Transparentność
Systemy Sztucznej Inteligencji powinny być projektowane w sposób transparentny i umożliwiający uzyskanie przez użytkownika informacji o sposobach działania systemu, logice podejmowania decyzji przez algorytm i czynnikach wpływających na tę decyzję. Ważne, aby użytkownikowi przysługiwało prawo zakwestionowania decyzji podjętej przez maszynę.
- Bezpieczeństwo
Sztuczna inteligencja powinna być projektowana w taki sposób, aby zapewnić bezpieczeństwo użytkownikowi, a także przeciwdziałać wykorzystywaniu jej do nieodpowiednich celów. Dlatego konieczna jest możliwość systematycznej analizy ryzyka na każdym etapie cyklu życia maszyny. Użytkownicy powinni również mieć możliwość wglądu w historię podejmowanych przez algorytmy decyzji.
- Odpowiedzialność
Twórcy Sztucznej Inteligencji są odpowiedzialni za prawidłowe funkcjonowanie systemów AI i przestrzeganie zasad etyki.
Sekcja 2: Zasady dla decydentów na poziomie policy
- Inwestowanie w badania i rozwój
Państwa powinny rozważyć długofalowe inwestycje w badania i rozwój Sztucznej Inteligencji, a także zachęcać sektor prywatny do podejmowania inwestycji w technologię, która będzie godna zaufania, etyczna i odpowiedzialna społecznie. Podobne inwestycje powinny być podejmowane na rzecz budowy otwartych i wysokiej jakości zbiorów danych.
- Wspieranie ekosystemu dla rozwoju AI
Państwa powinny promować działania budujące zaufanie do otwartych zbiorów danych i Sztucznej Inteligencji, a także dbać o to, aby rozwój technologii odbywał się w sposób legalny, uczciwy i etyczny. Konieczne jest również budowanie platform dzielenia się wiedzą.
- Kształtowanie środowiska politycznego
Stworzenie i kształtowanie środowiska politycznego, które umożliwia rozwój i eksploatację Sztucznej Inteligencji w sposób etyczny. Zapewnienie kontroli i umożliwienie odpowiedniego skalowania nowych rozwiązań. Państwa powinny dokonać przeglądu obecnych ram prawnych i zadbać o powstanie takich regulacji, które będą sprzyjały rozwojowi etycznych i odpowiedzialnych systemów.
- Budowa kompetencji i przygotowanie rynku pracy
Państwa powinny blisko współpracować ze wszystkimi interesariuszami na rzecz wdrażania transformacji cyfrowej. Ważne, aby motywować obywateli do wykorzystywania nowoczesnych technologii i zwiększać ich kompetencje w tym zakresie. Należy zadbać o dostosowanie rynku pracy, umożliwić przekwalifikowanie pracowników i wspierać procesy uczenia i używania maszyn w codziennych obowiązkach. Państwa powinny promować wykorzystanie AI w celu zwiększenia bezpieczeństwa pracowników, rozwoju przedsiębiorczości, maksymalizacji wydajności i zapewnienia równego dostępu do technologii.
- Współpraca międzynarodowa
Konieczne jest kontynuowanie współpracy międzynarodowej w ramach OECD i innych organizacji, na rzecz budowania etycznej i godnej zaufania Sztucznej Inteligencji. Państwa powinny zachęcać do udziału w międzynarodowych, międzysektorowych inicjatywach, które służą wymianie wiedzy i dobrych praktyk, a także promować rozwój standardów technicznych dla godnych zaufania systemów. OECD proponuje opracowanie porównywalnych na poziomie międzynarodowym wskaźników, które mogą służyć do badań, pomiarów rozwoju i wdrażania AI. Zalecenia OECD nie mają mocy prawnej, ale są brane pod uwagę przy ustalaniu międzynarodowych standardów i projektowaniu prawa krajowego. Stanowią też wytyczne do przeprowadzania dalszych analiz i wypracowania narzędzi wspierających państwa we wdrażaniu etycznej i godnej zaufania Sztucznej Inteligencji. Wdrażanie zaleceń będzie monitorowane przez Komitet ds. Polityki Gospodarki Cyfrowej. Komitet ma również kontynuować prace nad Sztuczną Inteligencją we współpracy z UNESCO, Radą Europy i innymi organizacjami międzynarodowymi.
Podsumowanie:
Szybki rozwój nowoczesnych technologii, w tym Sztucznej Inteligencji, niesie za sobą głębokie zmiany społeczne. Technologia, która staje się stałym elementem codziennego życia, powinna być tworzona z poszanowaniem europejskich praw i wartości. Dlatego na licznych forach międzynarodowych podejmowany jest temat etycznych aspektów rozwoju AI.
Działania OECD korespondują z inicjatywami Komisji Europejskiej, która w 2018 r. opublikowała dwa dokumenty na temat Sztucznej Inteligencji: Komunikat KE Sztuczna Inteligencja dla Europy i Skoordynowany Plan dla Sztucznej Inteligencji. Zarówno w zaleceniach OECD, jak i w dokumentach KE pojawiają się podobne postulaty:
- Opracowanie ram prawnych i etycznych dla bezpiecznej i godnej zaufania Sztucznej Inteligencji.
- Zwiększenie zdolności UE w obszarze Sztucznej Inteligencji poprzez wzrost inwestycji w badania i rozwój, w tym także zachęcanie sektora prywatnego do podejmowania takich inwestycji.
- Nacisk na bezpieczeństwo – ochrona przed zagrożeniami, zaadresowanie potencjalnych nadużyć, analiza ryzyka.
W czerwcu 2018 r. KE powołała grupę 52 ekspertów wysokiego szczebla, którzy opracowali Wytyczne w Zakresie Rozwoju i Wykorzystania Sztucznej Inteligencji (Ethics guidelines for trustworthy AI), zawierające 7 kluczowych wymagań do spełnienia dla rozwoju godnej zaufania Sztucznej Inteligencji. Grupa planuje przeprowadzić ewaluację wypracowanych wniosków i opublikować wyniki prac w 2020 r.
Dyskusje na temat etycznych aspektów AI wydają się niezwykle interesujące także w kontekście obowiązujących od maja 2018 roku nowych rozwiązań europejskich w zakresie ochrony danych osobowych (przeczytaj więcej o RODO). Ochrona danych osobowych by design powinna być elementem tworzonych rozwiązań technologicznych.
[1] Raporty OECD są ogólnodostępne na stronie internetowej: https://www.oecd-ilibrary.org/