17 lipca 2020 roku Komisja Europejska przy wsparciu Grupy ekspertów wysokiego szczebla ds. Sztucznej Inteligencji (High-Level Expert Group on Artificial Intelligence, AI HLEG) przedstawiła ostateczną wersję Listy kontrolnej dla godnej zaufania Sztucznej Inteligencji (Assessment List for Trustworthy AI, ALTAI). To pierwszy unijny instrument, który wspiera twórców systemów SI i organizacje wdrażające SI w identyfikacji ryzyka, ocenie wiarygodności oraz zgodności tworzonych systemów SI z europejskimi wartościami. W przyszłości etyczne, bezpieczne i wspierające demokratyczne wartości systemy SI mają być znakiem rozpoznawczym UE na arenie międzynarodowej.
Koncepcja ALTAI
Koncepcja ALTAI po raz pierwszy została przedstawiona 8 kwietnia 2019 roku przez grupę ekspertów AI HLEG[1] w „Wytycznych w zakresie etyki dotyczącej godnej zaufania Sztucznej Inteligencji” – Ethics Guidelines for Trustworthy AI. Podczas trwającej pół roku fazy pilotażowej eksperci przeprowadzili 50 pogłębionych wywiadów ze specjalistami z obszaru SI oraz przeanalizowali wyniki ponad 350 ankiet. Finalna wersja ALTAI pozwala już w pełni ocenić, czy funkcjonujący, wdrażany lub tworzony system SI jest zgodny z unijnymi kryteriami godnej zaufania Sztucznej Inteligencji. Lista kontrolna ALTAI pomaga także organizacjom w określeniu potencjalnego ryzyka, jakie mogą generować tworzone systemy SI oraz środków, jakie należy podjąć, aby je zminimalizować. Zdaniem ekspertów aktywne korzystanie z listy ALTAI pozwoli kształtować kulturę organizacyjną i angażować środowisko biznesowe w rozwój systemów SI opartych na europejskich wartościach.
Główne założenia ALTAI
Lista ALTAI składa się z siedmiu sekcji odpowiadających rekomendacjom ekspertów AI HLEG dla etycznej i godnej zaufania SI. Każda sekcja zawiera listę pytań o charakterze zamkniętym, a także glosariusz, który w przystępny sposób wyjaśnia stosowane pojęcia.
Sekcja 1. SI zarządzana i nadzorowana przez człowieka
Systemy SI powinny wspierać ludzką autonomię, sprawczość i procesy decyzyjne. Pytania w tej sekcji odnoszą się do dwóch zagadnień związanych z ludzkim nadzorem nad systemami SI. Liczba pytań: 23.
Sekcja 2. SI solidna i bezpieczna
Kluczowym wymogiem dla osiągnięcia godnych zaufania systemów SI jest ich niezawodność i bezpieczeństwo. Solidność techniczna wymaga, aby systemy SI były opracowywane zgodnie z podejściem zapobiegawczym do zagrożeń oraz aby zachowywały się zgodnie z zamierzeniami. Pytania w tej sekcji odnoszą się do czterech zagadnień związanych z bezpieczeństwem i niezawodnością systemów SI. Liczna pytań: 33.
Sekcja 3. SI szanująca prywatność i odpowiedzialnie zarządzająca danymi
Ochrona prywatności i odpowiedzialne zarządzanie danymi są istotnymi elementami godnych zaufania systemów SI. Pytania w tej sekcji odnoszą się do dwóch zagadnień związanych z przetwarzaniem danych w sposób, który chroni prywatność użytkowników systemów SI. Liczba pytań: 13.
Sekcja 4. SI transparentna
Godna zaufania SI powinna być transparentna i zrozumiała. Pytania z tej sekcji odnoszą się do trzech zagadnień związanych z działaniem SI, a zwłaszcza do wyjaśniania procesów i algorytmów, które wykorzystuje SI w procesie podejmowania decyzji. Liczba pytań: 12.
Sekcja 5. SI Zróżnicowana, niedyskryminująca i sprawiedliwa
Systemy SI powinny być ukierunkowane na użytkownika i zaprojektowane w taki sposób, aby umożliwić wszystkim ludziom korzystanie z produktów lub usług SI, niezależnie od ich wieku, płci i innych cech. Pytania w tej sekcji odnoszą się do trzech zagadnień związanych z dyskryminacją pewnych grup lub osób. Liczba pytań: 25.
Sekcja 6. SI działająca na rzecz dobrobytu człowieka i środowiska
Systemy SI należy wykorzystywać z myślą o długofalowych korzyściach zarówno dla ludzi, jak i środowiska. Pytania w tej sekcji odnoszą się do trzech zagadnień związanych z wpływem SI na środowisko, pracę i umiejętności, a także duże grupy ludzi. Liczba pytań: 16.
Sekcja 7. Odpowiedzialna (rozliczalna)
Rozwój godnej zaufania SI wymaga wprowadzenia mechanizmów zapewniających odpowiedzialny rozwój, wdrażanie i wykorzystywanie systemów SI. Pytania w tej sekcji odnoszą się do dwóch zagadnień związanych z zarządzaniem ryzykiem i możliwością prowadzenia audytów systemów SI. Liczba pytań: 8.
Zgodnie z unijną strategią SI, europejska godna zaufania SI opiera się na trzech wzajemnie uzupełniających się i zorientowanych na człowieka koncepcjach: zgodność z prawem (poszanowanie wszystkich obowiązujących przepisów międzynarodowych, europejskich i krajowych); etyka (zapewnienie przestrzegania zasad etyki i europejskich wartości); rzetelność (zapewnienie solidności, bezpieczeństwa i odpowiedzialności zarówno z technicznego, jak i społecznego punktu widzenia). W rekomendacjach „Ethics Guidelines for Trustworthy AI” eksperci AI HLEG zdefiniowali również 4 nadrzędne wytyczne z obszaru etyki, które mają zapewnić rozwój godnej zaufania SI w Europie. Wytyczne odnoszą się do: poszanowania autonomii człowieka; zapobiegania szkodom i zagrożeniom; uczciwości i sprawiedliwości; transparentności.
ALTAI opiera się na Europejskiej Konwencji Praw Człowieka (https://www.echr.coe.int/Documents/Convention_ENG.pdf) i Europejskiej Karcie Społecznej (https://www.coe.int/en/web/european-social-charter). Eksperci zwracają uwagę, że twórcy systemów SI oraz organizacje wdrażające SI powinny w pierwszej kolejności ocenić czy obecnie stosowane lub projektowane rozwiązania z dziedziny SI:
- Potencjalnie nie dyskryminują ludzi na podstawie: płci, rasy, koloru skóry, pochodzenia etnicznego, cech genetycznych, języka, religii, przekonań i poglądów politycznych, przynależności do mniejszości narodowej, statusu ekonomicznego, miejsca urodzenia, niepełnosprawności i stanu zdrowia, wielu lub orientacji seksualnej.
- Szanują prawa dziecka.
- Chronią prawo do prywatności, w szczególności danej osobowe dotyczące osób fizycznych w rozumieniu RODO.
- Szanują wolność wypowiedzi i/lub zgromadzeń.
Nadrzędnymi celami listy ALTAI są wspieranie odpowiedzialnych, zróżnicowanych innowacji w obszarze SI w Europie, a także uczynienie z etyki podstawowego filaru rozwoju SI w Europie. Zdaniem ekspertów, w przyszłości pozwoli to europejskim organizacjom i przedsiębiorstwom zająć pozycję światowych liderów w dziedzinie nowych technologii, które są godne indywidualnego i zbiorowego zaufania.
ALTAI w praktyce
Eksperci z AI HLEG zalecają wypełnienie listy ALTAI w interdyscyplinarnym zespole, którego członkowie posiadają kompetencje i doświadczenie w zakresie: projektowania i programowania systemów SI, analizy danych, znajomości prawnych aspektów funkcjonowania SI, zarządzania oraz obsługi SI. Tak kompleksowe podejście do oceny potencjalnych skutków działania SI ma kluczowe znaczenie dla rozwoju bezpiecznej, etycznej i zgodnej z prawem technologii. Osoby wypełniające listę ALTAI odnoszą się do pytań zawartych w poszczególnych sekcjach dokumentu. Narzędzie może być stosowane elastycznie, zgodnie z profilem danej organizacji tworzącej systemy SI oraz sektorem działalności. Zgodnie z założeniami ekspertów pytania zawarte w poszczególnych sekcjach Narzędzie można pobrać ze strony internetowej KE https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=68342 lub skorzystać z dynamicznego formularza on-line (konieczna rejestracja) dostępnej pod adresem: https://altai.insight-centre.org/.
Podsumowanie:
- Lista kontrolna ALTAI bezpośrednio nawiązuje do siedmiu wymagań dla godnej zaufania SI, które zostały przedstawione w dokumencie z dnia 8 kwietnia 2019 roku – Ethics Guidelines for Trustworthy AI.
- ALTAI ma wspierać twórców SI i organizacje wdrażające SI w określeniu, jakie ryzyko mogą generować tworzone systemy SI oraz jakie środki należy podjąć, żeby zminimalizować to ryzyko.
- To pierwszy unijny instrument, który umożliwia identyfikację ryzyka, ocenę wiarygodności i zgodności tworzonych systemów SI z europejskimi wartościami.
- Wprowadzenie ALTAI jest kolejnym krokiem do budowy przewagi konkurencyjnej UE na arenie międzynarodowej w obszarze systemów SI. Nowe systemy SI, które silnie akcentują etyczny wymiar technologii i wspierają demokratyczne wartości w przyszłości będą znakiem rozpoznawczym europejskiej technologii na świecie.
[1] Grupa Ekspertów ds. Sztucznej Inteligencji została powołana przez Komisję Europejską w czerwcu 2018 roku. Składa się z 52 członków reprezentujących środowisko akademickie, przemysł i społeczeństwo obywatelskie. Celem grupy jest wspieranie procesu wdrażania europejskiej strategii dotyczącej Sztucznej Inteligencji ze szczególnym uwzględnieniem kwestii etycznych, prawnych i społecznych.