Rekomendacje etycznego wykorzystania SI dla Departamentu Obrony USA

W lipcu 2018 roku kierownictwo Departamentu Obrony Stanów Zjednoczonych zleciło Radzie ds. Innowacji Obronnych[1] (Defense Innovation Board) zaproponowanie zestawu zasad etycznych dotyczących sztucznej inteligencji[2]. Zasady te miały odnosić się do projektowania, rozwoju i wdrażania SI zarówno do celów bojowych, jak i innych[3]. Miały być też zgodne z misją Departamentu Obrony, którą jest zapobieganie wojnie i zapewnienie bezpieczeństwa kraju.

Zasady zostały przedstawione w listopadzie 2019 roku. Przez 15 miesięcy Rada przeprowadziła szeroko zakrojone konsultacje, które obejmowały m.in. dyskusje oraz wywiady ze specjalistami z branży, środowisk akademickich i sektora prywatnego. Zorganizowano także dwa ćwiczenia z ekspertami z Departamentu Obrony, środowiska akademickiego i przedstawicieli służb specjalnych. Ponadto co miesiąc odbywały się spotkania grupy roboczej.

Przygotowując zasady etyczne dla sztucznej inteligencji, rada opierała się na etycznych, prawnych i politycznych standardach, istniejących już w Departamencie Obrony. Stwierdzono, że niektóre aspekty wykorzystania SI mogą opierać się m.in. na Konstytucji Stanów Zjednoczonych, Kodeksie USA[4], prawie wojennym oraz obowiązujących  traktatach międzynarodowych. Mimo to, należało przygotować zalecenia, które pozwoliłyby na trwałą implementację zasad sztucznej inteligencji, tak aby wytrzymały próbę czasu i dalszy rozwój nowych technologii.

Autorzy raportu starali się odpowiedzieć na pytanie, dlaczego powinniśmy nadać priorytet etycznym aspektom sztucznej inteligencji? Ich zdaniem, wobec bardzo szybkiego rozwoju systemów SI, należy jeszcze teraz, zanim doszło do incydentu, odbyć poważną dyskusję o normach rozwoju i wykorzystania sztucznej inteligencji w kontekście wojskowym. Zwłaszcza, że jej potencjał dostrzegają również inne państwa, takie jak Chiny czy Rosja, które inwestują ogromne środki w modernizację swoich sił zbrojnych. Co więcej, władze autorytarne często nie przestrzegają norm prawnych, moralnych czy etycznych, które są uwzględniane przez kraje demokratyczne.

Dlatego autorzy wyraźnie podkreślają, że Departament Obrony ma obowiązki wobec narodu amerykańskiego i jego sojuszników. Do tych obowiązków należy m.in. zachowanie strategicznej i technologicznej przewagi nad przeciwnikami.

Zasady etyki sztucznej inteligencji dla Departamentu Obrony

Przedstawione zasady dotyczą zarówno systemów walki, jak i systemów nie-bojowych. Według zaleceń Rady, Departament Obrony powinien dążyć do tego, aby systemy SI były wykorzystywane w sposób:

1. Odpowiedzialny. Ludzie powinni zachować odpowiedni poziom osądu i pozostać odpowiedzialni za rozwój, wdrożenie, wykorzystanie i wyniki systemów sztucznej inteligencji.

2. Sprawiedliwy. Departament powinien podjąć kroki, aby przy opracowywaniu i wdrażaniu bojowych lub nie-bojowych systemów sztucznej inteligencji uniknąć niezamierzonego uprzedzenia, które mogłoby przypadkowo wyrządzić szkodę ludziom.

3. Identyfikowalny. Dyscyplina inżynierii sztucznej inteligencji w Departamencie Obrony powinna być wystarczająco zaawansowana, aby eksperci techniczni posiadali odpowiednie zrozumienie technologii, procesów rozwojowych i metod operacyjnych (przejrzysta metodologia, źródła danych, procedury projektowania, dokumentacja).

4. Niezawodny. Systemy powinny mieć wyraźną, dobrze zdefiniowaną domenę użytkowania, a ich bezpieczeństwo, niezawodność i odporność powinny być testowane i zapewniane przez cały cykl życia.

5. Możliwy do zarządzania (Governable). Systemy SI należy projektować i konstruować tak, aby spełniały swoją zamierzoną funkcję, a jednocześnie potrafiły wykrywać i unikać niezamierzonych szkód lub zakłóceń. Powinny być też możliwe do wyłączania lub dezaktywacji przez ludzi lub zautomatyzowane systemy, które wykazują niezamierzone zachowania.

12 zaleceń dla Departamentu Obrony USA

Rada zaproponowała 12 działań, które mogą pomóc Departamentowi Obrony sformułować i wdrożyć rekomendacje etyczne dla SI.

1. Sformalizowanie rekomendacji etycznych przy użyciu oficjalnych kanałów Departamentu Obrony. Uwzględnienie tej kwestii przez Sekretarza Obrony w dokumentach o charakterze policy, ma pomóc zapewnić trwałość zasad etycznych sztucznej inteligencji.

2. Ustanowienie komitetu sterującego SI obejmującego cały Departament Obrony. Zastępca sekretarza obrony powinien powołać komisję wyższego szczebla. Byłaby ona odpowiedzialna za zapewnienie nadzoru i realizacji strategii sztucznej inteligencji w Departamencie Obrony oraz zgodności realizowanych projektów z zasadami etycznymi SI.

3. Rozwijanie dziedziny inżynierii sztucznej inteligencji. Biuro Podsekretarza ds. Badań i Inżynierii powinno wspierać rozwój dyscypliny, jaką jest inżynieria sztucznej inteligencji. Warto w tym celu m.in. zaangażować szerszą społeczność naukową, a także zapewnić konkretne możliwości początkującym badaczom.

4. Ulepszenie programów szkoleń w Departamencie Obrony. Należy ustanowić programy szkoleń i edukacji, które pozwolą nabyć umiejętności oraz wiedzę związaną z SI. Powinny być one szeroko dostępne na wszystkich etapach kariery. Ważne, aby młodsi oficerowie, a także nowo zatrudnieni pracownicy cywilni, byli zaznajamiani ze sztuczną inteligencję już na wczesnym etapie kariery. Departament powinien zapewnić im możliwości nauki przez całą dalszą karierę.

5. Inwestowanie w badania nad nowymi aspektami bezpieczeństwa SI. W dobie sztucznej inteligencji, zmieniają się sposoby konkurowania oraz odstraszania. Dlatego należy zainwestować w zrozumienie nowych podejść, szczególnie gdy są one połączone z innymi dziedzinami, takimi jak cyberbezpieczeństwo, informatyka kwantowa, operacje informacyjne czy biotechnologia.

6. Inwestowanie w badania, aby zwiększyć odtwarzalność. Powinno się inwestować w badania, które poprawią odtwarzalność systemów SI. Wyzwaniem będzie zrozumienie, jak działają skomplikowane modele sztucznej inteligencji. Pozwoli to uniknąć problemu tzw. czarnej skrzynki, czyli zjawiska, gdy wyniki algorytmu są niezrozumiałe dla jego twórców.

7. Zdefiniowanie testów niezawodności. Należy zbadać, w jaki sposób najlepiej opracować odpowiednie wzorce do pomiaru wydajności systemów SI, w tym w odniesieniu do wydajności człowieka.

8. Wzmocnienie technik testowania i oceny SI. Warto wykorzystywać, a także ulepszać istniejące procedury służące do prowadzenia testów, oceny czy weryfikacji. W razie potrzeby, należy tworzyć nową infrastrukturę dla systemów sztucznej inteligencji.

9. Opracowanie metodologii zarządzania ryzykiem. Należy stworzyć systematykę wykorzystywania SI przez Departament Obrony w oparciu o przyjęte względy bezpieczeństwa, etyczne i prawne. Powinna ona zachęcać do szybkiego wdrażania dojrzałych technologii w aplikacjach niskiego ryzyka. Z drugiej strony powinna podkreślać konieczność stosowania wyższych środków ostrożności i kontroli w aplikacjach, które są mniej dojrzałe lub mogą prowadzić do poważnych negatywnych konsekwencji.

10. Zapewnienie właściwego wdrożenia zasad etyki sztucznej inteligencji. Powinno się przeprowadzić ocenę właściwego wdrożenia tych zasad w oparciu o obowiązujące przepisy prawa.

11. Rozwijanie badań, aby zrozumieć, jak wdrożyć zasady etyki SI. Powołanie Multidisciplinary University Research Initiative, czyli projektu, który będzie dotyczył bezpieczeństwa, ochrony i niezawodności sztucznej inteligencji. Projekt powinien służyć jako punkt wyjścia do ciągłych badań podstawowych i akademickich.

12. Coroczna konferencja na temat bezpieczeństwa, ochrony i odporności sztucznej inteligencji. Dziedziny związane ze sztuczną inteligencją rozwijają się bardzo szybko. Dlatego warto organizować coroczną konferencję dotyczącą zagadnień związanych z etycznymi aspektami, bezpieczeństwem i niezawodnością sztucznej inteligencji.

Podsumowanie

  • Zestaw zasad etycznych dotyczących sztucznej inteligencji przygotowała Rada ds. Innowacji Obronnych (Defense Innovation Board) na zlecenie Departamentu Obrony USA.
  • Według Rady, Departament Obrony powinien dążyć do tego, aby systemy SI były: odpowiedzialne, sprawiedliwe, identyfikowalne, niezawodne, możliwe do zarządzania.
  • Ostatecznie to Departament Obrony zadecyduje, jak najlepiej postępować zgodnie z przedstawionymi przez Radę zaleceniami.
  • Według autorów raportu należy jak najszybciej, zanim doszło do incydentu, odbyć poważną dyskusję o normach rozwoju i wykorzystania sztucznej inteligencji w kontekście wojskowym.
  • Rozwój systemów sztucznej inteligencji jest kluczowy dla Departamentu Obrony USA, do którego obowiązków należy m.in. zachowanie strategicznej i technologicznej przewagi nad przeciwnikami.

Pobierz dokumenty:


[1] Rada jest niezależnym federalnym komitetem doradczym, który wspiera Departament Obrony, lecz nie wypowiada się w jego imieniu. W skład rady wchodzą eksperci z dziedziny SI z całych Stanów Zjednoczonych, pracujący w przemyśle, środowisku akademickim i think tankach.

[2] Autorzy dokumentu podkreślają, że sztuczna inteligencja jest niezwykle szeroką dyscypliną, zdefiniowaną na wiele różnych sposobów do wielu różnych celów. Rozróżniają również sztuczną inteligencję od systemów autonomicznych. Niektóre autonomiczne systemy mogą wykorzystywać SI, lecz nie dzieje się tak zawsze.

[3] Strategia Obrony Narodowej z 2018 roku wzywa do większych inwestycji w sztuczną inteligencję i autonomiczne systemy, aby zapewnić USA przewagę wojskową. Dostosowana do niej Strategia SI Departamentu Obrony wskazuje z kolei, że departament powinien być liderem w opracowywaniu etycznych wytycznych SI. Zobowiązanie to jest jednym z pięciu filarów strategii i zostało ujęte jako „Wiodąca etyka wojskowa i bezpieczeństwo SI”.

[4] Tytuł 10 Kodeksu Stanów Zjednoczonych określa rolę sił zbrojnych w Kodeksie Stanów Zjednoczonych.

TAGI sztuczna inteligencja,