Odpowiedzialność za sztuczną inteligencję i inne nowe technologie cyfrowe

22 listopada 2019 roku Komisja Europejska opublikowała raport Grupy Ekspertów ds. Odpowiedzialności i Nowych Technologii (Expert Group on Liability and New Technologies „NTF”) dotyczący odpowiedzialności prawnej za szkody powstałe w wyniku działania sztucznej inteligencji i innych nowych technologii cyfrowych.

Autorzy ekspertyzy „Liability for Artificial Intelligence and other emerging digital technologies” podkreślają, że obecne obowiązujące przepisy w państwach członkowskich oraz w całej Unii Europejskiej w sposób niewystarczający, nieefektywny, a w niektórych przypadkach niesprawiedliwy, regulują kwestię prawnej odpowiedzialności za sztuczną inteligencję i nowe technologie cyfrowe, takie jak Internet Rzeczy czy Technologię Zdecentralizowanych Ksiąg Rachunkowych.

Raport Grupy Ekspertów „NTF” zawiera szereg zaleceń i zmian, które należy wprowadzić do systemów odpowiedzialności na poziomie Unii Europejskiej, aby mogły one sprostać wyzwaniom związanym z rozwojem nowoczesnych technologii.  Na szczególną uwagę zasługuje wniosek ekspertów na temat nadawania osobowości prawnej sztucznej inteligencji. Zdaniem autorów raportu, nie jest to konieczne, ani pożądane, ponieważ szkody powstałe w wyniku funkcjonowania nowych technologii mogą i powinny być przypisane odpowiedzialnym za nie osobom lub instytucjom.

Kontekst prac nad raportem

16 lutego 2017 roku Parlament Europejski przyjął rezolucję zawierającą szereg zaleceń dla Komisji Europejskiej w sprawie przepisów prawa cywilnego dotyczącego odpowiedzialności robotów i sztucznej inteligencji. Rok później, Biuro Analiz Parlamentu Europejskiego opublikowało raport z badania „A common EU approach to liability rules and insurance for connected and autonomous vehicles” [1], które wykazało konieczność zmian obecnych ram prawnych na poziomie Unii Europejskiej w odniesieniu do regulacji odpowiedzialności cywilnej, a także ubezpieczeń pojazdów autonomicznych.

W świetle przeprowadzonych badań Komisja Europejska w marcu 2018 roku powołała Grupę Ekspertów ds. Odpowiedzialności i Nowych Technologii „NTF”, której głównym celem było dostarczenie Komisji Europejskiej wiedzy na temat możliwości stosowaniaDyrektywy w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe” w odniesieniu do sztucznej inteligencji i nowych technologii. Problem oceny obecnych rozwiązań prawnych do realiów rynku cyfrowego został szczegółowo omówiony w raporcie „Liability for Artificial Intelligence and other emerging digital technologies”.

Zasady dotyczące odpowiedzialności sztucznej inteligencji i nowych technologii cyfrowych

W raporcie „Liability for Artificial Intelligence and other emerging digital technologies” Grupa Ekspertów „NTF” sformułowała listę podstawowych zasad dotyczących odpowiedzialności sztucznej inteligencji i nowych technologii cyfrowych, które należy wdrożyć do porządku prawnego na poziomie Unii Europejskiej i państw członkowskich. Zdaniem Autorów raportu specyfika sztucznej inteligencji i nowych technologii – ich złożoność, możliwość zmiany istoty działania po modyfikacji, ograniczona przewidywalność oraz podatność na zagrożenia cyberbezpieczeństwa wymaga wprowadzenia stosownych zmian w prawie Unii Europejskiej, które m.in. ułatwią poszkodowanym uzyskanie odszkodowania w przypadku wystąpienia szkód powstałych w wyniku działania nowych technologii. Należy jednak podkreślić, że poniższe zasady ograniczają się wyłącznie do kwestii pozaumownej odpowiedzialności pomijając normy techniczne.

Kluczowe wnioski Grupy Ekspertów „NTF”

  • Osoba obsługująca dopuszczoną technologię, której działanie niesie ze sobą zwiększone ryzyko wyrządzenia szkody innym osobom (np. roboty wykorzystujące sztuczną inteligencję poruszające się w przestrzeni publicznej) powinna podlegać ścisłej odpowiedzialności za szkody powstałe w wyniku działania tej technologii.
  • Należy zwrócić szczególną uwagę na ustalenie faktycznej odpowiedzialności za działanie technologii w sytuacji, w której to dostawca usług lub produktów wyposażonych w sztuczną inteligencję, a nie użytkownik danej usługi lub produktu posiada wyższy stopień kontroli nad tymi usługami lub produktami.
  • Osoba korzystająca z technologii, której działanie nie niesie ze sobą zwiększonego ryzyka wyrządzenia szkody innym osobom, powinna być zobowiązana do przestrzegania należytej staranności w kwestii wyboru technologii, sposobu jej działania i monitorowania. W przeciwnym wypadku taka osoba powinna ponieść odpowiedzialność za niedopełnienie tych obowiązków.
  • Producenci produktów bądź treści cyfrowych wykorzystujący nowe technologie powinni ponosić odpowiedzialność za szkody wyrządzone przez wadliwe produkty bądź treści cyfrowe, po wprowadzeniu ich na rynek. W przypadku współpracy wielu firm, każda z firm powinna solidarnie przyjąć odpowiedzialność za ewentualne szkody spowodowane przez dany produkt lub treść cyfrową.
  • Zasadne wydaje się wprowadzenie obowiązkowych ubezpieczeń, które w przypadku wyrządzenia szkody osobom trzecim na skutek niewłaściwego działania technologii umożliwiłyby ofiarom lepszy dostęp do odszkodowania.
  • W przypadku, w którym wyraźne przypisanie odpowiedzialności za wyrządzone szkody technologii jest niemożliwe, osoba poszkodowana powinna móc skorzystać z ułatwień dowodowych.
  • Nowe technologie cyfrowe powinny być wyposażone w funkcje rejestrowania i przechowywania danych dotyczących funkcjonowania tych technologii, a także funkcje umożliwiające wgląd do tych danych. W przypadku wystąpienia szkody, brak takich rozwiązań powinien skutkować odwróceniem ciężaru dowodu na korzyść poszkodowanego.
  • Zniszczenie danych osoby poszkodowanej powinno być traktowane, jako szkoda, która podlega odszkodowaniu.
  • Nadanie autonomicznym produktom, systemom lub usługom osobowości prawnej nie jest konieczne, ponieważ szkody powstałe w wyniku funkcjonowania nowych technologii mogą i powinny być przypisane odpowiedzialnym za nie osobom lub instytucjom.
  • Osoba korzystająca z technologii, która posiada pewien stopień autonomii, nie powinna ponosić mniejszej odpowiedzialności za wynikłe szkody, niż gdyby szkoda ta została spowodowana działaniem wyłącznie ludzkim.

Podsumowanie

  • Raport Grupy Ekspertów „NTF” zawiera szereg zaleceń i zmian, które należy wprowadzić do systemów odpowiedzialności na poziomie Unii Europejskiej.
  • Zdaniem ekspertów obecnie obowiązujące w państwach członkowskich oraz w całej Unii Europejskiej przepisy w sposób niewystarczający i nieefektywny regulują kwestię prawnej odpowiedzialności za sztuczną inteligencję i nowe technologie cyfrowe.
  • Nadawanie osobowości prawnej sztucznej inteligencji nie jest konieczne, ani pożądane, ponieważ szkody powstałe w wyniku funkcjonowania nowych technologii mogą i powinny być przypisane odpowiedzialnym za nie osobom lub instytucjom.

[1] Evas, T., Rohr, C., Dunkerley, F., & Howarth, D. (2018). A Common EU approach to liability rules and insurance for connected and autonomous vehicles. http://www.europarl.europa.eu/RegData/etudes/STUD/2018/615635/EPRS_STU(2018)615635_EN.pdf

[2] Grupa Ekspertów ds. Odpowiedzialności i Nowych Technologii („NTF”) składa się z 73 członków powoływanych na okres 2 lat, w tym 22 niezależnych ekspertów, 19 przedstawicieli organizacji, 28 członków reprezentujących organy państw członkowskich UE oraz 4 członków reprezentujących podmioty publiczne. Grupa Ekspertów „NTF” ma charakter nieformalny i jest zarządzana przez „DG JUST”, „DG GROW” i „DG CNECT”.

TAGI sztuczna inteligencja, Unia Europejska,