Unijna propozycja dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję

28 września Komisja Europejska przyjęła propozycję dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję (AI Liability Directive, AILD). Uzupełnia i unowocześnia ona unijne ramy odpowiedzialności cywilnej, wprowadzając po raz pierwszy przepisy dotyczące szkód wyrządzonych przez systemy SI. Jej celem jest ustanowienie szerszej ochrony ofiar systemów SI poprzez ułatwienie dochodzenia roszczeń o odszkodowanie, a także wspieranie sektora sztucznej inteligencji.

Kontekst wprowadzenia

W Agendzie dla Europy – politycznych wytycznych na lata 2019-2024 przewodnicząca Komisji Europejskiej, Ursula von der Leyen, przedstawiła konieczność skoordynowanego podejścia do sztucznej inteligencji. Rok później, w opublikowanej 19 lutego 2020 roku Białej Księdze w sprawie sztucznej inteligencji, Komisja zobowiązała się do promowania wykorzystywania tego rodzaju technologii i przeciwdziałania zagrożeniom związanym z niektórymi jej zastosowaniami poprzez wspieranie doskonałości i zaufania. Z kolei w raporcie towarzyszącym temu dokumentowi Komisja określiła konkretne wyzwania, jakie sztuczna inteligencja stawia w zakresie obecnie istniejących zasad odpowiedzialności cywilnej. W tym samym roku, 20 października, Parlament Europejski przyjął rezolucję, w której wezwał Komisję do przyjęcia aktu prawnego dotyczącego systemu odpowiedzialności cywilnej w odniesieniu do sztucznej inteligencji.

Prace nad propozycją dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję trwały prawie dwa lata. Ostatecznie, 28 września zaprezentowany został projekt, który jest częścią pakietu środków wspierających rozwój SI w Europie poprzez wspieranie doskonałości i zaufania. Pakiet ten obejmuje trzy uzupełniające się kwestie:

  1. Wniosek ustawodawczy ustanawiający horyzontalne przepisy dotyczące systemów sztucznej inteligencji (rozporządzenie o sztucznej inteligencji, AI Act).
  2. Przegląd sektorowych i horyzontalnych przepisów dotyczących bezpieczeństwa produktów.
  3. Przepisy dotyczące kwestii odpowiedzialności cywilnej związanej z systemami SI.

Celem niniejszej dyrektywy jest poprawa funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych wymogów dotyczących niektórych aspektów pozaumownej odpowiedzialności cywilnej za szkody powstałe w wyniku działania systemów SI. Zamierzeniem prawodawcy unijnego jest również promowanie wdrażania godnej zaufania SI poprzez zapewnienie, że ofiary szkód spowodowanych przez sztuczną inteligencję uzyskują taką samą ochronę jak ofiary szkód spowodowanych przez inne produkty. Dyrektywa zmniejszyć ma również niepewność prawną przedsiębiorstw rozwijających lub stosujących sztuczną inteligencję w odniesieniu do ich możliwego narażenia na odpowiedzialność cywilną w tym zakresie. Dokument ten, jako kontynuacja rezolucji Parlamentu Europejskiego 2020/2014(INL), ma dostosowywać prawo prywatne do potrzeb przejścia na gospodarkę cyfrową.

Obecne problemy w zakresie odpowiedzialności cywilnej za systemy SI

W 2020 roku instytut badania opinii publicznej IPSOS przeprowadził europejskie badanie przedsiębiorstw dotyczące wykorzystania technologii opartych na sztucznej inteligencji. Odpowiedzialność cywilna znalazła się wśród trzech największych barier w korzystaniu z SI przez przedsiębiorstwa europejskie. Kwestia ta została również uznana za najistotniejszą zewnętrzną przeszkodę dla firm, które planują w przyszłości wdrożyć systemy sztucznej inteligencji do swojej działalności.

Obecne krajowe przepisy dotyczące odpowiedzialności cywilnej nie są dostosowane do kwestii roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi wspierane przez sztuczną inteligencję. Zgodnie z takimi przepisami, powód w postępowaniu cywilnym o uzyskanie odszkodowania musi udowodnić bezprawne działanie lub zaniechanie osoby, która spowodowała szkodę. W przypadku systemów sztucznej inteligencji jest to znacznie utrudnione. SI cechuje się złożonością, daleko idącą autonomią i nieprzejrzystością (tzw. efekt czarnej skrzynki, polegający na tym, że możliwe jest zobaczenie danych wejściowych i wyjściowych, natomiast brak jest wglądu w same procesy podejmowania decyzji przez SI). W związku z tym zidentyfikowanie osoby odpowiedzialnej za szkodę powstałą w wyniku działania systemu sztucznej inteligencji generuje duże problemy. Koszty początkowe, które musi ponieść osoba dochodząca swoich roszczeń, a także znacznie dłuższe postępowanie sądowe, mogą całkowicie zniechęcić do wstąpienia na drogę sądową w takich przypadkach.

Drugim problemem związanym z odpowiedzialnością cywilną sztucznej inteligencji jest niepewność prawna, szczególnie istotna dla przedsiębiorstw, które chcą wytwarzać, rozpowszechniać i eksploatować produkty i usługi oparte na sztucznej inteligencji w wymiarze transgranicznym.

Odpowiedzialność pozaumowna z tytułu czynu niedozwolonego podlega co do zasady prawu państwa, w którym powstała szkoda. W związku z brakiem istnienia w poszczególnych państwach konkretnych przepisów odpowiedzialności systemów SI, sądy krajowe będą zmuszone do dostosowania obecnych przepisów do konkretnej sprawy. Trudno będzie przewidzieć, w jaki sposób interpretowane i stosowane będą istniejące krajowe przepisy dotyczące odpowiedzialności w sprawach dotyczących sztucznej inteligencji. Przedsiębiorstwa muszą znać ryzyko związane z wykorzystaniem systemów SI w poszczególnych państwach, by móc odpowiednio się ubezpieczyć.

Krajowe strategie dotyczące sztucznej inteligencji pokazują, że kilka państw członkowskich (Czechy, Włochy, Malta, Polska, Portugalia) rozważa, a nawet konkretnie planuje działania ustawodawcze dotyczące odpowiedzialności cywilnej za sztuczną inteligencję. Biorąc pod uwagę znaczne różnice między istniejącymi w poszczególnych państwach członkowskich przepisami dotyczącymi odpowiedzialności cywilnej, można oczekiwać, że krajowe prawodawstwa w zakresie odpowiedzialności cywilnej sztucznej inteligencji będą zgodne z istniejącymi różnymi podejściami krajowymi, co zwiększy fragmentację prawa. Stanowi to wyzwanie dla Unii Europejskiej, ponieważ wpłynie to na jednolity rynek. Firmy prowadzące handel transgraniczny zmuszone będą do ponoszenia kosztów związanych z ryzykiem stosowania systemów SI i konieczności dostosowania ich do różnych prawodawstw. W efekcie, niewiele z nich zdecyduje się na wykorzystywanie sztucznej inteligencji, co utrudni jej upowszechnienie na całym terytorium UE.

Najważniejsze uregulowania wprowadzane dyrektywą

Dyrektywa ma zastosowanie do pozaumownych roszczeń cywilnoprawnych z tytułu szkód wyrządzonych przez system sztucznej inteligencji, w przypadku gdy są one wnoszone w ramach systemów odpowiedzialności na zasadzie winy. W celu zapewnienia spójności z innymi dokumentami UE definicje zawarte w Dyrektywie odpowiadają definicjom zawartym w projekcie rozporządzenia w sprawie AI (AI Act, AIA). Dokument wprowadza dwie ważne kwestie, ustanawiając wspólne zasady dotyczące:

  1. ujawniania dowodów dotyczących systemów sztucznej inteligencji (AI) wysokiego ryzyka, aby umożliwić powodowi uzasadnienie pozaumownego cywilnoprawnego roszczenia odszkodowawczego opartego na zasadzie winy;
  2. ciężaru dowodu w przypadku pozaumownych cywilnoprawnych roszczeń odszkodowawczych opartych na zasadzie winy wnoszonych do sądów krajowych z tytułu szkód spowodowanych przez system sztucznej inteligencji.

Prawo dostępu do informacji w celach dowodowych

Pierwszy z wspomnianych przepisów ma na celu zapewnić osobom ubiegającym się o odszkodowanie za szkody spowodowane przez systemy sztucznej inteligencji wysokiego ryzyka skutecznych środków umożliwiających identyfikację osób potencjalnie ponoszących odpowiedzialność oraz odpowiednich dowodów na potrzeby roszczenia. Prawodawca unijny przewidział, że sąd będzie mógł nakazać ujawnienie odpowiednich dowodów dotyczących konkretnych systemów sztucznej inteligencji wysokiego ryzyka, co do których istnieje podejrzenie, że spowodowały szkodę.

Wniosek o ujawnienie dowodów może być kierowany wyłącznie do dostawcy systemu SI, do osoby, która podlega obowiązkom dostawcy lub do użytkownika systemu (na podstawie AI Act) przez powoda lub sąd. W dyrektywie przewiduje się również możliwość skierowania wniosku do dostawców lub użytkowników, którzy nie są pozwanymi, gdy wszystkie proporcjonalne próby uzyskania dowodów od pozwanego zakończyły się niepowodzeniem.

Aby zapewnić proporcjonalność w ujawnianiu dowodów i zapobiec składaniu wniosków ogólnych, obowiązek ujawnienia dowodów jest ograniczony do zakresu niezbędnego do uzasadnienia roszczenia. Przepisy te mają również na celu zapewnienie równowagi między prawami powoda a konieczności zapewnienia ochrony prawnie uzasadnionych interesów wszystkich zainteresowanych stron.

Domniemanie związku przyczynowego

Drugim z kluczowych przepisów wprowadzanych na mocy dyrektywy o odpowiedzialności cywilnej za sztuczną inteligencję jest domniemanie istnienia związku przyczynowego w przypadku zawinienia polegającego na niedopełnieniu obowiązku dochowania należytej staranności zgodnie z prawem unijnym lub krajowym.

Ustalenie związku przyczynowego między wspomnianym niedopełnieniem obowiązku a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez system sztucznej inteligencji wyniku, co doprowadziło do powstania odnośnej szkody, może być dla powodów trudne. Prawodawca unijny, biorąc pod uwagę szczególne cechy systemów sztucznej inteligencji, ustanowił zatem ukierunkowane domniemanie wzruszalne tego związku przyczynowego. Celem jego wprowadzenia jest wyeliminowanie trudności związanych z wykazaniem, że szkoda spowodowana przez system AI powstała w wyniku konkretnego zawinionego działania.

Na mocy dyrektywy sądy krajowe będą domniemywać istnienie związku przyczynowego między zawienieniem pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku, jeżeli łącznie spełnione zostaną określone warunki, do których zalicza się:

  1. wykazanie przez powoda winy pozwanego (lub osoby, za której zachowanie pozwany ponosi odpowiedzialność);
  2. uznanie, na podstawie okoliczności sprawy, istnienia uzasadnionego prawdopodobieństwa, że zawiniony czyn wpłynął na wynik uzyskany przez system sztucznej inteligencji lub na fakt nieuzyskania przez taki system wyniku;
  3. wykazanie przez powoda, że szkoda powstała na podstawie wyniku uzyskanego przez system sztucznej inteligencji lub nieuzyskania przez taki system wyniku.

W przypadku systemów sztucznej inteligencji wysokiego ryzyka prawodawca unijny przewidział wyjątek od domniemania związku przyczynowego, jeśli pozwany wykaże, że powód może uzyskać względnie łatwy dostęp do dowodów i do wiedzy eksperckiej wystarczających, aby udowodnić związek przyczynowy. Natomiast w przypadku systemów sztucznej inteligencji innych niż systemy wysokiego ryzyka domniemanie związku przyczynowego jest możliwe wyłącznie jeżeli sąd stwierdzi, że udowodnienie związku przyczynowego przez powoda jest nadmiernie trudne.

Korzyści z przyjęcia dyrektywy

Sztuczna inteligencja to zestaw technologii, które mogą przyczynić się do osiągnięcia wielu korzyści dla całej gospodarki i całego społeczeństwa. Aby jednak systemy oparte na SI mogły przynosić odpowiednie benefity i wspierać przejście na gospodarkę cyfrową, konieczne jest ukierunkowane dostosowanie niektórych krajowych przepisów do szczególnych cech systemów sztucznej inteligencji.

Implementacja dyrektywy w sprawie odpowiedzialności cywilnej w zakresie sztucznej inteligencji po pierwsze przyczyni się do upowszechnienia wykorzystania i rozwoju technologii systemów sztucznej inteligencji poprzez zwiększenie pewności co do obowiązującego prawa w tym zakresie. Brak działań na szczeblu unijnym na rzecz harmonizacji przepisów dotyczących odpowiedzialności cywilnej sztucznej inteligencji spowoduje, że niektóre państwa członkowskie we własnym zakresie dostosują swoje przepisy dotyczące odpowiedzialności cywilnej. Spowodowałoby to rozdrobnienie przepisów i powstanie barier na rynku wewnętrznym dla przedsiębiorstw, które opracowują lub dostarczają innowacyjne produkty lub usługi oparte na sztucznej inteligencji. Zharmonizowane przepisy na szczeblu unijnym zapobiegną rozdrobnieniu prawa, tym samym gwarantując równość wszystkim podmiotom wykorzystującym systemy SI.

We wnioskach przeprowadzonego przez firmę Deloitte badania ekonomicznego stwierdzono, że ukierunkowane środki harmonizacji w zakresie odpowiedzialności cywilnej za sztuczną inteligencję spowodowałyby wzrost wartości handlu transgranicznego o około 5-7%. Wiązałoby się to z obniżeniem kosztów reprezentacji prawnej, wewnętrznego szacowania ryzyka i zarządzania nim, a także łatwiejszym planowaniem finansowym z uwzględnieniem koniecznych ubezpieczeń.

Warto również zauważyć, że jednolite prawodawstwo unijne w zakresie odpowiedzialności cywilnej za sztuczną inteligencję umożliwi przedsiębiorstwom eksplorację nowych rynków ponad granicami. W oparciu o całkowitą wartość unijnego rynku sztucznej inteligencji szacuje się, że wygeneruje ona dodatkową wartość rynkową między 500 mln euro a 1,1 mld euro.

Drugą korzyścią płynącą z opisywanej dyrektywy jest zwiększenie zaufania społecznego do technologii SI poprzez dostęp do skutecznego systemu wymiaru sprawiedliwości. W przypadku braku zharmonizowanych przepisów UE dotyczących odpowiedzialności cywilnej w zakresie szkód wyrządzonych przez systemy SI, osoby poszkodowane w wyniku ich działania, a także dostawcy, operatorzy i użytkownicy systemów sztucznej inteligencji mieliby styczność z 27 różnymi systemami odpowiedzialności. Prowadziłoby to do różnych poziomów ochrony w zależności od państwa oraz zakłóciłoby konkurencję między przedsiębiorstwami z różnych krajów członkowskich. Dodatkowo, osoby dochodzące odszkodowania za szkody spowodowane przez system sztucznej inteligencji nie korzystałyby z poziomu ochrony równoważnego z tym, z którego korzystają osoby dochodzące odszkodowania za szkody powstałe bez udziału systemu SI. 

Proponowana dyrektywa przyczyni się do stworzenia sprawnego reżimu odpowiedzialności cywilnej, dostosowanego do specyfiki sztucznej inteligencji. Z kolei wzmocnienie zaufania obywateli poprzez wprowadzenie zharmonizowanych środków ochrony prawnej na szczeblu unijnym znacznie poprawi warunki wprowadzania i rozwoju technologii sztucznej inteligencji na rynku wewnętrznym, co przyczyni się do szybszego wdrażania systemów opartych na SI.

Po trzecie natomiast, zakłada się korzystny wpływ dyrektywy na środowisko naturalne, poprzez przyczynienie się do osiągnięcia Celów Zrównoważonego Rozwoju. Wzrost zaufania do sztucznej inteligencji zwiększy powszechność jej wykorzystania m.in. w optymalizacji procesów produkcji, co korzystnie wpłynie na poziom wykorzystania nawozów i pestycydów, czy zmniejszenie zużycia wody.

Dalsze kroki

Projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję będzie podlegał dalszemu procesowi prawodawczemu Unii Europejskiej. Należy mieć na uwadze, że ostateczny kształt aktu może znacznie różnić się od omawianego projektu.

W przypadku wejścia dyrektywy w życie państwa członkowskie będą zobowiązane do przyjęcia niezbędnych krajowych środków dostosowujących obecne systemy prawne do przepisów unijnych w ciągu dwóch lat. Okres ten jest konieczny ze względu na potrzebę dostosowania krajowych przepisów dotyczących odpowiedzialności cywilnej w korzystnych warunkach rynku wewnętrznego, w atmosferze akceptacji społecznej i zaufania konsumentów do technologii sztucznej inteligencji oraz do systemu wymiaru sprawiedliwości.

Podsumowanie

  • Celem projektu dyrektywy w sprawie odpowiedzialności cywilnej za sztuczną inteligencję jest harmonizacja prawa dotyczącego niektórych aspektów pozaumownej odpowiedzialności cywilnej za szkody powstałe w wyniku działania systemów SI.
  • Obecne krajowe przepisy dotyczące odpowiedzialności cywilnej nie są dostosowane do kwestii roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi wspierane przez sztuczną inteligencję.
  • Wyzwaniem dla UE jest zapobiegnięcie wprowadzeniu przez poszczególne państwa członkowskie fragmentarycznych przepisów regulujących poszczególne kwestie związane z odpowiedzialnością cywilną systemów sztucznej inteligencji.
  • Projekt dyrektywy ma zastosowanie do pozaumownych roszczeń cywilnoprawnych z tytułu szkód wyrządzonych przez system sztucznej inteligencji, w przypadku gdy są one wnoszone w ramach systemów odpowiedzialności na zasadzie winy.
  • W opisywanym projekcie prawodawca unijny reguluje dwie główne kwestie: dostęp do informacji umożliwiających identyfikację osób potencjalnie ponoszących odpowiedzialność za spowodowaną przez SI szkodę oraz domniemanie istnienia związku przyczynowego w przypadku winy polegającej na niedopełnieniu obowiązku dochowania należytej staranności zgodnie z prawem unijnym lub krajowym.
  • Implementacja dyrektywy niesie za sobą szereg korzyści ekonomicznych, społecznych, a także – potencjalnie – ekologicznych.
  • W przypadku wejścia dyrektywy w życie państwa członkowskie będą zobowiązane do przyjęcia niezbędnych krajowych środków dostosowujących obecne systemy prawne do przepisów unijnych w ciągu dwóch lat.
  • Obecnie projekt podlega dalszemu procesowi ustawodawczemu UE.