Szukaj po tagach:

ALTAI – lista kontrolna dla godnej zaufania SI

17 lipca 2020 roku Komisja Europejska przy wsparciu Grupy ekspertów wysokiego szczebla ds. Sztucznej Inteligencji (High-Level  Expert  Group  on  Artificial  Intelligence, AI HLEG) przedstawiła ostateczną wersję Listy kontrolnej dla godnej zaufania Sztucznej Inteligencji (Assessment List for Trustworthy AI, ALTAI). To pierwszy unijny instrument, który wspiera twórców systemów SI i organizacje wdrażające SI w identyfikacji ryzyka, […]

Czytaj więcej >>

Odpowiedzialność za sztuczną inteligencję i inne nowe technologie cyfrowe

22 listopada 2019 roku Komisja Europejska opublikowała raport Grupy Ekspertów ds. Odpowiedzialności i Nowych Technologii (Expert Group on Liability and New Technologies „NTF”) dotyczący odpowiedzialności prawnej za szkody powstałe w wyniku działania sztucznej inteligencji i innych nowych technologii cyfrowych.

Czytaj więcej >>

Rekomendacje etycznego wykorzystania SI dla Departamentu Obrony USA

W lipcu 2018 roku kierownictwo Departamentu Obrony Stanów Zjednoczonych zleciło Radzie ds. Innowacji Obronnych[1] (Defense Innovation Board) zaproponowanie zestawu zasad etycznych dotyczących sztucznej inteligencji[2]. Zasady te miały odnosić się do projektowania, rozwoju i wdrażania SI zarówno do celów bojowych, jak i innych[3]. Miały być też zgodne z misją Departamentu Obrony, którą jest zapobieganie wojnie i […]

Czytaj więcej >>

Regulacje i inwestycje dla godnej zaufania Sztucznej Inteligencji – rekomendacje KE

26 czerwca 2019 r. Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji opracowała rekomendacje dot. regulacji i inwestycji dla godnej zaufania AI. Eksperci sformułowali listę 33 konkretnych zaleceń skierowanych do instytucji europejskich i państw członkowskich. Grupa została powołana w związku z komunikatem Sztuczna Inteligencja dla Europy z 25 kwietnia 2018 r. W skład grupy wchodzi 52 niezależnych ekspertów, reprezentantów różnych krajów, przedstawicieli środowiska akademickiego, społeczeństwa obywatelskiego i biznesu.

Czytaj więcej >>

Etyczna Sztuczna Inteligencja – rekomendacje OECD

OECD w maju 2019 r. opublikowało pierwsze międzyrządowe standardy rozwoju Sztucznej Inteligencji. Rekomendacje mają wspierać innowacje i jednocześnie budować zaufanie do Sztucznej Inteligencji poprzez promowanie odpowiedzialnego zarządzania oraz poszanowania praw człowieka i wartości demokratycznych. Zalecenia podzielono na dwie sekcje: skierowane do twórców rozwiązań z zakresu Sztucznej Inteligencji, a także przeznaczone dla decydentów, którzy są odpowiedzialni za tworzenie polityk krajowych.

Czytaj więcej >>