poniedziałek, 11 październik 2021 07:58

Zagrożenia związane ze sztuczną inteligencją dla prywatności wymagają pilnych działań – alarmuje ONZ

Komisarz Narodów Zjednoczonych ds. Praw Człowieka (UNHCHR) Michelle Bachelet podkreśliła pilną potrzebę wprowadzenia moratorium na sprzedaż i używanie systemów sztucznej inteligencji (AI), które według raportu ONZ stanowią poważne zagrożenie dla praw człowieka, dopóki nie zostaną wprowadzone odpowiednie zabezpieczenia.

Bachelet wezwała również do zakazania zastosowań sztucznej inteligencji, których nie można używać zgodnie z międzynarodowym prawem dotyczącym praw człowieka. „Sztuczna inteligencja może być siłą dobra, pomagając społeczeństwom przezwyciężyć niektóre z wielkich wyzwań naszych czasów. Ale technologie sztucznej inteligencji mogą mieć negatywne, a nawet katastrofalne skutki, jeśli są używane bez dostatecznego uwzględnienia tego, jak wpływają na prawa człowieka” – powiedział Bachelet.

Prawo do prywatności w erze cyfrowej

W ramach prac nad technologią i prawami człowieka Biuro Praw Człowieka ONZ opublikowało raport „The right to privacy in the digital age”, w którym analizuje, w jaki sposób sztuczna inteligencja – w tym profilowanie, automatyczne podejmowanie decyzji i inne technologie uczenia maszynowego – wpływa na prawo ludzi do prywatności i inne prawa, w tym prawa do zdrowia, edukacji, swobody przemieszczania się, wolności pokojowych zgromadzeń i zrzeszania się oraz wolności wypowiedzi.

„Sztuczna inteligencja dociera teraz do niemal każdego zakątka naszego życia fizycznego i psychicznego, a nawet do stanów emocjonalnych. Systemy sztucznej inteligencji służą do określania, kto korzysta z usług publicznych, decydowania, kto ma szansę zostać zatrudniony do pracy, i oczywiście wpływają na to, jakie informacje ludzie widzą i mogą udostępniać online” – powiedział Wysoki Komisarz.

Luki i zagrożenia Big data

Raport analizuje, w jaki sposób państwa i przedsiębiorstwa często pospiesznie włączają aplikacje AI, nie przeprowadzając należytej staranności. Odnotowano już wiele przypadków niesprawiedliwego traktowania osób z powodu sztucznej inteligencji, takich jak odmowa świadczeń socjalnych z powodu wadliwych narzędzi sztucznej inteligencji lub aresztowanie z powodu wadliwego rozpoznawania twarzy. Raport szczegółowo opisuje, w jaki sposób systemy sztucznej inteligencji opierają się na dużych zbiorach danych, z informacjami o osobach gromadzonych, udostępnianych, scalanych i analizowanych na wiele i często nieprzejrzystych sposobów. Dane wykorzystywane do informowania i kierowania systemami SI mogą być błędne, dyskryminujące, nieaktualne lub nieistotne. Długoterminowe przechowywanie danych również stwarza szczególne ryzyko, ponieważ dane mogą być w przyszłości wykorzystywane w nieznany dotąd sposób.

„Biorąc pod uwagę szybki i ciągły rozwój sztucznej inteligencji, wypełnienie ogromnej luki w zakresie odpowiedzialności w sposobie gromadzenia, przechowywania, udostępniania i wykorzystywania danych jest jednym z najpilniejszych problemów związanych z prawami człowieka, z jakimi mamy do czynienia” – powiedział Bachelet.

Ryzyko dyskryminacji

Poważne pytania budzą również wnioski, przewidywania i monitorowanie wykonywane przez narzędzia sztucznej inteligencji, w tym poszukiwanie wglądu w wzorce ludzkich zachowań. Stronnicze zbiory danych, na których opierają się systemy sztucznej inteligencji, mogą prowadzić do dyskryminujących decyzji, a te zagrożenia są najbardziej dotkliwe dla i tak już zmarginalizowanych grup.

„Ryzyko dyskryminacji związane z decyzjami opartymi na sztucznej inteligencji – decyzjami, które mogą zmienić, zdefiniować lub zaszkodzić ludzkiemu życiu – jest aż nazbyt realne. Dlatego potrzebna jest systematyczna ocena i monitorowanie skutków systemów sztucznej inteligencji w celu identyfikacji i łagodzenia zagrożeń dla praw człowieka” – powiedział Bachelet.

Potrzebna jest również znacznie większa przejrzystość firm i państw w zakresie rozwoju i wykorzystywania sztucznej inteligencji. „Złożoność środowiska danych, algorytmy i modele leżące u podstaw rozwoju i działania systemów SI, a także celowa tajność podmiotów rządowych i prywatnych to czynniki podważające sensowne sposoby zrozumienia przez społeczeństwo wpływu systemów SI na prawa człowieka i społeczeństwo ”, mówi raport. „Nie możemy sobie pozwolić na dalsze nadrabianie zaległości w zakresie sztucznej inteligencji – zezwalając na jej stosowanie w ograniczonych granicach lub bez nadzoru i radzenie sobie z prawie nieuniknionymi konsekwencjami praw człowieka po fakcie. Siła sztucznej inteligencji w służeniu ludziom jest niezaprzeczalna, podobnie jak jej zdolność do karmienia naruszeń praw człowieka na ogromną skalę, praktycznie bez widoczności. Potrzebne są teraz działania, aby postawić bariery praw człowieka przed korzystaniem z AI, dla dobra nas wszystkich” – podkreśliła Bachelet.

Chcesz porozmawiać? Wyślij dane kontaktowe.

Skorzystali z naszych usług