Bachelet wezwała również do zakazania zastosowań sztucznej inteligencji, których nie można używać zgodnie z międzynarodowym prawem dotyczącym praw człowieka. „Sztuczna inteligencja może być siłą dobra, pomagając społeczeństwom przezwyciężyć niektóre z wielkich wyzwań naszych czasów. Ale technologie sztucznej inteligencji mogą mieć negatywne, a nawet katastrofalne skutki, jeśli są używane bez dostatecznego uwzględnienia tego, jak wpływają na prawa człowieka” – powiedział Bachelet.
Prawo do prywatności w erze cyfrowej
W ramach prac nad technologią i prawami człowieka Biuro Praw Człowieka ONZ opublikowało raport „The right to privacy in the digital age”, w którym analizuje, w jaki sposób sztuczna inteligencja – w tym profilowanie, automatyczne podejmowanie decyzji i inne technologie uczenia maszynowego – wpływa na prawo ludzi do prywatności i inne prawa, w tym prawa do zdrowia, edukacji, swobody przemieszczania się, wolności pokojowych zgromadzeń i zrzeszania się oraz wolności wypowiedzi.
„Sztuczna inteligencja dociera teraz do niemal każdego zakątka naszego życia fizycznego i psychicznego, a nawet do stanów emocjonalnych. Systemy sztucznej inteligencji służą do określania, kto korzysta z usług publicznych, decydowania, kto ma szansę zostać zatrudniony do pracy, i oczywiście wpływają na to, jakie informacje ludzie widzą i mogą udostępniać online” – powiedział Wysoki Komisarz.
Luki i zagrożenia Big data
Raport analizuje, w jaki sposób państwa i przedsiębiorstwa często pospiesznie włączają aplikacje AI, nie przeprowadzając należytej staranności. Odnotowano już wiele przypadków niesprawiedliwego traktowania osób z powodu sztucznej inteligencji, takich jak odmowa świadczeń socjalnych z powodu wadliwych narzędzi sztucznej inteligencji lub aresztowanie z powodu wadliwego rozpoznawania twarzy. Raport szczegółowo opisuje, w jaki sposób systemy sztucznej inteligencji opierają się na dużych zbiorach danych, z informacjami o osobach gromadzonych, udostępnianych, scalanych i analizowanych na wiele i często nieprzejrzystych sposobów. Dane wykorzystywane do informowania i kierowania systemami SI mogą być błędne, dyskryminujące, nieaktualne lub nieistotne. Długoterminowe przechowywanie danych również stwarza szczególne ryzyko, ponieważ dane mogą być w przyszłości wykorzystywane w nieznany dotąd sposób.
„Biorąc pod uwagę szybki i ciągły rozwój sztucznej inteligencji, wypełnienie ogromnej luki w zakresie odpowiedzialności w sposobie gromadzenia, przechowywania, udostępniania i wykorzystywania danych jest jednym z najpilniejszych problemów związanych z prawami człowieka, z jakimi mamy do czynienia” – powiedział Bachelet.
Ryzyko dyskryminacji
Poważne pytania budzą również wnioski, przewidywania i monitorowanie wykonywane przez narzędzia sztucznej inteligencji, w tym poszukiwanie wglądu w wzorce ludzkich zachowań. Stronnicze zbiory danych, na których opierają się systemy sztucznej inteligencji, mogą prowadzić do dyskryminujących decyzji, a te zagrożenia są najbardziej dotkliwe dla i tak już zmarginalizowanych grup.
„Ryzyko dyskryminacji związane z decyzjami opartymi na sztucznej inteligencji – decyzjami, które mogą zmienić, zdefiniować lub zaszkodzić ludzkiemu życiu – jest aż nazbyt realne. Dlatego potrzebna jest systematyczna ocena i monitorowanie skutków systemów sztucznej inteligencji w celu identyfikacji i łagodzenia zagrożeń dla praw człowieka” – powiedział Bachelet.
Potrzebna jest również znacznie większa przejrzystość firm i państw w zakresie rozwoju i wykorzystywania sztucznej inteligencji. „Złożoność środowiska danych, algorytmy i modele leżące u podstaw rozwoju i działania systemów SI, a także celowa tajność podmiotów rządowych i prywatnych to czynniki podważające sensowne sposoby zrozumienia przez społeczeństwo wpływu systemów SI na prawa człowieka i społeczeństwo ”, mówi raport. „Nie możemy sobie pozwolić na dalsze nadrabianie zaległości w zakresie sztucznej inteligencji – zezwalając na jej stosowanie w ograniczonych granicach lub bez nadzoru i radzenie sobie z prawie nieuniknionymi konsekwencjami praw człowieka po fakcie. Siła sztucznej inteligencji w służeniu ludziom jest niezaprzeczalna, podobnie jak jej zdolność do karmienia naruszeń praw człowieka na ogromną skalę, praktycznie bez widoczności. Potrzebne są teraz działania, aby postawić bariery praw człowieka przed korzystaniem z AI, dla dobra nas wszystkich” – podkreśliła Bachelet.