Zautomatyzowana technologia policyjna przyczynia się do problemu strukturalnego rasizmu w Wielkiej Brytanii

cyberfeed.pl 2 miesięcy temu


Według Runneymede Trust i Amnesty International, stosowanie sztucznej inteligencji (AI) i technologii rozpoznawania twarzy w działaniach policji przyczynia się do „niepokojącego regresu” w zakresie praw obywatelskich i politycznych osób kolorowych w Wielkiej Brytanii.

W ich wspólne zgłoszenie do Komitetu ds. Likwidacji Dyskryminacji Rasowej Organizacji Narodów Zjednoczonych (ONZ) – który niezależnie monitoruje wysiłki państw na rzecz wykorzenienia rasizmu i promowania praw człowieka – grupy społeczeństwa obywatelskiego przedstawiły, w jaki sposób połączenie ustawodawstwa, praktyk instytucjonalnych i zwyczajów społecznych w dalszym ciągu szkodzi osobom kolorowym w Wielkiej Brytanii.

„Wniosek pokazuje, w jaki sposób dysproporcje, z jakimi borykają się osoby kolorowe w systemie wymiaru sprawiedliwości w sprawach karnych, służbie zdrowia, edukacji, zatrudnieniu i imigracji, utrzymują się od poprzedniego okresu sprawozdawczego sprzed czterech lat” – stwierdzili w komunikat prasowy.

„Brak poprawy wyników dla osób kolorowych, przy jednoczesnym atakowaniu sposobów, w jakie te społeczności mogą się sprzeciwiać, prowadzi do niemożliwej dla nich sytuacji. Celowane przez Zapobiegać [counter-terrorism programme]ograniczone możliwości protestu, nadmierna kontrola policyjna i niedostateczna ochrona oraz wyższy poziom ubóstwa – społeczności kolorowych muszą łatać pęknięcia, które państwo im wyrządziło”.

Raport liczący 50 stron, poparty przez ponad 40 innych organizacji społeczeństwa obywatelskiego, w tym Liberty, Black Equity Organisation, Friends Families and Travellers, Migrants Organise i Inquest, zawiera sekcję dotyczącą wpływu sztucznej inteligencji i automatyzacji w działaniach policji na osoby kolorowe w Wielkiej Brytanii.

Zauważyła na przykład, iż pomimo skłonności rozpoznawanie twarzy na żywo (LFR) technologia służąca do błędnej identyfikacji osób kolorowych, Ministerstwo Spraw Wewnętrznych wcześniej potwierdził prawo sił policyjnych do korzystania z niego w istniejących ramach prawnychi iż wykorzystanie technologii ogólnie wzrasta.

„Według dzienników opublikowanych przez Metropolitan Police, LFR był wykorzystywany dziewięć razy w latach 2020–2022, co skutkowało dziewięcioma aresztowaniami lub uniewinnieniami. Liczba ta znacznie wzrosła do 96 przypadków w latach 2023–2024, co skutkowało 243 aresztowaniami” – podano.

„Liberty Investigates ujawniło, iż Home Office potajemnie przeprowadziło setki wyszukiwań z wykorzystaniem rozpoznawania twarzy, korzystając ze swojej bazy danych zdjęć paszportowych i bazy danych imigracyjnych, co rodzi dalsze pytania o brak przejrzystości i zakres wykorzystywania danych do rozpoznawania twarzy”.

Zauważył, iż stosowanie zautomatyzowanych systemów, takich jak predykcyjne działania policyjne I Automatyczne rozpoznawanie tablic rejestracyjnych (ANPR) przez policję może skutkować naruszeniami praw człowieka i ofiarami śmiertelnymi; podkreśla to fakt, iż samochód prowadzony przez 23-letniego Chrisa Kabę – który został śmiertelnie postrzelony w głowę przez uzbrojonego policjanta we wrześniu 2022 r. – został oznaczony tablicą rejestracyjną przez ANPR przed przechwyceniem.

Chociaż policja stwierdziła wówczas, iż pojazd Kaby był „powiązany z przestępstwem z użyciem broni palnej w poprzednich dniach”, samochód nie był zarejestrowany na niego i ostatecznie nie znaleziono w nim żadnej broni palnej. Uzbrojony funkcjonariusz został oskarżony o morderstwo i ma stanąć przed sądem w październiku 2024 r.

W raporcie dodatkowo podkreślono, dyskryminacyjne wyniki bazy danych Met’s Gangs Matrixco spowodowało, iż osoby kolorowe (w tym przypadku głównie młodzi czarnoskórzy chłopcy i mężczyźni) były profilowane rasowo ze względu na muzykę, której słuchały, ich zachowanie w mediach społecznościowych i to, kim byli ich znajomi.

Dodał, iż chociaż bazę danych usunięto po potępieniu jej za rasizm, nadal istnieją obawy co do tego, co go zastąpi.

W swoich zaleceniach dla rządu Wielkiej Brytanii dotyczących sztucznej inteligencji w policji grupy społeczeństwa obywatelskiego stwierdziły, iż rząd powinien zakazać wszelkich form systemów predykcyjnych i profilujących w egzekwowaniu prawa i wymiarze sprawiedliwości w sprawach karnych (w tym systemów, które koncentrują się na osobach, grupach, lokalizacjach lub obszarach i są przez nie atakowane); zapewnić przejrzystość i nadzór publiczny w przypadku, gdy policja lub agencje ds. migracji i bezpieczeństwa narodowego korzystają ze sztucznej inteligencji „wysokiego ryzyka”; a także nałożyć prawne ograniczenia w celu zakazania korzystania ze sztucznej inteligencji, które stwarza niedopuszczalne ryzyko dla praw człowieka.

Dodali, iż rząd Wielkiej Brytanii powinien rozpocząć dochodzenie we wszystkich bazach danych gangów policyjnych, w celu zbadania potrzeby bardziej rozległej reformy na szczeblu krajowym. Powinno to rozważyć, czy bazy danych używane przez siły w całym kraju są skutecznym narzędziem policyjnym w radzeniu sobie z poważnymi przestępstwami z użyciem przemocy; czy działają w pełnej zgodności z prawami człowieka i przepisami o ochronie danych; i czy są pod wpływem uprzedzeń rasowych lub prowadzą do dyskryminacyjnych rezultatów.

Computer Weekly skontaktowało się z Ministerstwem Spraw Wewnętrznych w sprawie zaleceń zawartych w raporcie oraz tego, czy po objęciu urzędu przez nową administrację Ministerstwo przez cały czas podtrzymuje pogląd, iż technologia rozpoznawania twarzy jest odpowiednio objęta obowiązującymi przepisami.

„W zeszłym tygodniu nasze miasta i miasteczka były świadkami przerażającej przemocy, a osoby były atakowane ze względu na kolor skóry i miejsca kultu. Ten rasizm i nienawiść wywołały powszechne cierpienie” — powiedział rzecznik. „Jesteśmy zdecydowani, iż ani uliczni bandyci, ani internetowi podżegacze nie zdefiniują naszego narodu. Nasza siła leży w jedności wszystkich środowisk, wyznań i kultur”.

Pod koniec lipca 2024 r. koalicja 17 grup społeczeństwa obywatelskiego zajmujących się prawami człowieka w podobny sposób wezwał nowy rząd Partii Pracy do wprowadzenia całkowitego zakazu na temat systemów predykcyjnego nadzoru policyjnego i biometrycznego opartych na sztucznej inteligencji, ponieważ są one nieproporcjonalnie często wykorzystywane do atakowania społeczności rasowych, klasy robotniczej i migrantów.

„Udowodniono, iż sztuczna inteligencja i zautomatyzowane systemy potęgują dyskryminację i nierówności w policji” — powiedziała Sara Chitseko, ówczesna kierowniczka programu pre-crime w Open Rights Group. „Bez silnych regulacji policja będzie przez cały czas korzystać z systemów AI, które naruszają nasze prawa i pogłębiają strukturalną nierównowagę sił, podczas gdy duże firmy technologiczne czerpią zyski”.

Ministerstwo Spraw Wewnętrznych rozważa ustalenia obu raportów.

Trwające obawy dotyczące technologii policyjnej

W listopadzie 2023 r. ustępujący komisarz ds. biometrii i kamer monitorujących w Anglii i Walii, Fraser Sampson, podważył możliwości zapobiegania przestępczości dzięki rozpoznawaniu twarzyargumentując, iż władze polegały głównie na jego mrożącym efekcie, a nie na jego faktycznej skuteczności w identyfikowaniu osób poszukiwanych.

Ostrzegł również przed ogólnie słabym nadzorem nad wykorzystaniem technologii biometrycznych przez policję, dodając, iż istnieje realne niebezpieczeństwo, iż Wielka Brytania popadnie w stan „wszechstronnego” nadzoru, jeżeli obawy dotyczące tych potężnych technologii nie zostaną wzięte pod uwagę.

Sampson ostrzegał już wcześniej, w lutym 2023 r., przed ogólną „kulturą przechowywania” danych biometrycznych w brytyjskiej policji, informując Wspólną Komisję Parlamentu ds. Praw Człowieka (JCHR) iż domyślną praktyką wśród sił policyjnych było przechowywanie danych biometrycznych, niezależnie od tego, czy było to prawnie dozwolone.

Podkreślił szczególnie ciągłe i bezprawne zatrzymywanie milionów zdjęć z aresztu osób, którym nigdy nie postawiono zarzutów popełnienia przestępstwa, zauważając, iż chociaż Sąd Najwyższy orzekł w 2012 r. iż te zdjęcia muszą zostać usunięte, Ministerstwo Spraw Wewnętrznych – które jest właścicielem większości baz danych biometrycznych wykorzystywanych przez brytyjską policję – stwierdziło, iż nie można tego zrobić, ponieważ baza danych, w której się znajdują, nie umożliwia ich masowego usuwania.

Wcześniej Śledztwo Izby Lordów w sprawie stosowania przez policję w Wielkiej Brytanii zaawansowanych technologii algorytmicznych – który badał wykorzystanie rozpoznawania twarzy i różnych narzędzi do przewidywania przestępstw – również stwierdził w marcu 2022 r., iż narzędzia te stanowią „rzeczywiste i aktualne ryzyko dla praw człowieka i praworządności. jeżeli nie zostanie to uznane i rozwiązane, potencjalne korzyści z wykorzystania zaawansowanych technologii mogą zostać przeważone przez szkody, które wystąpią, i nieufność, którą wywołają”.

W przypadku technologii „predykcyjnego działania policji” Lordowie zauważyli, iż mają one tendencję do tworzenia „błędnego koła” i „utrwalania już istniejących wzorców dyskryminacji”, ponieważ kierują patrole policyjne do obszarów o niskich dochodach, w których już panuje nadmierna liczba policjantów, w oparciu o historyczne dane dotyczące aresztowań.

W kwestii rozpoznawania twarzy dodali, iż może ono mieć efekt mrożący na protestpodważają prywatność i prowadzą do wyniki dyskryminacyjne.

Po krótkim badaniu uzupełniającym, skupiającym się konkretnie na rozpoznawaniu twarzy, Lordowie zauważyli iż brytyjska policja rozszerzała wykorzystanie technologii rozpoznawania twarzy bez należytej kontroli lub rozliczalności, pomimo braku jasnej podstawy prawnej dla ich rozmieszczenia. Stwierdzili również, iż nie istniały żadne rygorystyczne standardy ani systemy regulacji kontrolujące wykorzystanie technologii przez siły.



Source link

Idź do oryginalnego materiału