Kiedy student Northwestern University, Sino Esthappan, zaczął badać, w jaki sposób algorytmy decydują o tym, kto przebywa w więzieniu, spodziewał się „historii o ludziach kontra technologia”. Z jednej strony byliby sędziami, z którymi Esthappan przeprowadził obszerne wywiady. Z drugiej strony znalazłyby się algorytmy oceny ryzyka, które są stosowane w setkach hrabstw USA do oceny niebezpieczeństwa zwolnienia za kaucją oskarżonym przestępcom. To, co odkrył, było bardziej skomplikowane i sugeruje, iż narzędzia te mogą ukryć większe problemy z samym systemem kaucji.
Algorytmiczne oceny ryzyka mają na celu obliczenie ryzyka, iż oskarżony w sprawie karnej nie wróci do sądu lub, co gorsza, wyrządzi krzywdę innym osobom – jeżeli zostanie zwolniony. Porównując przeszłość oskarżonych z obszerną bazą danych dotyczącą przeszłych spraw, mają one pomóc sędziom ocenić, jak ryzykowne byłoby zwolnienie danej osoby z więzienia. Wraz z innymi narzędziami opartymi na algorytmach odgrywają one coraz większą rolę w często przeciążonym systemie wymiaru sprawiedliwości w sprawach karnych. Teoretycznie mają one pomóc w zmniejszeniu uprzedzeń ze strony ludzkich sędziów.
Ale praca Estappana, opublikowane w czasopiśmie Problemy społecznewykazały, iż sędziowie nie przyjmują ani nie odrzucają rad tych algorytmów. Zamiast tego zgłaszają, iż używają ich wybiórczo, motywowani czynnikami głęboko ludzkimi, aby zaakceptować lub zignorować swoje wyniki.
Narzędzia oceny ryzyka przedprocesowego szacują prawdopodobieństwo, iż oskarżeni przestępcy powrócą na rozprawy, jeżeli zostaną zwolnieni z więzienia. Narzędzia zbierają szczegółowe informacje przekazane im przez funkcjonariuszy przedprocesowych, w tym historię kryminalną i profile rodzinne. Porównują te informacje z bazą danych zawierającą setki tysięcy zapisów poprzednich spraw i sprawdzają, jak zachowywali się oskarżeni o podobnej historii. Następnie przedstawiają ocenę, która może przybrać formę etykiety ryzyka „niskiego”, „średniego” lub „wysokiego” lub liczby na skali. Sędziowie otrzymują punkty do wykorzystania podczas przesłuchań przygotowawczych: krótkich spotkań odbywających się niedługo po aresztowaniu oskarżonego, podczas których ustala się, czy (i na jakich warunkach) zostanie on zwolniony.
Podobnie jak w przypadku innych algorytmicznych narzędzi wymiaru sprawiedliwości w sprawach karnych, zwolennicy postrzegają je jako neutralne, oparte na danych środki korygujące ludzką kapryśność i uprzedzenia. Przeciwnicy podnoszą takie kwestie, jak ryzyko profilowania rasowego. „Ponieważ wiele z tych narzędzi opiera się na historii kryminalnej, argument jest taki, iż historia kryminalna jest również kodowana pod kątem rasowym w oparciu o praktyki nadzoru organów ścigania” – mówi Esthappan. „Istnieje już zatem argument, iż narzędzia te odtwarzają uprzedzenia z przeszłości i kodują je w przyszłość”.
Nie jest też jasne, jak dobrze działają. 2016 ProPublica dochodzenie odkryli, iż algorytm oceny ryzyka stosowany w hrabstwie Broward na Florydzie był „wyjątkowo zawodny w przewidywaniu brutalnych przestępstw”. Zaledwie 20 procent osób przewidywanych przez algorytm popełniło brutalne przestępstwa w ciągu najbliższych dwóch lat po aresztowaniu. W programie częściej oznaczono także czarnych oskarżonych jako przyszłych przestępców lub osoby obarczone większym ryzykiem w porównaniu z białymi oskarżonymi, ProPublica znaleziony.
Zarówno obawy, jak i obietnice dotyczące algorytmów na sali sądowej zakładają, iż sędziowie konsekwentnie z nich korzystają
Mimo to profesor kryminologii na Uniwersytecie Pensylwanii Richard Berk twierdzi, iż decydenci mogą popełniać równie błędy. „Te systemy sądownictwa karnego składają się z instytucji ludzkich i ludzi, z których wszyscy są niedoskonali, i nic dziwnego, iż nie radzą sobie zbyt dobrze z identyfikowaniem lub prognozowaniem zachowań ludzi” – mówi Berk. „Poprzeczka jest więc naprawdę dość niska i pytanie brzmi, czy algorytmy mogą ją podnieść? Odpowiedź brzmi: tak, jeżeli zostaną podane odpowiednie informacje.”
Zarówno obawy, jak i obietnice dotyczące algorytmów na sali sądowej zakładają jednak, iż sędziowie konsekwentnie z nich korzystają. Badanie Esthappana pokazuje, iż jest to w najlepszym razie błędne założenie.
Estthappan przeprowadził wywiady z 27 sędziami z czterech sądów karnych w różnych regionach kraju na przestrzeni jednego roku w latach 2022–2023, zadając pytania typu: „Kiedy oceny ryzyka uważasz za bardziej lub mniej przydatne?” oraz „Jak i z kim omawiasz ocenę ryzyka podczas przesłuchań przedprocesowych?” Przeanalizował także lokalne wiadomości i akta spraw, obserwował 50 godzin rozprawy w sprawie kaucji i przeprowadził wywiady z innymi osobami pracującymi w wymiarze sprawiedliwości, aby pomóc w ustaleniu kontekstu ustaleń.
Sędziowie powiedzieli Esthappanowi, iż korzystają z narzędzi algorytmicznych, aby gwałtownie rozpatrywać sprawy o niższą stawkę, opierając się na automatycznych wynikach, choćby jeżeli nie byli pewni ich zasadności. Ogólnie rzecz biorąc, nieufnie podchodzili do stosowania niskich ocen ryzyka w przypadku oskarżonych o przestępstwa takie jak napaść na tle seksualnym i przemoc ze strony partnera – czasami dlatego, iż uważali, iż algorytmy niedoceniają lub przeceniają różne czynniki ryzyka, ale także dlatego, iż na szali znajdowała się ich własna reputacja. I odwrotnie, niektórzy opisywali wykorzystanie systemów do wyjaśnienia, dlaczego podjęli niepopularną decyzję, wierząc, iż oceny ryzyka dodają wiarygodności.
„Wielu sędziów wykorzystało swoje własne poglądy moralne na temat konkretnych zarzutów jako mierniki przy podejmowaniu decyzji, kiedy oceny ryzyka są uzasadnione, a kiedy nie, w świetle prawa”.
Wywiady ujawniły powtarzające się wzorce w decyzjach sędziów o wykorzystaniu punktacji oceny ryzyka, często opartej na przeszłości kryminalnej lub pochodzeniu społecznym oskarżonych. Niektórzy sędziowie uważali, iż systemy nie doceniły znaczenia niektórych sygnałów ostrzegawczych – takich jak obszerne rejestry nieletnich lub niektóre rodzaje zarzutów dotyczących posiadania broni – lub przeceniły czynniki, takie jak stara karalności lub niski poziom wykształcenia. „Wielu sędziów wykorzystało swoje własne poglądy moralne na temat konkretnych zarzutów jako mierniki przy podejmowaniu decyzji, kiedy oceny ryzyka są uzasadnione, a kiedy nie, w świetle prawa” – pisze Esthappan.
Niektórzy sędziowie stwierdzili również, iż wykorzystali wyniki ze względu na efektywność. Te przesłuchania przedprocesowe są krótkie – często krótsze niż pięć minut – i wymagają szybkich decyzji w oparciu o ograniczone informacje. Wynik algorytmiczny zapewnia przynajmniej jeszcze jeden czynnik do rozważenia.
Jednakże sędziowie również byli doskonale świadomi tego, jak decyzja wpłynie na nich – a zdaniem Estthappana było to ogromnym czynnikiem wpływającym na to, czy ufali punktom ryzyka. Kiedy sędziowie zauważyli, iż zarzut w mniejszym stopniu zagraża bezpieczeństwu publicznemu, a raczej wynika z ubóstwa lub uzależnienia, często odkładali ryzykowne oceny, widząc niewielkie ryzyko dla własnej reputacji, jeżeli się pomylili, i postrzegając swoją rolę , jak określił to jeden z sędziów, jako wzywanie do „balów i strajków”, zamiast zostania „inżynierem społecznym”.
W przypadku zarzutów wysokiego szczebla, które miały jakąś wagę moralną, takich jak gwałt lub przemoc domowa, sędziowie stwierdzili, iż są bardziej sceptyczni. Częściowo stało się tak dlatego, iż zidentyfikowano problemy związane ze sposobem, w jaki system waży informacje dotyczące konkretnych przestępstw – na przykład w sprawach dotyczących przemocy ze strony partnera uważali, iż choćby oskarżeni bez długiej przeszłości kryminalnej mogą być niebezpieczni. Ale zdawali sobie również sprawę, iż stawka – dla nich samych i innych – jest wyższa. „Twoim najgorszym koszmarem jest to, iż wypuszczasz kogoś za niższą kaucją, a potem on idzie i kogoś krzywdzi. To znaczy my wszyscy, kiedy widzę te historie w wiadomościach, myślę, iż to mógł być każdy z nas” – stwierdził jeden z sędziów cytowany w badaniu.
Przetrzymywanie w więzieniu oskarżonego o naprawdę niskim ryzyku również wiąże się z kosztami. Trzyma osobę, która prawdopodobnie nie skrzywdzi nikogo, z dala od pracy, szkoły lub rodziny, zanim zostanie skazana za przestępstwo. Jednak ryzyko utraty reputacji sędziów jest niewielkie, a dodanie wyniku ryzyka nie zmienia tego rachunku.
Dla sędziów czynnikiem decydującym często nie było to, czy algorytm wydawał się godny zaufania, ale to, czy pomógłby im uzasadnić decyzję, którą chcieli podjąć. Na przykład sędziowie, którzy zwolnili oskarżonego ze względu na niski wynik ryzyka, mogliby „przesunąć część tej odpowiedzialności z siebie na wynik” – powiedział Esthappan. jeżeli rzekoma ofiara „chce, żeby ktoś został zamknięty” – stwierdził jeden z badanych – „co zrobisz, gdy sędzia powie: « Kierujemy się oceną ryzyka, która uwzględnia prawdopodobieństwo stawienia się oskarżonego i ponownego aresztowania. Na podstawie statutu i wyniku moim zadaniem jest stworzenie więzi, która chroni innych członków społeczności”.
„W praktyce oceny ryzyka rozszerzają zakres swobody uznania wśród sędziów, którzy strategicznie wykorzystują ją do uzasadnienia sankcji karnych”
Badanie Estthappana rzuca luki w poglądzie, iż narzędzia algorytmiczne pozwalają na podejmowanie bardziej sprawiedliwych i spójnych decyzji. jeżeli sędziowie będą wybierać, kiedy oprzeć się na wynikach w oparciu o takie czynniki, jak ryzyko utraty reputacji, zauważa Esthappan, być może nie zmniejszają one stronniczości spowodowanej przez człowieka – w rzeczywistości mogą legitymizujące to uprzedzenie i sprawia, iż trudno je dostrzec. „Podczas gdy decydenci zachwalają swoją zdolność do ograniczania swobody sędziowskiej, w praktyce oceny ryzyka poszerzają zakres korzystania z tej swobody przez sędziów, którzy strategicznie wykorzystują ją do uzasadnienia sankcji karnych” – pisze Esthappan w badaniu.
Megan Stevenson, ekonomistka i badaczka prawa karnego na Wydziale Prawa Uniwersytetu Wirginii, twierdzi, iż oceny ryzyka to coś w rodzaju „technokratycznej zabawki dla decydentów i naukowców”. Mówi, iż wydaje się to atrakcyjnym narzędziem do „wyeliminowania przypadkowości i niepewności z tego procesu”, ale z badań nad ich wpływem wynika, iż często nie mają one większego wpływu na wyniki.
Większym problemem jest to, iż sędziowie zmuszeni są pracować, mając bardzo ograniczony czas i informacje. Berk, profesor Uniwersytetu Pensylwanii, twierdzi, iż gromadzenie większej liczby lepszych informacji mogłoby pomóc algorytmom w dokonywaniu lepszych ocen. Wymagałoby to jednak czasu i zasobów, którymi systemy sądowe mogą nie dysponować.
Kiedy jednak Esthappan rozmawiał z obrońcami publicznymi, postawiono jeszcze bardziej fundamentalne pytanie: czy areszt tymczasowy w jego obecnej formie w ogóle powinien istnieć? Sędziowie nie pracują tylko z niespójnymi danymi. Ustalają czyjąś wolność, zanim ta osoba będzie miała szansę przeciwstawić się oskarżeniom, często w oparciu o przewidywania, które w dużej mierze opierają się na domysłach. „W tym kontekście uważam, iż rozsądne jest, aby sędziowie polegali na narzędziu oceny ryzyka, ponieważ mają tak ograniczone informacje”, mówi Esthappan Krawędź. „Ale z drugiej strony postrzegam to jako lekkie odwrócenie uwagi”.
Narzędzia algorytmiczne mają na celu rozwiązanie prawdziwego problemu związanego z niedoskonałym procesem decyzyjnym człowieka. „Mam pytanie, czy to naprawdę jest problem?” Esthappan opowiada Krawędź. „Czy chodzi o to, iż sędziowie działają w sposób stronniczy, czy też jest coś bardziej strukturalnie problematycznego w sposobie, w jaki przesłuchujemy osoby podczas rozprawy przedprocesowej?” Odpowiedź brzmi: „istnieje problem, którego niekoniecznie można rozwiązać dzięki oceny ryzyka, ale ma on głębszy problem kulturowy w sądach karnych”.