Algoritmus je testován v San Franciscu nastavit Pre-Trial Bail

$config[ads_kvadrat] not found

Fermat primality test

Fermat primality test
Anonim

Systém trestního soudnictví je uprostřed algoritmické změny. Kolem 30 jurisdikcí - včetně celých států Arizony, Kentucky a New Jersey, stejně jako města jako San Francisco a Chicago - testovali algoritmus, který stanovuje náklady na kauci na základě údajů o celostátních záznamech trestů. Ne všichni soudci jsou nutně připraveni přijmout digitální doporučení k srdci.

Algoritmus byl vytvořen Houstou-založené Laura a John Arnold nadace, a je nazýván veřejným bezpečnostním hodnocením, nebo PSA. Cílem algoritmu je zaujmout předsudky z nastavení kauce pomocí dat z 1,5 milionu případů v předběžných případech. V minulosti však algoritmy nesly stejné předsudky lidí, kteří je vytvářeli.

Do algoritmu vstupuje devět faktorů na webové stránce nadace:

  • Zda je aktuální trestný čin násilný
  • Zda má osoba v době zatčení nevyřízený poplatek
  • Zda má osoba předchozí odsouzení za přestupek
  • Zda má osoba předchozí odsouzení za zločin
  • Zda má osoba předchozí odsouzení za násilný trestný čin
  • Věk osoby v době zatčení
  • Zda se osoba v posledních dvou letech nedostavila na předškolní slyšení
  • Zda se tato osoba neobjevila na předškolním slyšení před více než dvěma lety
  • Zda byla osoba dříve odsouzena k uvěznění.

Algoritmus nebere v úvahu rasy, pohlaví, příjmy, vzdělání, zaměstnání nebo sousedství. Toto, podle nadace, dělá PSA neutrální.

Přesto soudci v San Franciscu důsledně nedodržovali doporučení Kronika San Francisca zprávy.

San Francisco se přesunul k použití algoritmu poté, co město bylo žalováno národní skupinou občanských práv, která tvrdila, že přemrštěná kauce ublížila chudým více než bohatým. Bohatí lidé, kteří spáchali menší trestné činy, si kupovali cestu z vězení, zatímco chudí lidé, kteří si nemohli dovolit nadměrné částky na kauci, byli ponecháni v hospodářství, dokud nebylo možné naplánovat soud.

PSA měla namísto okamžitého zločinu vyrovnat podmínky tím, že se bude zabývat údaji. Algoritmus používá historická data, aby posoudil, jak je pravděpodobné, že se osoba dopustí jiného trestného činu nebo se bude vyhýbat soudnímu řízení, pokud bude dána na kauci, Zpráva o menšinách styl. Je-li pravděpodobnost vysoká, je kauce nastavena vyšší a naopak.

Podobný algoritmus vytvořený Northpointe byl používán řídit data vězeňe vydání. ProPublica zveřejnil výsledky šetření v květnu, které zjistily, že „hodnocení rizik“, které poskytuje Northpointeův algoritmus, nepoměrně předpovědělo, že černoši po spáchání trestného činu častěji spáchali další zločin než bílí lidé. Přesných 20 procent předpovědí společnosti Northpointe bylo přesných.

Pokročilé technologie mapování a velká data na druhé straně také pomáhají při prosazování práva a policejních kriminálních bodech.

Cílem algoritmu nadace je vyhnout se podobnému zkreslení odstraněním demografických ukazatelů. Nezáleží však na tom, zda to skutečně funguje, dokud se soudci ve skutečnosti nebudou spoléhat na algoritmy nad precedensem a intuicí.

$config[ads_kvadrat] not found