Human Rights Watch: Čína používá velké údaje do cílových menšinových skupin

$config[ads_kvadrat] not found

Haben wir uns getrennt? Die Auflösung! Wo ist Marlet hin?

Haben wir uns getrennt? Die Auflösung! Wo ist Marlet hin?
Anonim

Podle zprávy Human Rights Watch, která byla zveřejněna v pondělí, čínská vláda používá algoritmy prediktivní policie k cílení etnických menšin v provincii Xinjiang.

Provincie v severozápadní Číně je domovem 11 milionů Uyghurů, turecké muslimské etnické skupiny, která byla v posledních letech diskriminována čínskou vládou.

Úřady nyní údajně využívají velkých údajů, aby se systematicky zaměřily na každého, kdo je podezřelý z politické neloajálnosti. Tento krok je součástí kampaně „Strike Hard“, jejímž cílem je potlačení potenciální teroristické aktivity v Číně. V praxi to vedlo k nepřiměřené policejní kontrole Ujgurů, říká Human Rights Watch.

Systém prediktivní policie, známý jako IJOP - Integrated Joint Operations Platform - je zdrojem dat z různých nástrojů dohledu. Patří mezi ně CCTV kamery, registrační značky a čísla občanských průkazů získaných z bezpečnostních kontrolních bodů a seznam osobních informací, včetně zdravotních, bankovních a právních záznamů.

Kromě automatizovaného dohledu provádějí vládní úředníci návštěvy v domácnostech za účelem shromažďování údajů o obyvatelstvu. Čínský obchodník sdílel formulář, který vyplnil pro záznamy IJOP s Human Rights Watch - dotazník se mimo jiné ptal, zda je podnikatel Ujgur, jak často se modlí a kam chodí na bohoslužby.

Všechny tyto datové vstupy používá IJOP k označování lidí jako potenciálních hrozeb. Když je někdo označen, policie zahájí další vyšetřování a vezme je do vazby, pokud jsou považovány za podezřelé.

„Poprvé jsme schopni prokázat, že čínská vláda využívá velkých dat a prediktivní policejní kontrolu nejen nehorázně porušuje práva na ochranu soukromí, ale také umožňuje úředníkům svévolně zadržovat osoby,“ uvedla senior výzkumná pracovnice Human Rights Watch Maya Wang.

Podle této zprávy byli někteří z těch, kteří byli pod vlajkou státu, posláni do politických vzdělávacích center, kde jsou bez soudního procesu na dobu neurčitou zadržováni.

"Vzhledem k tomu, že kolem dubna 2016 odhadují úřady Human Rights Watch, že úřady Xinjiang vysílaly desítky tisíc Ujgurů a dalších etnických menšin do" center politického vzdělávání ", uvádí zpráva. IJOP poskytuje těmto vězňům důvěryhodnost tím, že na diskriminační zatýkání aplikuje dýhu objektivní, algoritmické analýzy.

Aby to bylo ještě horší, vnitřní fungování IJOP je zahaleno tajemstvím.

„Lidé v Sin-ťiangu nemohou odolat nebo zpochybňovat stále rušivější kontrolu jejich každodenního života, protože většina z nich ani neví o tomto programu„ černé skříňky “ani o tom, jak funguje,“ řekl Wang.

Je to stejný problém, který postihuje nejvíce sofistikované systémy strojového učení: rozhodovací postupy, které používají, jsou neprůhledné i pro tvůrce algoritmu.

Využití IJOP v Číně stojí za to věnovat pozornost, protože s ohledem na to, jak se technologie zlepšuje, bude pravděpodobně růst prediktivní policie. Jak ukázal Jon Christian Obrys, prediktivní policejní systémy jsou již využívány na některých místech ve Spojených státech. Policejní oddělení v Los Angeles používá software, který předpokládá, kde a kdy se pravděpodobně objeví zločiny, aby je úředníci mohli odvrátit.

Na druhé straně systému trestního soudnictví soudní síně někdy používají algoritmy, které dávají potenciálním bodům „posuzování rizik“ podmiňujícím tresty, aby soudcům pomohli učinit informovanější rozhodnutí. Bohužel, tyto údajně nestranné algoritmy skutečně diskriminují na základě rasy.

Čínský vpád do prediktivní policie podtrhuje důležitost zodpovědné implementace algoritmů, protože strojové učení pokračuje ve vstupu do veřejného sektoru. Možná je na čase, aby vlády, které jsou technicky náročné, přijaly novou mantru: Někdy umělá inteligence vytváří více problémů, než řeší.

$config[ads_kvadrat] not found