A.I. Výzkumný ústav ukazuje, jak vytvořit odpovědné algoritmy

$config[ads_kvadrat] not found

Soči Jak 2014 - Epizóda 1

Soči Jak 2014 - Epizóda 1
Anonim

Výzkumný ústav AI nyní ve středu zveřejnil nová doporučení pro zodpovědnou implementaci algoritmů ve veřejné sféře.Jejich rada je zaměřena na pracovní skupinu, kterou v lednu vytvořila New York City Council, která studuje vládní využití umělé inteligence.

Přehled AI Now, Algoritmické hodnocení dopadů: Směrem k odpovědné automatizaci ve veřejných agenturách poukazuje na potřebu transparentnosti při zavádění algoritmů. Algoritmy mají obrovský dopad na náš každodenní život, ale jejich dopad je někdy bez povšimnutí. Protože jsou například zapálené v infrastruktuře sociálních médií a video platforem, je snadné zapomenout, že programy často určují, jaký obsah je určen uživatelům internetu. Pouze v případě, že se něco pokazí, jako je video o konspirační teorii, které se dostalo na vrchol seznamu trendů YouTube, zkoumáme automatizované rozhodovací postupy, které utvářejí online zážitky.

A algoritmy nejsou omezeny na internetové platformy. Vládní instituce jsou stále více závislé na algoritmech, v oblastech od vzdělávání až po trestní soudnictví. V ideálním světě by algoritmy odstranily lidské předsudky před tvrdými rozhodnutími, jako je určení, zda by měl být vězněm propuštěno. V praxi jsou však algoritmy stejně účinné jako lidé, kteří je vytvářejí.

Například vyšetřování ProPublica prokázali, že algoritmy hodnocení rizika používané v soudních síních byly rasově zaujaté. Aby to bylo ještě horší, mnoho algoritmů používaných ve veřejném sektoru je v soukromém vlastnictví a některé společnosti odmítají sdílet kód, který je základem jejich softwaru. To znemožňuje pochopit, proč tyto tzv. „Black box“ algoritmy vracejí určité výsledky.

Jedno z možných řešení, které nabízí AI Now? Algoritmické hodnocení dopadů. Tato hodnocení zavádějí normu úplné transparentnosti, což znamená, že vládní agentury, které používají algoritmy, budou muset propagovat, kdy a jak je používají. „Tento požadavek sám o sobě by šel dlouhou cestu směrem k propuštění světla, na které technologie jsou nasazovány, aby sloužily veřejnosti, a kde by měl být zaměřen výzkum odpovědnosti,“ uvádí zpráva.

Politika otevřenosti obklopující algoritmy by také otevřela dveře občanům ke kontrole a protestu proti jejich používání. Chtěli byste, aby algoritmus, který vám dá skóre rizika, byl založen na faktorech mimo vaši kontrolu, zejména pokud by toto skóre mohlo pomoci určit, zda jdete do vězení? Možná ano možná ne. V každém případě je důležité přesně vědět, které proměnné algoritmus analyzuje.

AI Now navíc doporučuje, aby byla lidem stanovena právní norma, která by lobbovala proti nekalým algoritmům.

Pokud například agentura nezveřejní systémy, které přiměřeně spadají do působnosti těch, kteří provádějí automatizovaná rozhodnutí, nebo pokud to umožňuje dodavatelům, aby učinili přes palubní obchodní tajemství, a tím blokují smysluplný přístup k systému, měla by mít veřejnost možnost vyjádřit se k obavám orgán dohledu nad agenturou, nebo přímo u soudu, pokud agentura odmítla napravit tyto problémy po období veřejného připomínkování.

Doporučení se v podstatě omezují na jeden zastřešující mandát: Pokud používáte algoritmy, nestarejte se o to.

Přečtěte si celou zprávu zde.

$config[ads_kvadrat] not found