Naše A.I. Politika je uvízlá v minulosti

$config[ads_kvadrat] not found

15.Видео уроки Cisco Packet Tracer. Курс молодого бойца. Access-List

15.Видео уроки Cisco Packet Tracer. Курс молодого бойца. Access-List
Anonim

Ed Felten, zástupce amerického ředitele pro technologickou politiku Bílého domu, říká, že lidé mají dvě hlavní povinnosti, pokud jde o vývoj a rozvoj umělé inteligence.

První, říká, je „využít výhod A.I. druhé: „řešení rizik A.I.“

Felten mluvil s místností pro lidi v New York University Skirball Center pro herecká umění na A.I. Nyní - letní přednáška, kterou sponzoruje Bílý dům a která se snaží prozkoumat a diskutovat o klíčových otázkách týkajících se budoucnosti A.I. technologie.

A.I. je na křižovatce, A.I. Spoluzakladatelé Kate Crawfordová (výzkumná pracovnice společnosti Microsoft Research) a Meredith Whittaker (zakladatel a vedoucí pracovník společnosti Google Open Research) upozornili na to. Soukromý a veřejný sektor musí spolupracovat na vytvoření nějakého druhu proveditelného A.I. politika. Problém je ale v tom, že zatímco technologické společnosti dělají obrovské pokroky směrem k postupování skutečného kódu a architektury, která jde do tvorby A.I. naše nynější politické struktury jsou zastaralé nebo horší, neexistují.

Příliš dlouho, A.I. byl odložen stranou jako futuristický koncept, nepoužitelný v moderní době. Ale já. tiše se projevila v městské politice, prosévání spousty dat a poskytování služeb lidem tak, že lidská moc nemůže nikdy dosáhnout. Felten citoval příklady ve způsobu, jakým mohou algoritmy používat data k propojení lidí s cenově dostupným bydlením, nebo prosazovat transparentnost tak, aby veřejnost měla přístup k cenným informacím.

To neznamená, že A.I. je perfektní; je to moc ne. Během hlavního panelu na večer, Latanya Sweeney, A.I. výzkumný pracovník na Harvardské univerzitě projednal příběh, který nazvala „Den, kdy můj počítač byl rasista.“

Reportér, který rozhovor s Sweeneyem prohledal její jméno přes Google a zjistil, že její jméno se objevuje pod reklamami na stránkách, které nabízejí shromažďování a sdílení údajů o zatčení. Sweeney nebyl nikdy zatčen a její jméno nebylo ani součástí databáze webové stránky, ale její jméno bylo promítáno v reklamě. Jako každý dobrý vědec, Sweeney vzal její vlastní osobní zkušenost a provozoval studii a zjistil, že tyto reklamy byly významně více pravděpodobný, že vypíše jména černých jedinců než bílí jednotlivci. Důvod? Doručování těchto reklam společností Google je výsledkem algoritmu, který přikládá větší váhu tomu, na co lidé klikli, když se reklamy zobrazovaly. Když byl černý název Googled, na tyto reklamy kliklo více lidí. Systém se naučil vzor a začal tyto reklamy zobrazovat ve větší frekvenci.

Je to cenná lekce, která je základem slibu A.I.: lidé v konečném důsledku mocenské technologie a rasistické činy ze strany lidí mohou ovlivnit design a algoritmy, a ano, dokonce i A.I.

Společnost Google mohla snadno zjistit tyto předsudky ve svých reklamních službách a pracovat na jejich opravě. "Rozhodli se, že ne," namítl Sweeney.

Mohl by modernější politický rámec nutit Google k nápravě tohoto problému? Možná. Nicole Wong, která byla Feltenovým předchůdcem od roku 2013 do roku 2014, zdůraznila, že mnoho lidí - včetně A.I. samotní výzkumníci - měli skutečný zájem o „rostoucí asymetrii moci“ mezi lidmi, kteří používají velká data, a lidmi, kteří jsou v konečném důsledku ovlivněni, což se pohybovalo od subjektů údajů nebo těch, kterých se tato rozhodnutí týkají..

Tyto obavy se neomezují pouze na soukromý sektor. Roy Austin, náměstek asistenta prezidenta Domovní politiky Bílého domu, se dotkl toho, jak by mohlo být vynucení práva výrazně zlepšeno A.I. - nebo vytvořit masivní překročení moci a zneužívání, pokud jde o soukromí civilistů. „Otázkou je:„ Co s těmito údaji děláme? “, Řekl. Jedna věc je mít data, ale kdo k ní má přístup? Jak dlouho? Kdo k němu bude mít přístup? Opět nemáme politické odpovědi ani řešení těchto otázek a nejistot - a to je znepokojující, protože se stále více a více kontrolujeme A.I.

Třetí pilíř znepokojení měl méně co do činění s hanebným používáním A.I., a co se týče toho, jak A.I. a autonomní systémy vytlačují lidi z pracovních míst. Henry Siu, A.I. výzkumník na University of British Columbia, diskutoval o „rutinních“ povoláních (kde zaměstnanci provádějí velmi specifický soubor úkolů, které se téměř nikdy neodchylují od stanovené rutiny), a jak jsou tyto ztráty pracovních míst nejzranitelnější z důvodu narušení technologií. Automatizace vytvořila v těchto pracovních místech prudký pokles - a nevrací se.

Zní to jako stejný starý příběh industrializace, ale není to tak úplně. Zatímco „tato revoluce už může být… může být méně exotická, než jsme si představovali,“ varoval David Edelman, zvláštní asistent prezidenta Hospodářské a technologické politiky. Ztráta zaměstnání „se nestane najednou.“ Jak on, tak Siu zdůraznili, že řešením je vytvořit vzdělávací prostředí, ve kterém lidé nepřestávají chodit do školy a neustále získávají nové dovednosti a specializace, které jim umožňují přizpůsobit se. s technologie.

Politikům by mohlo být potěšením si uvědomit, že Spojené státy nejsou při řešení těchto problémů samy. Pokud však má Amerika v úmyslu pokračovat v cestě za A.I., musí to udělat v politické oblasti.

Mustafa Suleyman, spoluzakladatel Google DeepMind, diskutoval o potenciálu pro A.I. pomoci zdravotnickým systémům a umožnit lékařům na algoritmech strojů diagnostikovat určitá onemocnění a nemoci - uvolnit čas pro lidi, aby přišli s léčebnými metodami. Pro Suleymana, který je Brit, se nezdálo, že by byl takový systém vytvořen v nemocnicích. Sweeney však upozornil, že „v USA nemáte kontrolu nad svými vlastními údaji“ - neexistují žádná regulační opatření, která by zajistila, že informace nebudou zneužity. A to je obrovský problém.

„Chci všechno, co můžu vytlačit z každého úspěchu technologie,“ řekl Sweeney. „Problém není technologickou stránkou; Problém je v tom, že jsme mimo veřejný pořádek. “

$config[ads_kvadrat] not found