Zbraňové strojové učení proti ISIS zamotá vojenské řetězce velení

$config[ads_kvadrat] not found
Anonim

Všichni na internetu měli skvělý čas s Tay, robotem Twitter od společnosti Microsoft, který se během několika hodin stal rasistickým popíračem holocaustu (pak se vrátil a udělal to znovu). Společnost vytvořila klapku pro styk s veřejností - více incidentů než katastrofa - a zároveň dala veřejnosti objektivní poučení o výhodách a nevýhodách strojového učení: automatizace může využít rychlostních vzorů k fascinujícímu efektu, ale výsledky budou předvídatelně předvídatelné.

Jak je často tomu tak, armáda je raným nástupcem automatizační techniky. To je - najednou - vést poplatek k strojovému učení a také zoufale snažit se držet krok. Jednou z hlavních oblastí zájmu Pentagonu jsou autonomní roboty a jak budou spolupracovat s lidmi - například robotickým křídlem typu R2D2. Ale tento týden, náměstek ministra obrany Robert Práce načrtl další úkol pro A.I.: open-source křupání dat.

„Jsme si naprosto jisti, že používání strojů pro hluboké učení nám umožní lépe porozumět ISIL jako síti a lépe porozumět tomu, jak přesně na to zaměřit a vést k jeho porážce,“ uvedl tajemník ministerstva práce. Internetové stránky DoD. Podle tohoto účtu, práce, který mluvil na akci pořádané Washington Post, měl jeho epiphany při sledování společnosti Silicon Valley tech demonstrovat "stroj, který se v datech z Twitteru, Instagram a mnoho dalších veřejných zdrojů, aby ukázal červenec 2014 Malajsie letecké linky 17 sestřel-down v reálném čase."

Soukromé společnosti a orgány činné v trestním řízení se dlouhodobě pokoušejí o smysl „velkých dat“. Ale armáda má výhodu: zdroj. Také mají přístup k utajovaným materiálům.

Zdá se, že vláda USA je připravena vsadit, že softwarové algoritmy mohou třídit obrovské množství dat tam, aby identifikovaly cíle ISIS, které by jim jinak unikly, a odhalily a narušily pozemky dříve, než je plánovači budou schopni provést. Vláda se již snaží studovat sociální média, aby předvídala velikost on-line protestů. Není pochyb o tom, že strojové učení poskytne analytikům inteligence větší sílu, aby si uvědomili bohatství dostupných informací ve světě. Když se však tato inteligence stane základem, na kterém je přijata smrtící stávka, etické otázky se stávají složitějšími, i když se zdají být jednoduché.

Ačkoli práce rychle říkala, že Pentagon „nepřenese smrtelnou autoritu na stroj“, což zůstává konec hry. Mezitím lidé zůstanou „ve smyčce“, jak jdou žargony. Ale jako každý, kdo se podíval na iPhone pro zprávu o počasí, když stál vedle okna, ví, že vztahy, které máme s našimi zařízeními a softwarem, nejsou jednoduché. Problémy s problematikou uživatelského rozhraní jsou problematické.

„Automatizační předsudek“, tendence lidí k odkládání na stroje, představuje jasné a stále více ohrožující nebezpečí. Příkladem pro ilustraci tohoto fenoménu je, když vám telefon řekne, abyste si vybrali trasu, o které víte, že je špatná, ale přesto ji děláte, za předpokladu, že telefon musí vědět, co ne. To je běžný problém v nevojenských kontextech. To, co Pentagon vypadá, že se blíží také, je však zpráva o hrozbách, kterou tvoří umělá inteligence. O potenciální účinnosti tohoto programu nevíme nic jiného než to, že bude těžké pro lidi implementovat.

V dokumentu z roku 2001, který se zaměřil na studentské a profesionální piloty a automatizační předpojatosti, vědci zjistili, že „ve scénářích, ve kterých byly k dispozici správné informace pro křížovou kontrolu a detekci anomálií automatizace, byly v obou populacích dokumentovány míry chyb přibližně 55%“. že přidání dalšího lidského spoluhráče tento problém nezmírnilo.

Podobně studie MIT z loňského roku poněkud znepokojivě zjistila, že počítačoví hráči a hráči videoher měli „vyšší sklon k nadměrné automatizaci“. To by mohlo znamenat, že čím více času trávíme, když se díváme na naše obrazovky, tím více věříme tomu, co vidíme. Problém není opět se systémy, které používáme, ale s tím, jak je používáme. Chyba není v našich hvězdách, ale v nás samotných.

Velká data zůstávají slibná. Strojové učení zůstává slibné. Ale když stroje poradí lidem, výsledky jsou předvídatelně nepředvídatelné. Znamená Tayova transformace na neonacistického misogynistu, že Twitter nenávidí Židy a ženy? Je to těžké vědět, ale docela nepravděpodobné. Když nerozumíme procesu tím, jak se vstupy stávají výstupy, snažíme se výsledky řešit racionálně. Což dává Pentagonu zajímavou pozici. Budou lidé programovat vojenský software pro strojové učení, který bude objednávat nálety? Není to tak, jak funguje řetězec velení, ale řetězy velení se zamotají, když se technologie zapojí.

$config[ads_kvadrat] not found