Stereotypizační robot Gruzie Tech je budoucnost AI, ne rasismus

$config[ads_kvadrat] not found
Anonim

K uším, které jsou senzibilizovány po vyučovacích speciálech a seminářích o rozmanitosti, to bude znít špatně, ale chceme, aby roboty na základě vzhledu učinili rychlá rozhodnutí. Překonání předsudků je dobré, ale neschopnost stereotypů snižuje inteligenci - umělou i jinou. Alan Wagner, Ph.D., robotista v Georgia Tech, je hlavním zastáncem stereotypové technologie. Tvrdí, že tento druh logiky nemusí být aplikován na rasu nebo pohlaví, jen na situace a chování.

V časném testu jeho stereotypového algoritmu Wagner vyškolil naivního robota, aby učinil závěry z toho, co viděl. Robot se naučil a stal se vnímavým, což Wagnerovi umožnilo kriticky přemýšlet o etice předpokladů robotů, zejména předprogramovaných. Mluvil s ním Inverzní o jeho práci a jejích důsledcích.

Projděte mě, jak experiment pracoval.

Robot komunikuje s různými typy jedinců - hasičem, EMT, nebo co není - ale nemá žádnou předchozí zkušenost s žádnou z těchto kategorií jednotlivců. Je to v podstatě zážitkové učení.

Myšlenkou bylo ukázat, že robot by mohl používat funkce vnímání od jedince k předvídání jejich potřeb z hlediska použití nástroje. Způsob, jakým algoritmus pracoval, by robotova kamera vnímala různé aspekty toho, co jednotlivec vypadal - jejich jednotnou barvu, například zda mají vousy a barvu vlasů.

Zeptal by se jich také na otázky, jak vypadají. Samozřejmě, klást otázky není to, co chcete dělat v terénu, ale vnímání robota je nyní tak omezené. Potřebovali jsme způsob, jak zavést proces učení o člověku. Osoba si vybere nástroj a pak robot vybere nástroj a časem se robot dozví, jaký nástroj preferuje každý typ osoby.

Očekávali jste, že se robot dozví, že odznak znamená policejní důstojník nebo těžký reflexní kabát znamená hasiče?

Očekávali jsme to. Ale taky byly nějaké překvapivé věci.Robot například falešně poznal, že vousy jsou předvídány hasičem - to bylo zvláštní, ale když se podíváte na data, nebylo to překvapující. Prvních několik lidí, kteří s ním spolupracovali, byli hasiči, kteří měli vousy. Proto argumentujeme potřebou percepční rozmanitosti, myšlenkou, že kdyby robot viděl velké, široce odlišné typy jednotlivců v kategorii, lépe by tuto kategorii rozvíjel a porozuměl.

Řekl byste, že autonomní roboti by měli být vyškoleni, aby si tyto vtipy vyžehlili, takže robot si nebude myslet, že má-li tato osoba vousy, je to hasič?

Absolutně. Je důležité, abychom tyto věci vyžehlili. Je důležité, abychom měli tyto roboty, kteří pracují z různorodého souboru jednotlivců.

Jak by mohlo toto učení vypadat?

To by umožnilo robotu zaměřit se na věci, které lépe charakterizují hasiče. Například hasič nemusí mít ani bundu. Robot si pak všiml dalších aspektů boje, možná bot, možná rukavic, možná přileb. Řeklo by to: „OK je hasič v tomto prostředí. “

Kdybyste měli dost lidí, mohlo by to být schopno rozpoznat hasiče u ohně a hasiče na Halloweenské párty. Jsou to jemné detaily vnímání, jako je rozdíl mezi kvalitou typů uniforem nebo kontextovým prostředím.

Jaký byl tento algoritmus úspěšný, kromě spojení vousů s hasiči?

Byly to dvě věci, na které jsme se opravdu chtěli podívat: Co s tím můžete dělat? Pokud roboti mohou rozpoznat hasiče, opravdu to nějakým způsobem pomáhá? Papír ukázal, že vám umožňuje zúžit vyhledávání. Místo toho, abyste se dívali na vousy na barvu vlasů, hledali barvu očí nebo cokoli jiného, ​​na co byste se mohli zaměřit, byste se mohli zaměřit na funkce, na kterých opravdu záleží. Má člověk na sobě hasičský kabát? To by mohlo tento proces urychlit.

Další opravdu důležitá věc, na kterou jsme se dívali, je, co když je kategorie, kterou robot předpovídá, špatná? Jak to dopadá na vás? Můžete si představit, že prostředí pro pátrání a záchranu může být chaotické: Možná pracujete v podmínkách naplněných kouřem, robot nemusí být schopen vše dobře vnímat, může mít chyby. Dokážete si představit horší případ, kdy si robot myslí, že se jedná o oběť, když je ve skutečnosti hasič. Takže se snaží zachránit hasiče. To by bylo hrozné. Chtěli jsme vidět, kde se zlomí, jak se zlomí, jaké vlastnosti to ovlivňují nejvíce a jaké jsou různé druhy chyb.

Tento přístup můžete použít různými způsoby - pokud nevidí osobu vůbec, ale mohou vidět akce, které dělají. Když uvidím osobu, která si vybere sekeru, pak můžu předpovědět, že mají helmu.

Jak přistupujete k tomu, aby robot posoudil kontext a učinil předpověď?

Snažili jsme se podívat na několik různých typů prostředí - restauraci, školu a pečovatelský dům. Snažili jsme se zachytit vlastnosti o životním prostředí ao tom, jaké objekty jsou v prostředí, jaké akce osoba vybírá, a co lidé v prostředí vypadají, a pokusit se je využít k tomu, aby vytvořili spoustu společenských předpovědí. Například ve školním prostředí lidé zvednou ruce, než si povídají. Pokud tedy vidím akci, kterou lidé zvyšují, jaký typ objektů bych očekával v prostředí? Očekávám, že uvidím tabuli; očekávám, že uvidím stůl? Očekávám, že uvidím děti.

Doufáme, že tyto informace použijeme. Pokud robot provádí evakuační proceduru, zjistí, jaké typy lidí jsou tam a kde by mohly být.

Řekněme, že k vašim dveřím přichází robot a říká: „Prosím, následujte mě k východu.“ Něco tak zdánlivě jednoduchého, jak je to vlastně velmi složité. Pokud robot zaklepá na dveře v činžovním domě, netušíte, s kým budete spolupracovat. Mohlo by to být čtyřleté dítě, mohlo by to být 95letá osoba. Rádi bychom, aby robot přizpůsobil své interaktivní chování typu, který vidí, aby je zachránil. Využíváme některé z těchto kontextových lekcí a snažíme se tuto aplikaci vyvinout.

Používáte podobnou definici „stereotypu“ pro roboty a lidi, nebo se děje něco jiného?

Termín stereotypizace má negativní kontext. Způsob, jakým je používáme, je jednoduše rozvíjet kategorie lidí a používat kategorické informace k předvídání vlastností osoby. Znám v psychologii, mnoho práce se zaměřuje na stereotypy obličeje a genderové stereotypy. Nic takového neděláme. Je proces stejný? Nevím. Žádný nápad.

Máte strach, že lidé mohou mít mylné představy o vaší práci?

Před pár lety jsme vyvinuli tuto myšlenku robotů, kteří by mohli lidi oklamat. Ve sdělovacích prostředcích bylo trochu mylné představy, že by to vedlo k tomu, že by roboti kradli peněženky lidí.

Chtěl bych využít situaci při nouzové evakuaci: Ne vždy chcete být upřímný vůči člověku ve evakuaci, že? Například, když se vás někdo zeptal: „Je moje rodina v pořádku?“ Bylo by hrozné, kdyby robot řekl: „Ne, všichni zemřeli. Prosím, následujte mě k východu. “Existují situace, kdy robot musí být ve skutečnosti krátce nečestný. Ale moje zkušenost byla, že se lidé cítili, jako bychom se snažili vést ke konci světa.

Vždy se zajímáme o prosociální aspekty těchto technik lidského robota. Snažíme se pomáhat lidem, ne být něco špatného.

$config[ads_kvadrat] not found