AI lepší v kompromisu než lidé, najde novou studii

$config[ads_kvadrat] not found

Amel Bent - Où je vais (Clip officiel)

Amel Bent - Où je vais (Clip officiel)
Anonim

Přiznejme si to. Od chvíle, kdy se poprvé objevila umělá inteligence, se lidé báli dne, kdy převezmou naši vládci AI. Ale někteří výzkumníci testovali schopnost umělé inteligence nejen soutěžit s lidstvem, ale také spolupracovat.

Ve studii zveřejněné ve čtvrtek v Komunikace přírody tým profesorů BYU, Jacob Crandall a Michael Goodrich, spolu s kolegy z MIT a dalších univerzit, vytvořili algoritmus pro výuku spolupráce strojů a kompromisů.

Výzkumníci naprogramovali stroje pomocí algoritmu nazvaného S # a vedli je přes řadu her s různými partnery - stroj-stroj, člověk-stroj a člověk-člověk - aby otestovali, které párování by mělo za následek většinu kompromisů. Stroje (nebo přinejmenším ty, které jsou naprogramovány pomocí S #) se ukáží mnohem lépe v kompromisu než u lidí.

To by však mohlo říci více o „lidských neúspěchech“, říká hlavní výzkumník Jacob Crandall Inverzní. „Naši lidští účastníci měli tendenci být neloajální - vadili uprostřed spolupráce - a nečestní - asi polovina našich účastníků se rozhodla, že na jejich návrhy nebude navázat - v určitém okamžiku v interakci.“

Stroje, které byly naprogramovány tak, aby ocenily poctivost, byly na druhé straně upřímné. „Tento konkrétní algoritmus se učí, že morální vlastnosti jsou dobré. Je naprogramováno, aby nelhal, a také se učí udržovat spolupráci, jakmile se objeví, “říká Crandall.

Výzkum navíc zjistil, že některé strategie spolupráce byly účinnější než jiné. Jedním z nich byl „levný rozhovor“, jednoduché slovní signály, které reagují na danou situaci, jako „Sweet. Zbohatneme! “Nebo„ Přijímám váš poslední návrh. “Nebo, abych vyjádřil nespokojenost,„ Proklínám vás! “„ Za to zaplatíte! “Nebo dokonce„ ve tváři! “

Bez ohledu na to, jaký typ hry se hraje nebo kdo hrál, levné rozhovor zdvojnásobil množství spolupráce. To také humanizovalo stroje, s lidskými hráči často neschopný říkat jestliže oni byli interakce se strojem nebo člověkem.

Vzhledem k tomu, že tento výzkum byl zaměřen na testování algoritmu S #, jedním z nedostatků výzkumu je to, že nebere v úvahu kulturní rozdíly mezi lidmi, které by mohly ovlivnit, jak by různé lidské populace mohly používat nebo interpretovat strategie, jako je levný rozhovor, nebo jak mnoho lidí by se mohlo zapojit do podvodu nebo neloajálnosti.

V závěrečné povídce slavné knihy Isaaca Asimova z roku 1950 Já robot - „Evitable Conflict“ - vládci AI ve skutečnosti převzali planetu. Ale protože jsou tak rozumní a naprogramovaní nějakými nerozbitnými etickými pravidly, je to dobrá věc pro lidskou rasu. A jak ukazuje tato studie, protože lidské interakce jsou možná chaotické a komplikované, možná můžeme důvěřovat strojům. Samozřejmě, pokud byli naprogramováni na poctivost.

Abstraktní:

Od doby, kdy si Alan Turing představil umělou inteligenci, byl technický pokrok často měřen schopností porazit lidi v setkávání s nulovým součtem (např. Chess, Poker nebo Go). Méně pozornosti bylo věnováno scénářům, v nichž je spolupráce mezi lidmi a stroji přínosná, ale netriviální, jako jsou scénáře, ve kterých nejsou lidské a strojní preference ani plně v souladu, ani plně v konfliktu. Spolupráce nevyžaduje naprostou výpočetní sílu, ale místo toho je usnadněna intuicí, kulturními normami, emocemi, signály a předem vyvinutými dispozicemi. Zde vyvíjíme algoritmus, který kombinuje nejmodernější algoritmus zesílení-učení s mechanismy pro signalizaci. Ukazujeme, že tento algoritmus může spolupracovat s lidmi a dalšími algoritmy na úrovních, které soupeří s lidskou spoluprací v různých opakovaných stochastických hrách dvou hráčů. Tyto výsledky ukazují, že obecná spolupráce člověk-stroj je dosažitelná pomocí netriviálního, ale nakonec jednoduchého souboru algoritmických mechanismů.

$config[ads_kvadrat] not found