Tento robot se naučil, jak říci „ne“ lidským požadavkům

$config[ads_kvadrat] not found

La Educación Prohibida (Completa)

La Educación Prohibida (Completa)
Anonim

Roboti, stejně jako lidé, se musí naučit, když říkají „ne“. Pokud je požadavek nemožný, způsobil by škodu nebo by je odvrátil od úkolu po ruce, pak je to v nejlepším zájmu „bota a jeho člověka“. pro diplomatické ne, díky být součástí konverzace.

Ale kdy by měl stroj mluvit? A za jakých podmínek? Inženýři se snaží přijít na to, jak vštípit tento smysl, jak a kdy se vzpírat rozkazům v humanoidech.

Sledujte, jak robot Nao odmítá chodit vpřed, protože věděl, že by to způsobilo, že by spadl z okraje stolu:

Jednoduché věci, ale jistě nezbytné pro to, aby fungovaly jako kontrola lidské chyby. Výzkumníci Gordon Briggs a Matthias Scheutz z Tufts University vyvinuli komplexní algoritmus, který umožňuje robotovi zhodnotit, co ho člověk požádal, rozhodnout, zda by to měl udělat, a reagovat na ně náležitě. Výzkum byl prezentován na nedávném zasedání Asociace pro rozvoj umělé inteligence.

Robot se zeptá na řadu otázek týkajících se toho, zda je úkol schopen. Vím, jak na to? Můžu to udělat fyzicky? Já jsem normálně fyzicky schopen to udělat? Můžu to udělat hned teď? Jsem povinen na základě své sociální role to udělat? Porušuje to nějaký normativní princip?

Výsledkem je robot, který se zdá být nejen rozumný, ale jeden den i moudrý.

Všimněte si, jak Nao mění názor na to, jak se člověk dopředu postará, aby ho chytil. Bylo by snadné představit si jiný scénář, kdy robot řekne: "V žádném případě, proč bych ti měl věřit?"

Nao je ale společenská bytost. Potěšit lidi je v jeho DNA, takže vzhledem k informacím, které ho člověk chce chytit, se slepě posouvá dopředu do propasti. Jistě, pokud by člověk měl svou důvěru oklamat, byl by ho chytit, ale stejně by věřil. Je to Nao.

Když se robotičtí společníci stávají sofistikovanějšími, robotští inženýři se budou muset s těmito otázkami potýkat. Roboti budou muset rozhodovat nejen o zachování vlastní bezpečnosti, ale i o větších etických otázkách. Co když člověk požádá robota, aby zabil? Spáchat podvod? Chcete zničit jiného robota?

Myšlenka strojové etiky nemůže být oddělena od umělé inteligence - i naše auta bez řidičů budoucnosti budou muset být navržena tak, aby v našem zastoupení učinila rozhodnutí o životě nebo smrti. Tato konverzace bude nutně složitější, než jen vydávání pochodových příkazů.

$config[ads_kvadrat] not found