ANDAAZ (HD) | Akshay Kumar | Priyanka Chopra | Lara Dutta | Best Bollywood Movie
Roboti se obracejí k velkým lidským společníkům. Kdo by nechtěl, aby nám rozkošný malý pepř říkal vtipy, dával nám komplimenty a obecně se cítíme méně ve světě? Dokonce i beztvarí roboti jsou překvapivě dobrou společností. Vezměte si například Alexu Echo Amazonky. Je to robotický mozek s lidským hlasem uvězněným v těle audio reproduktoru, ale je nápomocná, a když si přečtete její recenze, je jasné, že se stala jako rodina mnoha uživatelům. Mysleli by lidé jinak, kdyby lhala? Co kdyby ti řekla něco, co opravdu chceš slyšet?
Přemýšlejte o tom: Řekneme dětem, aby nikdy neřekli lež a že upřímnost je nejlepší politikou, a přesto vynecháváme, zkreslujeme pravdu a dětem přímo lžeme po celou dobu. To nás prostřednictvím našich činů učí, ne-li našimi slovy, že to není o úplné poctivosti, ale o tom, jak se naučit složité sociální předpisy o tom, kdy a jak odhalit nebo skrývat potenciálně citlivé informace. Programování robotů k dodržování těchto sociálních pravidel může být těžkou, ale nezbytnou součástí probíhajícího procesu inovace automatu.
Zde je příklad: Druhý víkend jsem byl v domě svého švagra a šel jsem do obchodu, abych si na oběd pro každého vzal nějaké sendvičové věci. Moje šestiletá neteř mi pomohla dát jídlo, zatímco všichni ostatní byli z kuchyně, a ona se mě zeptala, kolik stojí jídlo. Řekl jsem jí, protože výuka dětí o hodnotě peněz je dobrá věc.
U stolu na oběd mě požádala, abych každému řekla, kolik stojí potraviny. Řekl jsem ne.„Proč?“ Zeptala se, opravdu zmatená, proč otázka, na kterou jsem před pár minutami odpověděl svobodně, byla nyní tajnou informací. "Není to zdvořilý," řekl jsem a vysvětlil, že protože je to dítě, pravidla jsou jiná, když jsme sami. Učil jsem ji, že poctivost a otevřenost mají čas a místo. Informace v lidském kontextu vždy nechtějí být svobodné.
Je to totéž s roboty. Myslíme si, že nechceme, aby nám naši roboti lhali, ale ve skutečnosti je chceme, aby se naučili složitým společenským pravidlům slušnosti a diskrétnosti, které někdy vyžadují narušení pravdy. A už se učí, jak to udělat. Vezměte tento krátký klip Peppera do interakce s reportérem, například:
První věc z Pepperových úst je kompliment: „Takže jste velmi elegantní. Jsi model?"
Reportér je dost hezký, ale Pepperova otázka není naprosto upřímná. Chápeme, že Pepper vlastně není divu, jestli je to model, a byl naprogramován tak, aby říkal pěkné věci bez ohledu na to, jak člověk vypadá.
Brzy poté, Pepper požádá o půjčku, z modré. Je to nezdvořilá otázka, nedůvěra, kterou nám roboti snadno odpustí, jako bychom byli dítě. Reportér mohl poukázat na to, že otázka je hrubá, že roboti nepotřebují peníze, nebo přiznali, že nemá zájem na tom, aby Pepperovi podal 100 dolarů. Celá pravda je, že reportér mohl půjčete robotovi peníze, ale chápe, že samotná otázka je trochu hra. To, co se rozhodne říct, je vychýlení, a to buď bílá lež, nebo polopravda - nemá na něm peníze. Doufáme, že to robot chápe jako jemné „ne“ a nenavrhuje, aby reportér šel do bankomatu a provedl výběr. Protože Pepper má zřejmě nějakou společenskou milost, končí řada otázek.
Sociální roboti jsou naprogramováni tak, aby se učili sociální podněty, a to je dobrá věc - v konečném důsledku se jim povedou lépe na našich pracovních místech. Úkolem programátorů není vyloučit všechny podvody s roboty, ale přidat funkce, které robotům usnadní rozhodování o vhodných odpovědích.
Když jsou roboti našimi důvěrníky, potřebují mít povědomí o kontextu a publiku. Pokud se například pokouším na oblečení doma, budu chtít upřímné posouzení toho, jak lichotivé jsou různé možnosti. Pokud jsem na párty a najednou si uvědomím, že jsem si vybral špatné šaty, bude to nejužitečnější odpověď, že jsem v pohodě.
Roboti se budou učit spoustu osobních informací o svých společnících a pro ně bude důležité, aby porozuměli rozdílu mezi důvěrnými informacemi a veřejnými informacemi, a také si byli vědomi toho, kdo poslouchá, kdykoli mluví. Otázky budou mít různé odpovědi v závislosti na tom, kdo se ptá. Roboti se budou chovat jinak, když budou hosté doma.
Roboty, stejně jako děti, potřebují zodpovědné rodičovství. To znamená, že jak programátoři robotů, tak i vlastníci robotů musí hluboce přemýšlet o etických a sociálních důsledcích našeho A.I. interakce. Neznamená to však, že by to vyžadovalo dokonalou poctivost - vážně, nikdo to nechce.
Robotičtí roboti volají po strojních morálkách: Roboti musí "neposlušně poslouchat"
Roboty se stávají ústředním bodem našeho každodenního života a brzy budou muset začít čelit některým z tvrdých morálních rozhodnutí, která musíme pravidelně provádět. Matthias Scheutz, profesor počítačové vědy v laboratoři Human-Robotics Interactions Laboratory v Tuftsově univerzitě, se obává zejména toho, že jsme neměli ...
Guillermo del Toro chce dělat 'Pet Sematary' a my bychom ho měli nechat
Na oslavu vydání jeho gotické romance Crimson Peak, Guillermo del Toro vypálil Tweet dnes ráno, který dělal na internetu stojí v pozoru: Tam je již adaptace královského románu v existenci, a ano, del Toro říká, že to viděl, ale že "román je předurčen k tomu, aby byl znovu vyroben." V královské kině ...
Měli byste jít holandsky na rande? 10 důvodů, proč byste si to měli nechat
První schůzka může být velmi, velmi trapná. Chodíte holandsky na rande nebo je necháte platit? Zde je důvod, proč byste měli a jak to udělat správně.