A.I .: Výzkumní pracovníci ukazují, jak mohou stroje falešně procházet konverzacemi

$config[ads_kvadrat] not found

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)

Маша и Медведь (Masha and The Bear) - Маша плюс каша (17 Серия)
Anonim

Pokud nic jiného, ​​můžete to moc udělat pro umělou inteligenci: Zřídkakdy se bojí vypadat hloupě. Je-li učení A.I. setkává se s něčím mimo jeho předprogramované znalosti, obvykle se nebude stydět žádat osobu, se kterou mluví, o objasnění.

To však může vést k poněkud monotónnímu rozhovoru pro člověka, který je zapojen do rozhovoru s chatbotem, asistentem hlasu nebo obecně známým robotem: „Co je to jablko?“ „Co je to tiramisu?“ „Co je to vyléčené maso?“ „Co víte doslova něco o jídle jste hloupý recept chatbot?

Dostanete ten nápad, a jak vědci z japonské univerzity v Ósace poukazují na nedávnou pozornost svého díla, poslední řádek naznačuje skutečný problém, kterému čelí AI: Kladení otázek může být pro ně nejlepším způsobem, jak se naučit, ale to neznamená. t počítat za hodně, pokud propast otázek je tak dráždivé nebo únavné, že lidské puty pryč. Nestačí pro A.I. vědět, co neví. Musí také vědět, jak udržet lidi, kteří jsou dostatečně angažovaní, aby zaplnili mezery ve svých znalostech.

Jejich nově vyvinutá metoda využívá tzv. Lexikální akvizici prostřednictvím implicitního potvrzení, které je v podstatě fantastickým způsobem, jak říci, že umělá inteligence může nyní hovořit stejně dobře jako lidé. Tento trik odstraňuje tento trik ne tím, že žádá lidi, aby potvrdili, co je něco, ale spíše tím, že řekne něco jiného, ​​co nepřímo dostane partnera konverzace k potvrzení nebo popření instinktu A.I.

Podívejme se na příklad.

A.I. ví dost, aby se hádal o počátcích fráze „nasi goreng“, podle toho, jak to zní indonésky. Skutečnost, že člověk řekl, že se bude snažit kuchařka tento pokrm naznačuje, že je to jídlo nějakého druhu, a tak i A.I. generuje toto tvrzení - není to otázka, i když je v něm skrytá - o kvalitě indonéských restaurací v této oblasti.

A.I. Mohlo by se předpokládat, že by mohly použít základní údaje o nedávných restauracích a jejich online recenzích, aby zjistili, zda toto prohlášení dává smysl fakticky, možná jinak říci něco jako „Tam opravdu musí být více dobrých indonéských restaurací v okolí“, pokud nenajde mnoho možností.

Ale to je jen proto, abychom zmírnili zmatek, protože i člověk nesouhlasící s tvrzením by stále odpovídal na základní otázku, zda je nasi goreng indonéština. Je to jen tehdy, když se osoba zeptá, co A.I. mluví o tom, že je jasné, že stroj udělal chybu.

Takže, pokud jste si mysleli, že si falešná cesta prostřednictvím rozhovorů na večírcích byla něco, co lidé mohli kdy udělat… promiňte, automatizace pro nás všechny opravdu přichází.

$config[ads_kvadrat] not found