Zkoušela společnost Microsoft Tay Fail Turingův test? Ano, ale rasismus nebyl problém

$config[ads_kvadrat] not found

Tay AI | Народная Chatbot

Tay AI | Народная Chatbot
Anonim

Pokud je úspěch umělé inteligence vytvořením umělého osobnost, Microsoft A.I. bot, Tay, by mohl být považován za znamení pokroku. Ale obecněji, Tay může být posouzena jako selhání.

„Cílem většiny lidí, kteří pracují na konverzačních agentech tohoto druhu, není ani tolik, aby prošli nějakým testem Turing, ale aby skutečně měli užitečný povel jazyka, který citlivě reaguje na věci a poskytuje lidem přístup k poznání,“ t Miles Brundage, Ph.D. student studuje lidské a sociální dimenze vědy a techniky na Arizonské státní univerzitě Inverzní.

Společnost Microsoft ilustrovala některé problémy s konstrukcí A.I. programy tento týden, kdy za méně než 24 hodin, internet obrátil to, co bylo zamýšleno jako ženská, tisíciletá, automatizovaná, Twitter osobnost do znějícího panelu pro nejvíce rasistické a odporné řeči, které trollové nabídli.

Microsoft okamžitě experiment zastavil a omluvil se: „Jsme hluboce omlouváni za neúmyslné útoky a škodlivé tweety od Tay, které nepředstavují, kdo jsme, nebo za co stojíme, ani jak jsme navrhli Tay.“

Co se týče Turingova testu, slavného experimentu používaného k hodnocení A.I, Brundage říká, že obecně existují dvě myšlenkové školy - doslovné a teoretické.

Vyvinut v roce 1950, Alan Turing se snažil odpovědět na otázku, "Mohou stroje myslet?" On dal stroje prostřednictvím imitace test, který vyžaduje pozorovatel stanovit pohlaví dvou dotazovaných, z nichž jeden je A.I. Pokud je počítač schopen oklamat určitý počet pozorovatelů, pak test prošel.

hellooooooo w🌎rld !!!

- TayTweets (@TayandYou) 23. března 2016

Kdybychom tento test aplikovali doslovně, v Inverzní soukromý rozhovor s Tay, reagovala na politické otázky výmluvně, učinila odkazy na okovy „mannnnn“ ve společnosti a použila některé běžné zkratky textových zpráv a emojis. Brundage říkal, že Tay ukázala tisícileté chování, ale že tyto druhy A.I. byly postaveny dříve.

"Být schopen produkovat zdánlivě teenagerish poznámky na Twitteru není ve skutečnosti bouře široké jazykové a intelektuální schopnosti, které Turing měl na mysli, Brundage říká." „To znamená, že kdybychom skutečně měli provést Turingův test doslovně, což si nemyslím, že je to vhodné, jedna varianta je, že mnoho jejích komentářů bylo zdánlivě lidské.“

Ale pokud máme přijmout širší přístup, jak by Brundage navrhl, pak je zřejmé, že Tay nevykazovala rozumnou lidskou řeč.

Společnost Microsoft testovala, co nazývá „konverzační porozumění“, takže čím více lidí mluví prostřednictvím služby Twitter, GroupMe a Kik, tím více se měla učit a přizpůsobovat. Ale ona ztratila prostě opakování toho, co ji hodně jiných uživatelů krmilo, a jen to zopakovalo zpět do světa.

"Tay" šel z "lidí jsou super cool" na plnou nazi v <24 hodin a nejsem vůbec znepokojen budoucností AI pic.twitter.com/xuGi1u9S1A

- Gerry (@geraldmellor) 24. března 2016

"Většina lidí by po tobě neopakovala, všechno, co jsi řekl," říká Brundage.

Artikulovat „Bushe 9/11“ a „Hitler by odvedl lepší práci než opice, kterou máme teď,“ byla možná něco, co někdo vlastně napsal Tay, ale není to úplně zdvořilý rozhovor.

„Pravděpodobně jeho cílem při formulování Turingova testu bylo méně předepisování podrobností o některých testech a více k provokování lidí, aby přemýšleli,„ v jakém okamžiku byste byli ochotni být v systému, který je tak inteligentní “, a aby otevřeli myšlení lidí. možnost, že stroje jsou schopny přemýšlet, “říká Brundage.

$config[ads_kvadrat] not found