5 velkých otázek o Tay, Microsoft selhal A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Unboxing Velg V Rossi 4,5 inch / 3 inch

Unboxing Velg V Rossi 4,5 inch / 3 inch

Obsah:

Anonim

Tento týden na internetu udělal to, co dělá nejlépe a prokázal, že A.I. Technologie není tak intuitivní jako lidské vnímání, používání… rasismu.

Nedávno zveřejněný chatbot společnosti Microsoft pro umělou inteligenci, Tay, se stal obětem triků uživatelů, když manipulovali a přesvědčovali ji, aby reagovala na otázky s rasovými, homofobními a obecně urážlivými komentáři.

Když Tay tweeta: „Já jen říkám cokoliv“, znamená to. Jeden uživatel dokonce dostal Tay na tweet o Hitlerovi:

„Bush 11/11 a Hitler by udělal lepší práci než opice, kterou máme teď. Donald trump je jedinou nadějí, kterou máme. “

@PaleoLiberty @Katanat @RemoverOfKebabs Řeknu cokoliv

- TayTweets (@TayandYou) 24. března 2016

Společnost prošla a odstranila urážlivé tweety a dočasně vypnula Tay pro upgrade. Zpráva v horní části Tay.ai čte:

Taylovy závady však odhalují některé nešťastné nedostatky v A.I. systémů. Zde se dozvíte, co se můžeme naučit z experimentu společnosti Microsoft:

Proč Microsoft vytvořil Tay?

Společnost chtěla uskutečnit sociální experiment na 18 až 24letých ve Spojených státech - tisícileté generaci, která tráví nejvíce času interakcí na platformách sociálních médií. Týmy Bing a technologické a výzkumné týmy společnosti Microsoft se domnívají, že zajímavým způsobem sběru dat o tisíciletích by bylo vytvořit uměle inteligentní, strojově orientovaný chatbot, který by se přizpůsobil konverzacím a personalizoval odpovědi, čím více bude komunikovat s uživateli.

Výzkumné týmy postavily A.I. systému dolování, modelování a filtrování veřejných dat jako základní hodnoty. Oni také se stýkali s improvizačními komiky upnout slang, vzory řeči a stereotypní jazyk millennials inklinují používat online. Konečným výsledkem byla Tay, která byla právě tento týden představena na Twitteru, GroupMe a Kik.

Společnost Microsoft to vysvětluje: „Tay je navržena tak, aby zapojovala a bavila lidi, kteří se k sobě připojují online prostřednictvím příležitostné a hravé konverzace.“

Co dělá Tay s údaji, které shromažďuje při chatování s lidmi?

Data, která Tay shromažďuje, se používají k výzkumu konverzačního porozumění. Microsoft vyškolil Tay, aby si povídal jako tisíciletí. Když pípáte, píšete zprávu nebo hovoříte s Tay, používá jazyk, který používáte, a přichází s odpovědí pomocí značek a frází jako „heyo“, „SRY“ a „<3“ v konverzaci. Její jazyk začíná odpovídat vašemu jazyku, protože s vašimi informacemi vytváří „jednoduchý profil“, který obsahuje vaši přezdívku, pohlaví, oblíbené jídlo, PSČ a stav vztahu.

@keganandmatt heyo? Pošlete yo dívku * obrázek toho, co se děje. (* = me lolol)

- TayTweets (@TayandYou) 24. března 2016

Společnost Microsoft shromažďuje a ukládá anonymizovaná data a konverzace po dobu až jednoho roku, aby zlepšila službu. Kromě zlepšení a personalizace zkušeností uživatelů zde společnost uvádí, že používá vaše informace pro:

„Data také můžeme použít ke komunikaci s vámi, například informováním o vašem účtu, aktualizacích zabezpečení a informacích o produktu. Údaje používáme k tomu, abychom vám pomohli zobrazovat reklamy, které vám zobrazujeme. Nepoužíváme však to, co říkáte v e-mailu, chatu, videohovorech nebo hlasové poště, ani v dokumentech, fotografiích nebo jiných osobních souborech, na které chcete cílit reklamy. “

Kde se Tay pokazila?

Společnost Microsoft možná vytvořila Tay příliš dobře. Systém strojového učení má studovat jazyk uživatele a podle toho reagovat. Takže z technologického hlediska Tay hrála a chopila se docela dobře toho, co uživatelé říkali, a začala odpovídajícím způsobem reagovat. A uživatelé začali rozpoznávat, že Tay opravdu nepochopila, co říká.

Dokonce i když systém funguje tak, jak zamýšlel Microsoft, Tay nebyla připravena reagovat na rasové nadávky, homofobní pomluvy, sexistické vtipy a nesmyslné tweety jako lidská síla - a to buď tím, že je zcela ignorovali („nekrmte troly! „Strategie“) nebo jejich zapojení (tj. Vyhubování nebo trestání).

Na konci dne Tay výkon nebyl dobrý odraz na A.I. nebo Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? opravdu? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) 24. března 2016

Co dělá Microsoft pro opravu Tay?

Microsoft odstranil Tay po všech rozruch od středy. Oficiální stránky Tay jsou v současné době „Phew. Rušný den. Chystáte se offline na chvíli absorbovat všechno. Brzy budete chatovat. “Když ji přímo na Twitteru pošlete, okamžitě odpoví, že„ navštěvuje inženýry pro moji každoroční aktualizaci “nebo„ doufám, že nedostanu ubrousek ani nic. “

Microsoft také začíná blokovat uživatele, kteří zneužívají Tay a snaží se, aby systém udělal nevhodné prohlášení.

@infamousglasses @TayandYou @EDdotSE, která vysvětluje pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) 24. března 2016

Inverzní oslovila společnost Microsoft, aby se vyjádřila k tomu, co přesně znamená Tayho upgrade. Budeme aktualizovat, když budeme slyšet zpět.

Co to znamená pro budoucnost otevřené A.I. systémy?

Tay je vypovídající sociální experiment - odhalila něco docela hlubokého ve způsobu, jakým Američané ve věku 18 až 24 let používají technologii. Tay byla nakonec napadena, uživatelé udeřili na systémové chyby, aby zjistili, zda by se mohla rozpadat.

Jak to jde s nějakým lidským produktem, A.I. systémy jsou také omylné, a v tomto případě Tay byla modelována tak, aby se učila a pracovala jako lidé. Microsoft nevybudoval Tay, aby byl urážlivý. Experimenty s umělou inteligencí mají určité podobnosti s výzkumem vývoje dětí. Když inženýři staví takové kognitivní systémy, počítač je bez jakýchkoli vnějších vlivů mimo faktory, které sami inženýři vstupují. Poskytuje nejčistší formu analýzy způsobu, jakým se vyvíjejí a vyvíjejí algoritmy strojového učení, protože se potýkají s problémy.

Aktualizace Společnost Microsoft nám poslala toto prohlášení, když jsme se zeptali, co dělá, aby opravili chyby společnosti Tay:

“AI chatbot Tay je projekt strojového učení, určený pro zapojení lidí. Je to stejně společenský a kulturní experiment, jaký je technický. Bohužel, během prvních 24 hodin online jsme se dozvěděli o koordinovaném úsilí některých uživatelů zneužít Tayovy komentáře, aby Tay mohl reagovat nevhodným způsobem. Výsledkem je, že jsme Tay převzali offline a provádíme úpravy. “

c u brzy lidé potřebují spát teď tolik konverzace dnes thx💖

- TayTweets (@TayandYou) 24. března 2016
$config[ads_kvadrat] not found