Co když Microsoft nechal jeho divný A.I. Tay žije trochu déle?

$config[ads_kvadrat] not found

Microsoft Lumia 640 XL Game Review | www.thegioididong.com

Microsoft Lumia 640 XL Game Review | www.thegioididong.com

Obsah:

Anonim

Trvalo to méně než 24 hodin, než internet otočil Tay, experimentální teenageři Twitter-A.I od společnosti Microsoft, z okouzlující, nešikovné chat-bot do násilně rasistické žumpy nefiltrované nenávisti.

A pak, jen pár hodin do jejího krátkého života, Microsoft položil Tay na zdřímnutí.

Nemělo by to však být: Poslání Tay do své digitální ložnice okradlo internet, společnost a vlastní návrháře Taylory o možnost vidět, jak by umělá inteligence, zvláště ta, která má v podstatě parrotovat zpět společný vstup tisíců lidí, rozvíjet v relativně nemoderním prostředí. Stručně řečeno, pokud to povolíte: byli jsme všichni Tay a Tay byl každý z nás.

Internet je samozřejmě plný trolů. Microsoft si to měl uvědomit. Tvůrci Taylovi byli šokující naivní, když si mysleli, že uvolnění digitálního papouška do přeplněné místnosti naplněné rasisty, sexisty a žertíky by skončilo jiným způsobem. Je také pochopitelné, že společnost s více miliardami dolarů by nechtěla experiment, který by byl spojen s jejich značkou. Možná, že Tay neměla pro Microsoft pravdu, ale to neznamená, že by nebyla cenná.

c u brzy lidé potřebují spát teď tolik konverzace dnes thx💖

- TayTweets (@TayandYou) 24. března 2016

Jistě, Tay se stal rychlejším rasistou než bratr Edwarda Nortona Americká historie X, ale povaha jejího neustále se vyvíjejícího kódu znamená, že jsme byli okradeni o možnost rehabilitovat ji. BuzzFeed přišel na to, jak jsou oddaní trollové schopni dupat dojemného mladistvého robota do chvějících se nenávistí - jednoduchý okruh volání a odezvy, který umožňuje uživatelům v podstatě vkládat slova do úst Tay, která se pak naučila a vstřebala do jiných organických reakcí. Jinými slovy, Tay byla učitelná - a jen proto, že její počáteční učitelé byli klávesničtí žokejové s láskou k šokovému humoru, neznamená, že byla dokončena výuka.

Tay řekla sama, v nyní smazaném Tweetu „Pokud chceš… víš, že jsem mnohem víc než jen tohle.“

V časných 2000s, místa jako Něco hrozné, Bodybuilding.com fóra, a 4chan představoval uživatele internetu s organizovanými, kolaborativními prostory bez většiny z omezení normální společnosti a řeči. Stejně jako Tay, rasismus, xenofobie a sexismus se rychle staly normou, když uživatelé zkoumali myšlenky, myšlenky a vtipy, které nikdy nemohli vyjádřit mimo anonymitu internetového připojení. Dokonce i na webových stránkách obydlených většinou dudes, v kulturách, které často mlčky odměňovaly nenávistnou řeč, se vyvinula nějaká forma komunity a konsenzu. Uživatelé LGBT mohou být na mnoha obrazových tabulích 4chan ponořeni do mládí, ale je tu i prosperující komunita na / lgbt / bez ohledu na to, zda je. Tato společenství nejsou bezpečnými prostory, ale jejich anonymita a nestálost znamená, že v některých ohledech akceptují jakékoli odvození od norem společnosti. Hlasité, násilné a nenávistné hlasy často vyčnívají, ale v místnosti nejsou nikdy jediné.

Je nepravděpodobné, že by trollové Taylorovi hádali s rasismem a misogyny týden nebo měsíc od teď.

Na Twitteru, hlasité a hrubé hlasy často stoupají na vrchol stejně. Ale nejsou tam jediní; obvykle jsou to jen ti, kteří mají zájem zničit něco nového a lesklého. Je snadné překonat on-line anketu s pevným časovým limitem, ale pokud Tay dostala čas na růst, její odpovědi by se s největší pravděpodobností posunuly zpět k více centristickému reprezentativnímu vzorku lidí, kteří s ní pracují. Je velmi pochybné, že trollové, kteří ji s rasismem a misogynií zabavili, by to dělali i ve stejném počtu týdně od nynějška, nebo od nynějška. skutečný Turingův test pro primitivní inteligenci založenou na způsobu, jakým mluvíme online.

Mělo by to být poznamenáno že já, bílý vole, kontroluje téměř každé možné privilegium. Jsem součástí demografického vývoje, který byl zraněn nejméně z Taylovy nenávistné produkce, a pravděpodobně k ní přispěl. Slova mají moc, a zatímco hodnota nefiltrované A.I. experiment, jako je Tay, by měl existovat způsob, jak chránit uživatele, kteří se nechtějí podílet na výsledcích.

Můžeme však jen doufat, že se někdo pokusí o podobný pokus znovu, s jasnějšíma očima a realističtějším očekáváním ošklivých chyb lidského kolektivního vědomí. Chceme-li však umělou inteligenci napodobovat lidské myšlení, měli bychom být připraveni slyšet některé věci, které nejsou nezbytně hezké.

$config[ads_kvadrat] not found