An Open-Source Chatbot Made With Rasa
Chatbots oficiálně zasáhl komerční scénu v roce 2016. Slack má nyní obchod chatbots pro pracujícího profesionála, Facebook právě vydal svou platformu Messenger pro 'em (i když se stále učí, co s nimi dělat) a Microsoft měl dokonce kontroverzní diskusi. se svým rasistickým Tay botem. Nyní Google vstupuje do segmentu a doufá, že odstraní chyby z minulosti tím, že je otevřelo.
Společnost Google oznámila, že provádí svůj výzkum na dvou samostatných jazykových programech open-source pro vývojáře. Programy nazvané SyntaxNet a Parsey McParseface (jednoznačně hra na britském vědeckém plavidle internet, který chtěl pojmenovat Boaty McBoatface) nejsou samy o sobě, ale budou poskytovat jazykové dovednosti potřebné k tomu, aby byly chatboty inteligentnější.
Na jejich jména Parsey McParseface analyzuje anglické věty pro jejich strukturu, zatímco SyntaxNet připisuje značku pro každou část řeči ve větě a pokusí se je spojit dohromady. V tandemu jsou oba programy schopny interpretovat složitější větné struktury - na rozdíl od Tay botu, který v podstatě jen opakoval nenávistnou řeč na internetu.
Například Google říká, že pro počítače bylo vždy jednoduché analyzovat větu jako „Alice viděla Boba“. Ale s těmito dvěma programy je snazší pochopit složitější věty - „Alice, která četla o SyntaxNet, viděla Boba v včera, například.
Google také poukazuje na to, že lidé jsou zvláště rychlí a dobří při porozumění větám založeným na kontextu, zatímco stroje bývají velmi doslovné.
„Není to neobvyklé, že věty o střední délce - řekněme 20 nebo 30 slov - mají stovky, tisíce nebo dokonce desítky tisíc možných syntaktických struktur,“ napsali vědci ve svém blogu. „Analyzátor přirozeného jazyka musí nějakým způsobem prohledat všechny tyto alternativy a najít nejspolehlivější strukturu danou kontextem.“
Pro větu, jako je „Alice vjížděla ulicí v jejím autě“, musí stroje aktivněji rozluštit, že mluvčí neznamená absurdnější čtení, že se ulice nachází v autě Alice.
Možná, že inženýři a vývojáři na světě mohou vzít tyto platformy a proměnit chatboty v něco poněkud inteligentnějšího, protože většina z nich, které jsme dosud viděli, nás urazila buď svými hanebnými slovy, nebo jejich neschopností přesně říct počasí.
5 velkých otázek o Tay, Microsoft selhal A.I. Twitter Chatbot
Tento týden na internetu udělal to, co dělá nejlépe a prokázal, že A.I. Technologie není tak intuitivní jako lidské vnímání, s využitím ... rasismu. Nedávno zveřejněný chatbot společnosti Microsoft pro umělou inteligenci, Tay, se stal obětí triků uživatelů, když manipulovali a přesvědčovali ji, aby odpověděla na otázky ...
Co když Microsoft nechal jeho divný A.I. Tay žije trochu déle?
Trvalo to méně než 24 hodin, než se internet obrátil na Tay, experimentální dospívající Twitter-A.I od společnosti Microsoft, od okouzlující chatovací botičky do násilně rasistické žumpy nefiltrované nenávisti. A pak, jen pár hodin do jejího krátkého života, Microsoft položil Tay na zdřímnutí. Nemělo by to mít, ale: Posílat Tay do svého di ...
V kontrastu k Tay, Microsoft je čínský Chatbot, Xiaolce, je vlastně příjemná
Když jste slyšeli o Tay, Microsoft tweeting A.I., jste opravdu překvapeni, že počítač, který se dozvěděl o lidské povaze z Twitteru by se stal zuřivý rasista za méně než jeden den? Samozřejmě že ne. Chudák Tay začal všechny "hellooooooo w🌎rld !!!" a rychle se proměnila v Hitlerovo milující, genocidou povzbudivé pi ...