Tato neuronová síť AI z Nvidia vytváří fotorealistické falešné obrazy

$config[ads_kvadrat] not found

TOP 18 Fotografií na které se musíte podívat dvakrát (FAIL kompilace)

TOP 18 Fotografií na které se musíte podívat dvakrát (FAIL kompilace)
Anonim

Na první pohled vypadá nahoře jako obyčejná fotografie obyčejné ulice, která je vzata buď z palubní desky, nebo z někoho, kdo je tak hloupý, že se může vydat na cestu, aby si vyfotil takovou světskou scénu.

Ale podívejte se trochu blíž. Všimněte si, jak je dopravní signál mírně zkroucený, nebo jak se zdá, že některá auta jsou rozmazaná? Je tu něco špatného. Není to vůbec fotografie. Je to obraz, který byl vytvořen výhradně A.I.

Počítačoví odborníci z technologické společnosti Nvidia a Kalifornské univerzity, Berkeley, napsali výzkumný dokument, který je k dispozici v předtisku na arXivu a podrobně popisuje, jak byli schopni získat neuronovou síť pro generování realistických pouličních obrazů a lidských portrétů. Zahrnuli i uživatelské rozhraní, které vám umožní vyladit obrázky, ale chcete přidat další listy nebo dokonce změnit počasí.

„Gaming rychle roste, protože lidé milují vzájemnou interakci ve virtuálních prostředích,“ říká Ming-Yu Liu, senior vědec z Nvidia. Inverzní v e-mailu. „Budování virtuálních světů je však s dnešními technologiemi nákladné, protože vyžaduje, aby umělci explicitně modelovali a simulovali strukturu a osvětlení světa, ve kterém staví. S překladem z obrazu do obrazu můžeme namísto toho ukázat reálný svět k vytvoření virtuálních světů. “

Neuronové sítě jsou počítače modelované tak, aby fungovaly jako lidský mozek tím, že získávají informace, aplikují je a poučují se z výsledků. Tento výzkum používal speciální typy neuronových sítí, které představil Ian Goodfellow v roce 2014, tzv. Generativní sporné sítě - nebo GAN - které se obecně skládají ze dvou sítí, generátoru a diskriminátoru.

Generátor dostane fotografie a začne vytvářet syntetické obrazy podobné těm, které byly dány. To pak ukazuje směs obrazů to bylo dáno a padělky na diskriminátora, jehož úkolem je říct jim od sebe. Jak tento proces pokračuje, generátor se stává lepší při napodobování originálních obrazů a diskriminátor se stává lepší při odhalování padělků. Výsledky jsou docela přesvědčivé - a naprosto falešné - obrázky.

Tento výzkum vychází z tradičního modelu GAN a přidává rozdělení generátorových a rozlišovacích sítí do několika podsítí, což umožňuje výstup obrázků s vyšším rozlišením. Neuronové sítě jsou také schopny přijmout sémantickou mapu - nebo plán, jak má fotografie vypadat - a vyplňovat textury autonomně. Uživatelé mohou dokonce jít do modrotisku a měnit věci, pokud chtějí přidat do budovy místo stromů budovu budov nebo zvětšit jejich portrét.

Příspěvek srovnává své výsledky s podobnými experimenty prováděnými touto metodou, nejpozoruhodnějším z nich je pix2pix. Studie Nvidia a UC Berkeley je schopna generovat obrazy s detaily tak malými a precizními jako čitelné poznávací značky, zatímco pix2pix produkuje obrazy, které téměř vypadají jako akvarely.

Zatímco tento nástroj by mohl být použit k získání nějaké volné reddit karmy s několika exotickými fotografiemi, autoři vidí obrovský potenciál ve využití tohoto přístupu k vytvoření realistické grafiky s jednoduchým plánem.

Stovky hodin usilovné práce jdou do generování virtuálních světů pro použití v Mapách Google, filmech a videohrách. Liu říká, že tento model by mohl sloužit jako způsob, jak bezbolestně získat většinu provedených návrhů a pak jít dál a vylepšit detaily později.

„Namísto toho, abychom svět vytvořili explicitním modelováním, můžeme svět implicitně vybudovat pomocí překladu obrazu do obrazu, který se promítne mezi jednoduchým modelem světa, který neobsahuje žádnou texturu ani osvětlení, a fotorealistický výstup.. Tato schopnost by měla mnohem levněji budovat virtuální světy, “říká Inverzní.

Pro další krok v tomto výzkumu, tým doufá, že prozkoumá video-k-překlad videa, který by používal neuronové sítě vytvořit realistická videa. Cílem, který Lui říká, vyzval výzkumníky v této oblasti.

Nyní víte, jak snadno lze vytvořit falešné snímky. Nedůvěřujte všemu, co vidíte na obrázcích Google.

$config[ads_kvadrat] not found