Pixelated obrázky jsou bez shody pro rozpoznání obličeje Cornell Tech A.I.

$config[ads_kvadrat] not found

How to Make Pixel Art in Adobe Illustrator Tutorial

How to Make Pixel Art in Adobe Illustrator Tutorial
Anonim

Tři vědci z Cornell Tech v New Yorku zjistili, že rozmazané a pixelované obrazy neodpovídají umělé inteligenci. Ačkoliv skryté obrazy zůstávají pro lidské oči nepochopitelné, a tak se zdá, že chrání jejich citlivý obsah, neuronové sítě mohou často přesně určit, kdo je v původním obrazu.

Jinými slovy, lidé už nejsou lakmusovým testem. Už se nemůžeme ptát jen na to, zda něco porazí všechny lidské mozky. A.I.s - dokonce i jednoduché A.I.s - mohou překonat lidi, takže jejich porážka musí být vždy součástí rovnice.

Studie výzkumných pracovníků společnosti Cornell Tech se zaměřila na testování algoritmů pro zachování soukromí, které rozmazávají nebo pixelovat určité informace nebo části obrázků. Dříve jsme důvěryhodně věřili softwaru nebo algoritmům uchovávajícím soukromí, přičemž jsme zjistili, že informace, které zakryly, jsou bezpečné, protože ne. člověk mohl říct, kdo byl za digitálním závojem. Studie ukazuje, že tato éra je u konce, a související anonymizační metody nebudou trvat dlouho. Neuronové sítě, které se setkávají s těmito opatřeními na ochranu osobních údajů, jsou nepříznivé.

Richard McPherson je Ph.D. kandidát v počítačové vědě na University of Texas, Austin, který následoval svého profesora, Vitaly Shmatikov, do Cornell Tech. Společně s Rezou Shokri demonstrovali, že jednoduché neuronové sítě mohou odemknout běžné techniky zmatení obrazu. Tato technika je poměrně nevyzpytatelná, což činí objev mnohem znepokojivějším: Jedná se o běžné, přístupné metody a byli schopni porazit průmyslové normy pro zmatení.

Neuronové sítě jsou velké, vrstvené struktury uzlů nebo umělých neuronů, které napodobují základní strukturu mozku. "Jsou založeni na zjednodušeném chápání fungování neuronů," říká McPherson Inverzní. "Dejte jí nějaký vstup a neuron buď vystřelí, nebo nehoří."

Jsou také schopni „učení“ hrubým vymezením pojmu. Ukážete-li divoký (zcela nevzdělaný) člověk něco „červeného“ a řeknete jim, aby vybrali všechny „červené“ věci z kbelíku, zpočátku bojují, ale časem se zlepší. Také s neuronovými sítěmi. Strojové učení znamená poučit počítač, aby si vybral „červené“ věci, například z virtuálního kbelíku pestrých věcí.

Tak společnost McPherson a společnost vycvičily svou neuronovou síť. „V našem systému vytváříme model - architekturu neuronových sítí, strukturovanou sadu těchto umělých neuronů - a pak jim dáváme velké množství zmatených obrazů,“ říká. "Můžeme jim dát například sto různých obrázků Carol, které byly pixelated, pak sto různých obrázků Bob, které byly pixelated."

Výzkumníci pak tyto pixelované obrazy označují a přitom informují model, který je v každém snímku. Po zpracování této sady dat, síť funkčně ví, co Pixelated Bob a Pixelated Carol vypadají. "Můžeme mu dát jiný pixelated obrázek Bob nebo Carol, bez štítku," vysvětluje McPherson, "a může to odhadnout a říct:" Myslím, že to je Bob s 95% přesností."

Model neobnovuje zmatený obraz, ale skutečnost, že dokáže porazit nejběžnější a dříve nejspolehlivější metody anonymizace, je sama o sobě znepokojující. „Jsou schopni zjistit, co je zmateno, ale nevědí, co to původně vypadalo,“ říká McPherson.

Neuronové sítě jsou však stále schopny udělat mnohem lépe než lidé. Když byly snímky nejvíce zmateny pomocí jedné průmyslové techniky, systém byl stále přes 50% přesný. U mírně méně zmatených obrazů se systém ukázal jako pozoruhodný, s přibližně 70% přesností. Norma YouTube pro rozmazání tváří naprosto selhala; Dokonce i ty nejostřejší obrazy byly vytrženy neuronovou sítí, která se ukázala jako 96% přesná.

Podobně nespolehlivé jsou i jiné dříve nezpracované datové, textové a obrazové anonymizační techniky. „Během léta se objevila práce, která se zaměřila na anonymizaci textu pomocí pixelace a rozmazání, a ukázala, že byli také schopni rozbít,“ říká McPherson. A další kdysi důvěryhodné metody mohou být také na cestě ven ze dveří. Ačkoli neví, jaké jsou techniky hlasových zmatků, jako jsou anonymní televizní rozhovory, „by nebyl překvapen“, kdyby neuronové sítě mohly narušit anonymizaci.

McPhersonův objev pak dokazuje, že „metody ochrany soukromí, které jsme měli v minulosti, nejsou ve skutečnosti až na šňupací tabák, zejména s moderními technikami strojového učení.“ Jinými slovy, kódujeme sami sebe do irelevantnosti, tréninkových strojů do předčí nás ve všech říších.

„Jak roste síla strojového učení, tento kompromis se posouvá ve prospěch protivníků,“ napsali vědci.

$config[ads_kvadrat] not found