Soči Jak 2014 - Epizóda 1
Výzkumný ústav AI nyní ve středu zveřejnil nová doporučení pro zodpovědnou implementaci algoritmů ve veřejné sféře.Jejich rada je zaměřena na pracovní skupinu, kterou v lednu vytvořila New York City Council, která studuje vládní využití umělé inteligence.
Přehled AI Now, Algoritmické hodnocení dopadů: Směrem k odpovědné automatizaci ve veřejných agenturách poukazuje na potřebu transparentnosti při zavádění algoritmů. Algoritmy mají obrovský dopad na náš každodenní život, ale jejich dopad je někdy bez povšimnutí. Protože jsou například zapálené v infrastruktuře sociálních médií a video platforem, je snadné zapomenout, že programy často určují, jaký obsah je určen uživatelům internetu. Pouze v případě, že se něco pokazí, jako je video o konspirační teorii, které se dostalo na vrchol seznamu trendů YouTube, zkoumáme automatizované rozhodovací postupy, které utvářejí online zážitky.
A algoritmy nejsou omezeny na internetové platformy. Vládní instituce jsou stále více závislé na algoritmech, v oblastech od vzdělávání až po trestní soudnictví. V ideálním světě by algoritmy odstranily lidské předsudky před tvrdými rozhodnutími, jako je určení, zda by měl být vězněm propuštěno. V praxi jsou však algoritmy stejně účinné jako lidé, kteří je vytvářejí.
Například vyšetřování ProPublica prokázali, že algoritmy hodnocení rizika používané v soudních síních byly rasově zaujaté. Aby to bylo ještě horší, mnoho algoritmů používaných ve veřejném sektoru je v soukromém vlastnictví a některé společnosti odmítají sdílet kód, který je základem jejich softwaru. To znemožňuje pochopit, proč tyto tzv. „Black box“ algoritmy vracejí určité výsledky.
Jedno z možných řešení, které nabízí AI Now? Algoritmické hodnocení dopadů. Tato hodnocení zavádějí normu úplné transparentnosti, což znamená, že vládní agentury, které používají algoritmy, budou muset propagovat, kdy a jak je používají. „Tento požadavek sám o sobě by šel dlouhou cestu směrem k propuštění světla, na které technologie jsou nasazovány, aby sloužily veřejnosti, a kde by měl být zaměřen výzkum odpovědnosti,“ uvádí zpráva.
Politika otevřenosti obklopující algoritmy by také otevřela dveře občanům ke kontrole a protestu proti jejich používání. Chtěli byste, aby algoritmus, který vám dá skóre rizika, byl založen na faktorech mimo vaši kontrolu, zejména pokud by toto skóre mohlo pomoci určit, zda jdete do vězení? Možná ano možná ne. V každém případě je důležité přesně vědět, které proměnné algoritmus analyzuje.
AI Now navíc doporučuje, aby byla lidem stanovena právní norma, která by lobbovala proti nekalým algoritmům.
Pokud například agentura nezveřejní systémy, které přiměřeně spadají do působnosti těch, kteří provádějí automatizovaná rozhodnutí, nebo pokud to umožňuje dodavatelům, aby učinili přes palubní obchodní tajemství, a tím blokují smysluplný přístup k systému, měla by mít veřejnost možnost vyjádřit se k obavám orgán dohledu nad agenturou, nebo přímo u soudu, pokud agentura odmítla napravit tyto problémy po období veřejného připomínkování.
Doporučení se v podstatě omezují na jeden zastřešující mandát: Pokud používáte algoritmy, nestarejte se o to.
Přečtěte si celou zprávu zde.
Video ukazuje, jak výzkumníci udělali rukavici, aby vás mohli vnímat virtuální svět
Chcete-li být skutečně pohlcující, virtuální realita výzkumníci potřebují najít způsoby, které vám pomohou "cítit" virtuální objekty, které vidíte a slyšení. Tým v EPFL ve Francii a ETH v Curychu vyvinuli novou neuvěřitelně lehkou rukavici, která umožňuje uživatelům, aby to udělali jen tak, a vytvořili tak nový způsob, jak cítit objekty, které tam ve skutečnosti nejsou.
Algoritmy, které se naučily, jak vypadají, a jak si najít dvojče
Probíhají snahy naučit je, jak znovu vytvořit podstatnější lidské dovednosti, jako je nalezení tváří v oblacích nebo uměleckých děl. Nic to neukazovalo víc než aplikace Google Arts and Culture, která v lednu proběhla virově. Zde je návod, jak to funguje.
Studie tepelných vln ukazuje, jak mohou extra-horká léta vytvořit lidi
Nový výzkum z Harvardova T.H. Chan School of Public Health ukazuje, že lidé, kteří jsou vystaveni dlouhodobě vysokým teplotám, mají řadu fyziologických účinků, které ovlivňují kognitivní výkon. Studie byla provedena na vysokoškoláky, kteří žili v Bostonu historické vlny 2016.