50 Cent - In Da Club (Int'l Version) [Official Video]
Obsah:
„Tři zákony robotiky“, o nichž snil Izák Asimov Robot série, zůstává zcela fiktivní koncept. V reálném světě, který je nyní plný robotů, existuje jen velmi málo zákonů týkajících se chování automatů. Právě teď, osoba, která dělá maximum pro to, aby vzbudila alarm nad touto potenciálně problematickou dírou v našem právním systému, je Ryan Calo, profesor práva na University of Washington. Calo nedávno napsal článek „Roboti v americkém právu“, který v podstatě podrobně popisuje šest desetiletí zmatené judikatury. Protože roboti rozostřují hranici mezi člověkem a nástrojem, Calo tvrdí, že se úhledně hodí do trhlin našeho současného právního systému.
„Výzvy, které roboti představují, se stanou akutnějšími s ohledem na prudký růst průmyslu robotiky v příštím desetiletí,“ píše Calo. "Jsme uprostřed revoluce robotiky."
Zatímco hypotetické právní situace, které se týkají robotů, mohou být tak nekonečné a neznámé jako jejich potenciální využití, můžeme již poukázat na konkrétní otázky, kde je zapotřebí právní objasnění. Toto jsou známé neznámé zákony o robotice a jsou potenciálně katastrofální. Neznámí neznámí, mohli by být horší. Kdo ví?
Problém Impersonationbot
Lidé jako humanoidní roboti z velmi nepraktických psychologických důvodů. To vede k mnoha záhadným údolím ve stylu Madame Tussauds, z nichž některé mohou být akční. Než však bude možné debatovat o tom, zda robot skutečně ukradl něčí identitu, musí existovat dohodnutá definice toho, co je robot. Calo se domnívá, že k tomu, aby byl stroj považován za robot, musí odpovídat těmto pravidlům:
- Robot může vnímat své prostředí.
- Robot má schopnost zpracovávat informace, které vnímá.
- Robot je organizován tak, aby působil přímo na své okolí.
S tím na mysli, možná jeden z nejslavnějších právních případů týkajících se robota je White v. Samsung: oblek Kolo štěstí Vanna Whiteová přinesla proti jihokorejské technologické společnosti Samsung reklamu, na které se objevil robot ve tvaru ženy. Bílý věřil, že tento robot, se svou blond parukou a prezentací podobnou hostiteli, porušil její právo na publicitu a falešně naznačil, že podporuje produkty Samsung. Ona ztratila první soud, ale vyhrál devátý okruh odvolání. Soudce rozhodl, že Samsung a jeho robot porušili její individuální práva na publicitu, protože si přivlastnila její podobu.
Ale ve všech takových případech to nebylo konečné rozhodnutí - Calo píše, že soudy stále zápasí s myšlenkou, zda „lze říci, že„ verze robota člověka představuje takovou osobu ve způsobu, jakým se o ni stará zákon “. Prvotním příkladem je myšlenka, že zosobnění a existence je závislá na schopnosti být smysluplný a spontánní. V roce 1989, Maryland zvláštní odvolací soud rozhodl, že Chuck E. Cheese je animatronic loutky nebyly považovány za právnické vykonavatele - znamenat restauraci nedostal zvláštní daň, protože výkony těchto robotů nezahrnovaly možnost “spontánní lidské chyby”. “
Ale v budoucnu roboti vůle být v určitém smyslu spontánní. Roboti se již mohou „naučit“ úkoly sledováním demonstrací, omylem a mohou přizpůsobit svou podobu tak, aby splnili daný úkol.
Problém pokladů
Podle Calo soudy stále přemýšlejí, jak mohou být roboti legálně považováni za rozšíření lidí. Tyto situace se dějí především ve chvílích, které jsou přímo ze špionážního thrilleru - záchrany vraků a případy vloupání. Například v pozdních osmdesátých létech, soud rozhodl, že bezpilotní robotické ponorné vybavení - poslal do hlubin Columbus-americká objevová skupina - mohl technicky být v držení SS centrální Ameriky, který potopil nést hromady zlata v 1857. Do té doby, pravidlo bylo, že mít vazbu, musel být nalezen vrak člověk potápěči. Tento případ otevřel dveře celému světu robotického průzkumu pod vodou, který umožňuje lovcům pokladů jít hlouběji než kdy jindy.
S vloupáním je méně shody. Kvůli zvyšující se přítomnosti robotů je obtížné určit záměr: V některých případech může být zloděj poslán robotem, aby ukradl, a v jiných může být robot, který je již na místě, ohrožen podle zloděj. To je ten typ hypotézy, který propouští právní systém.
„Představte si, že zloděj měl převzít kontrolu nad robotem, který je již doma, a používat ho k tomu, aby z poštovní schránky vyhodil drahou položku - klíče od auta nebo šperky -“ píše Calo. „Tato činnost by porušila federální zákony proti hackování. Ale je to vloupání? Robot měl povolení vstoupit do zařízení; majitel ho tam umístil. “
Deathbot Dilemma
Roboty důsledně zranili lidi: Právní případy týkající se škod způsobených roboty lze vysledovat do roku 1948; dnes Úřad pro bezpečnost a ochranu zdraví při práci říká, že každý rok umírají dva lidé v rukou robota v továrně ve Spojených státech. Není to spousta, ale je to stále číslo, které existuje - a lidé musí zjistit, zda roboti musí čelit právním následkům.
„Někdo se bude muset rozhodnout, zda budou výrobci robotů, kteří jsou stále více navrženi k provozování kódu třetích stran, zodpovědní, když tento kód vede k fyzickému poškození,“ píše Calo. „Vyhlídka, že se roboti budou chovat způsobem, který není předvídatelný pro konstruktéra nebo uživatele, je pravděpodobně blíže, než přiznává mnoho právních učenců.“
Zjistit, zda může být robot zodpovědný, bude obzvláště obtížné, protože stále více robotů je naprogramováno tak, aby se učili věci sami. Jak se roboti učí autonomii v mobilitě a činnostech, právní systém se bude muset přizpůsobit: Lze předpokládat, že Roomba nemůže být obviňována z toho, že způsobila, že někdo vyrazí na cestu, ale je stále více zřejmé, že sofistikované roboty schopné vybrat akci jsou jen za rohem. V současné době je právní systém v podstatě bezradný, když uvažujeme o těchto strojích - což je důvod, proč Calo navrhuje, aby vláda vytvořila něco jako Federální robotická komise, která se může zabývat auty s vlastním pohonem, jakmile se rozhodnou jít nepoctivě.
Toybot Trouble
Tarify nejsou nejzranitelnější z předmětů, ale jsou pěkný důležité, pokud jste podnik, který se snaží dosáhnout zisku v zahraničí. Historicky jsou „animované“ objekty zdaněny o 20% méně než „neživé“ objekty. Zde je místo, kde je to divné: Panenky jsou obvykle považovány za animované, protože představují živý život. Figurka X-Men je však zdaněna, protože - a to bylo rozhodnuto u soudu - v hypotetickém „životě“ hračky, jakmile se stala mutantní, už to nebylo lidské.
Roboty jsou důsledně považovány za neživé, ale tato definice bude (nebo možná již je) zastaralá. Mohou být robotické končetiny s podobností s lidským tělem považovány za živé? A co roboty a superpočítače, které utíkají biotechnologii poháněnou buněčnými proteiny a neurony? Pokud se definice „živého“ podobá biologickému životu, pak jsou tam roboti. To má za následek něco jiného, než je tomu u tarifních poplatků, které mohou být považovány za živoucí a mohou mít přímý dopad na další právní otázky, jako je schopnost nést odpovědnost za škodu.
Existuje zatím jen málo řešení, ale vědci z University of Nevada mají nápad: Zacházet s roboty jako s domácími zvířaty. Naživu, ale ne morálně zavinění, by mohl být robot hodně jako pes, který nemůže být uvězněn za kousání souseda.
Děsivě pojmenovaná zpráva předpovídá naše sdílené pracoviště robota
Zde je nejhorší scénář: Namísto techno-ráje, vzestup automatizace vytvoří ekonomický bloodsport, budoucí ekonomiku, kde jen málo společností nabízí bezpečná pracovní místa, protože kvalifikovaní nezávislí dodavatelé se protáhnou jeden druhého za dobrou práci. To je jeden závěr, který byste mohli čerpat z "Zítřejšího digitálně ...
Faraday Future zavádí nový panel pro elektrické měniče výkonu
Faraday Future, výrobce elektromobilů z jiné planety, dnes oznámil svůj první patent pro "FF Echelon Inverter", milník pro společnost, která jen prozradila, co bude v lednu vypadat. Takže zatímco patent není schválen pro většinu, je to velká zpráva pro ...
Apple Keynote 2018 Pověsti: Uniklé specifikace ukazují obrovské zvýšení výkonu
Nové iPhony budou údajně obsahovat procesory s novými čipy A12, které pevněji zabalí součásti, což povede k rychlejšímu a energeticky účinnějšímu zpracování. Zde je návod, jak rychleji by nové telefony mohly skutečně běžet, a proč jsou čipy tak velkým problémem.