Madni Qaida Lesson 5 Full in Urdu || Tanween in Tajweed || 2 Zabr, 2 Zair, 2 Paish
Existuje otázka a scénář morální robotiky, který musí být zodpovězen, aby umělá inteligence postupovala vpřed.
Představte si, že je to robot, který ovládá důlní šachtu a uvědomuje si, že je tam vozík naplněný čtyřmi lidskými horníky, kteří se hnali dolů po stopách mimo kontrolu. Robot se může rozhodnout posunout stopy a zabít jednoho nezvěstného horníka, a tak zachránit čtyři v košíku, nebo udržet stopy tak, jak jsou, a nechat čtyři horníky běžet do zdi a zemřít. Co byste si vybrali? Změnila by se vaše odpověď, kdyby místo toho byl jeden horník dítě? Pokud na to nemůžeme odpovědět, jak programujeme roboty, aby se rozhodli?
To byly otázky, které se týkaly panelistů a diváků na akci World Science Festival v New Yorku s názvem „Morální matematika robotů: Může být rozhodnutí o životě a smrti zakódována?“ Většina se rozhodla řídit vozík k jednomu horníkovi a změnit osobu pro dítě nezměnilo názor mnoha respondentů, ale nebylo to jednohlasné a lidská morální rozhodnutí často nejsou.
Byl to otravný příklad bojů, kterým bude lidstvo čelit, protože umělá inteligence bude pokračovat v postupu a vyrovnáváme se s možností programování robotů s morálkou.
„Koncept, jako je škoda, je těžké naprogramovat,“ řekl panelář Gary Marcus, profesor psychologie a nervové vědy na NYU a generální ředitel a spoluzakladatel společnosti Geometric Intelligence, Inc. Odpověď na program a my v současné době nemáme dobrý soubor morálky pro roboty za Asimovovými zákony, které byly uváděny ve filmech jako já robot.
Řekl, že to byl okamžik, kdy se připojil k panelu, aby začal rozhovor o tom, jak bychom měli řešit morálku robotů.
Elon Musk tento týden hovořil o svých obavách z umělé inteligence, a to tak daleko, že navrhujeme, abychom všichni žili v nějakém druhu simulace jako Matice a že lidé by měli investovat do neurální krajky, která se připojí k mozku a zvýší kognitivní schopnosti člověka. Ostatní futuristé jako Stephen Hawking varovali před nebezpečím A.I. a tento týden Matt Damon varoval stejné během jeho zahájení projevu na MIT.
Mezi další scénáře patřily militarizované autonomní zbraňové systémy a jak se s těmito lidskými rozhodnutími na bojišti morálně a filosoficky zabýváme, stejně jako o tom, jaká rozhodnutí budou muset autonomní auta učinit v ne tak vzdálené budoucnosti.
Panelisté se nedohodli na tom, co mají dělat, ale pro A.I. to by nemělo být vyhozeno z okna jen proto, že tyto otázky jsou těžké. Navrhli mluvit více v otevřených otázkách o těchto druzích morálních otázek a možná se přiblížíme k tomu, abychom zabránili robotovi apokalypsy.
Jak zabránit budoucí pandemii v 10 krocích
Je to dost těžké porazit pandemii ve hře (i když jste epidemiolog!) ... ale co v reálném životě? Harvard Global Health Institute a London School of Hygiene & Tropical Medicine nedávno pověřily skupinu 19 nezávislých odborníků z celého světa, aby analyzovali pozitivní a negativní ...
Texas Congressman varuje před "Gay Space Colonies", aby zabránil apokalypsě
Texaský kongresman Louie Gohmert se ve středu dopoledne vydal na podlahu Sněmovny reprezentantů, aby varoval americkou veřejnost před velmi hroznou hrozbou, jíž čelí pokračování lidské rasy: kolonie gayů. Vážně. Gohmertův projev byl neskutečný, bláznivý, bláznivý nepořádek daleko pravicové logiky, zahrnující Biblic ...
Jak zabránit suché kůži v Nikdy nekončící nápor zimních bouří
V zimě udržujte svou pleť šťastnou a zdravou.