Řeknou autonomní zbraně „ne“ nelegálním příkazům?

$config[ads_kvadrat] not found

Xiaomi система безопасности умного дома, шлюз, датчики движения, открытия дверей

Xiaomi система безопасности умного дома, шлюз, датчики движения, открытия дверей
Anonim

Baynazar Mohammad Nazar byl na operačním stole v bezvědomí, když se na něj začal zhroutit strop. Čtyřčlenný otec se do nemocnice vrátil předchozí den poté, co byl zastřelen na noze, a během dvou dnů podstoupil druhou operaci, aby napravil zranění. Když Američané začali stavbu zničit, lékaři, kteří na něm pracovali, neměli jinou možnost než utéct sami, tak rychle, jak jen mohli.

Andrew Quilty Zahraniční politika vypráví příběh o životě a smrti Baynazara v článku, který obsahuje fotografii jeho těla pokrytého troskami na operačním stole. Baynazar byl jedním z 31 lidí, které Spojené státy zabily, když udeřil do nemocnice vedené Lékaři bez hranic (také nazývané MSF) v Kunduzu v Afghánistánu 2. října.

Poté, co se politici a vědci ptají, jak se může stát, že se něco takového stane, a co je možné udělat pro to, aby se to opět nestalo. Mezi zastánci autonomních systémů zbraní, někdy nazývaných „roboti zabijáků“, je jeden populární argument, že lidská chyba (nebo zloba) je zodpovědná za velkou míru zločinů spáchaných během války. Je teoreticky možné, že roboti mohou být přesnější v cílení a méně náchylní k chybám než lidé.

„Lidský úsudek se ve skutečnosti může ukázat jako méně spolehlivý než technické ukazatele v horku bitvy,“ píše Michael N. Schmitt, profesor na US Naval War College. "Ti, kteří věří, že jinak nezažili mlhu války."

Americký letecký úder na nemocnici MSF v Afghánistánu „způsobený především lidskou chybou“ http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- Telegraph News (@TelegraphNews) 25.listopadu 2015

Otázkou tedy je: můžete naprogramovat nástroje války, které by omezily lidské chování, aby stávky, jako je bombardování nemocnice v Kunduzu, byly nemožné, nebo alespoň méně pravděpodobné?

Pravděpodobně ne - alespoň v blízké budoucnosti. Ale někteří programátoři umělé inteligence navrhli robota, který může říci ne lidem. Návrh experimentu je jednoduchý: Člověk řekne robotovi, aby šel vpřed ze stolu, který robot zpočátku odmítá udělat. Když člověk řekne robotovi, že ho chytí, robot přijme objednávku.

To je dlouhá cesta od poloautonomního útočného vrtulníku, který vypráví své lidské posádce, že nemůže provést nálet proti nemocnici, protože by to byl válečný zločin, ale základní předpoklad je do značné míry stejný. Jak jiní zdůraznili, lidská úzkost o tento druh vývoje v robotech je běžná ve sci-fi - myslím, že HAL-9000 říká: „Nemůžu to udělat, Dave“, když zamkne člověka mimo vesmírnou stanici v 2001: Odysea vesmíru.

Pokud jde o specifika stávky v Kunduzu, mnohé skutečnosti kolem útoku zůstávají sporné. Lékaři bez hranic požadovali nezávislé vyšetřování, které vláda Spojených států odmítá, namísto toho slibuje provedení vlastních přezkumů.

Některé části jednoho amerického vyšetřování byly zveřejněny počátkem tohoto měsíce a zjistily lidské a mechanické chyby, které byly zodpovědné za stávku. Začátkem tohoto týdne se však dva členové služebního týmu přihlásili k rozporu se zjištěními zprávy. Říká se, že stávka nebyla chyba. V jejich účetnictví, poprvé hlášeny AP, Štáby speciálních operací USA vyzvaly k útoku, protože i když nemocnice byla využívána jako velitelské a řídící středisko Talibanu.

V oficiální verzi, mechanické selhání vedlo k osádce AC-130 střelec zpočátku dostat souřadnice pro prázdné pole. Posádka pak prohledala budovu v oblasti, která vyhovovala fyzickému popisu, který dostal, a zahájila palbu. Když se jejich nástroje rekalibrovaly, daly posádce správné souřadnice pro jejich cíl, ale posádka i nadále střílela na nemocnici.

Pokud je tento účet pravdivý - že počítač byl nakonec přesný a lidé ho ignorovali - dává jistou důvěru příznivcům větší autonomie v zbraňových systémech. To znamená, že americká válka s terorem je plná příkladů armády nebo CIA, která zasáhla „správný“ cíl a stále skončila tak, že zabila obrovské množství civilistů. Automatizace nevyřeší špatnou inteligenci a pokusy naprogramovat sbližování morálky neskončí válečné zločiny.

Ve Spojených státech je silné pokušení sterilizovat válku a automatizaci tím, že Američany odstraní způsob, jak poškodit cestu, která je určena ke změně samotné definice války. Obamova preference na zabíjení drone a doprovodná ujištění, že drony jsou nejpřesnější zbraně, jaké kdy byly vytvořeny, jsou nejjasnějším projevem těchto cílů. "Byli přesní, přesní stávky proti al-Káidě a jejich pobočkám," řekl Obama v roce 2012 na hangoutu Google.

Vládní studie z roku 2013 je však v rozporu s těmito tvrzeními. Zjistilo se, že droni v Afghánistánu způsobili desetkrát více civilistů než bezobslužná vozidla. „Dronové nejsou magicky lepší, když se vyhýbají civilistům než stíhacím letadlům,“ řekla Sarah Holewinski, spoluautorka studie. Opatrovník. „Když piloti létajících letadel dostali jasné směrnice a školení o civilní ochraně, byli schopni snížit civilní nehodovost.“ T

Armáda vynakládá miliony na rozvoj systémů spolupráce lidí a robotů, což dále rozmazává linie mezi misemi prováděnými zbraněmi s posádkou nebo bez posádky. "Chceme dělat bojové týmy člověk-stroj, abychom se dostali na další úroveň, abychom se podívali na takové věci, jako je taktika rojení," řekl náměstek ministra obrany Bob Work na oficiálním vědeckém blogu DoD. "Může F-35 jít do bitvy se čtyřmi bezpilotními křídly?"

Řeknou ti křídla ne, pokud jim lidský pilot dá rozkaz, který je analogický s odchodem ze stolu? A co rozkaz zničit nemocnici nebo školu? V obou případech se použije mlha války. A pokud se rozhodneme přepsat stroje, fráze „lidská chyba“ bude jedním z děsivějších termínů konfliktů budoucnosti.

$config[ads_kvadrat] not found