Rychlá záloha by měla být děsivá, pokud věnujete pozornost

$config[ads_kvadrat] not found

? Rychlý Stripes

? Rychlý Stripes
Anonim

Pokud jde o identifikaci existenčních hrozeb, které představují technologické inovace, populární představivost vyvolává vize Terminátor, Matice, a Já robot - dystopie ovládané roboty, kteří vykořisťují a hromadně masírují lidi. V těchto spekulativních futures, kombinace super-inteligence a zlých záměrů vede počítače k ​​zničení nebo zotročení lidské rasy.

Nová studie však naznačuje, že to budou banální aplikace A.I. v příštích několika letech povede k vážným sociálním důsledkům. Zpráva „Škodlivé využívání umělé inteligence“, kterou napsalo 26 výzkumných pracovníků a vědců z elitních univerzit a technologicky zaměřených expertních skupin, nastiňuje způsoby, jakými se současná A.I. technologie ohrožují naši fyzickou, digitální a politickou bezpečnost. Aby se jejich studie soustředila, výzkumná skupina se zabývala pouze technologiemi, které již existují nebo budou pravděpodobně v příštích pěti letech.

Co studie zjistila: A.I. systémy budou pravděpodobně rozšiřovat existující hrozby, zavádět nové a měnit jejich charakter. Teze zprávy je, že technologické pokroky způsobí, že některé přestupky budou snazší a vhodnější. Výzkumníci tvrdí, že zlepšení v A.I. sníží množství zdrojů a odborných znalostí potřebných k provádění některých kybernetických útoků a účinně sníží překážky pro trestnou činnost:

Náklady na útoky mohou být sníženy škálovatelným využíváním systémů AI k plnění úkolů, které by obvykle vyžadovaly lidskou práci, inteligenci a odborné znalosti. Přirozeným efektem by bylo rozšířit soubor aktérů, kteří mohou provádět konkrétní útoky, rychlost, jakou mohou tyto útoky provádět, a soubor potenciálních cílů.

Zpráva obsahuje čtyři doporučení:

1 - Političtí činitelé by měli úzce spolupracovat s technickými výzkumnými pracovníky za účelem vyšetřování, prevence a zmírnění potenciálního škodlivého užívání umělé inteligence.

2 - Výzkumní pracovníci a inženýři v oblasti umělé inteligence by měli brát vážně svou povahu dvojího užití své práce, což by umožnilo, aby nesprávně zvážené úvahy ovlivnily priority a normy výzkumu, a proaktivně oslovovaly příslušné subjekty, pokud jsou předvídatelné škodlivé aplikace.

3 - Ve výzkumných oblastech by měly být určeny osvědčené postupy s vyspělejšími metodami pro řešení otázek dvojího užití, jako je počítačová bezpečnost, a v případě potřeby by měly být dováženy v případě AI.

4 - Aktivně usilovat o rozšíření okruhu zúčastněných stran a odborníků z oblasti, kteří se účastní diskusí o těchto výzvách

Jak A.I. může učinit aktuální podvody chytřejšími: například útoky typu phishing spear, ve kterých kon umělci představují jako přítele, člena rodiny nebo kolegu cíle, aby získali důvěru a získávali informace a peníze, jsou již hrozbou. Dnes však vyžadují značné výdaje času, energie a odborných znalostí. Jako A.I. systémy zvyšují sofistikovanost, některé aktivity potřebné pro útoky typu phishing, jako je shromažďování informací o cíli, mohou být automatizovány. Phisher by pak mohl investovat podstatně méně energie do každého griftu a cílit více lidí.

A pokud podvodníci začnou integrovat A.I. do svých online přenosů, může být nemožné rozlišit realitu od simulace. „Jak se AI dále rozvíjí, přesvědčivé chatboty mohou vyvolat lidskou důvěru tím, že zapojí lidi do delších dialogů, a možná se nakonec vizuálně vydávají za jinou osobu ve videochatu,“ říká zpráva.

Už jsme viděli důsledky strojově generovaného videa ve formě Deepfakes. Vzhledem k tomu, že tyto technologie jsou přístupnější a uživatelsky přívětivější, výzkumníci se obávají, že špatní herci budou šířit vymyslené fotografie, videa a zvukové soubory. To by mohlo vyústit ve vysoce úspěšné pomluvy s politickými důsledky.

Za klávesnicí: A potenciální špatné zacházení není omezeno na internet. Když se pohybujeme směrem k přijetí autonomních vozidel, hackeři by mohli nasadit příklady nepřátel, aby oklamali samoobslužná auta do špatného vnímání svého okolí. „Obraz stopky s několika pixely se měnil konkrétními způsoby, které by lidé snadno rozpoznali jako obraz stopky, ale přesto by mohl být nesprávně klasifikován jako něco jiného úplně systémem AI,“ říká zpráva.

Mezi další hrozby patří autonomní drony s integrovaným softwarem pro rozpoznávání obličeje pro účely cílení, koordinované útoky DOS, které napodobují lidské chování, a automatizované hyperaktivované dezinformační kampaně.

Zpráva doporučuje, aby výzkumníci zvážili potenciální škodlivé aplikace A.I. těchto technologií. Pokud nebudou zavedena adekvátní obranná opatření, pak už možná budeme mít technologii, která zničí lidstvo, nevyžadují se žádné zabijácké roboty.

$config[ads_kvadrat] not found