Kokia yra Pentagono atnaujinta robotų žudikų politika?

Pentagonas paskelbė atnaujinta savo direktyva 3000.09, kuri apima tai, ką jie vadina Savarankiškumas ginklų sistemose ir kiti skambinarobotai žudikai.' Dabartiniai dronai, tokie kaip oro pajėgos ir CŽV Pjaunamosios MQ-9 valdomi nuotolinio valdymo pultu: žmogus sėdėdamas priešais vaizdo ekraną identifikuoja taikinius ant žemės už tūkstančių mylių, įdeda juos į taikiklį ir paleidžia „Hellfire“ raketa ar kitas ginklas. Autonominiai ginklai skiriasi: jie patys pasirenka taikinius be žmogaus įsikišimo. Reikia aiškių taisyklių, kada ir kaip jas galima naudoti, o nauja direktyva jas priartina.

Prieš dešimt metų, kai buvo išleista pirmoji 3000.09 versija, autonominiai ginklai atrodė kaip mokslinė fantastika. Dabar jie labai tikri. Tą tvirtino JT Turkijos tiekiami dronai taikinius atakavo savarankiškai Libijoje 2020 m., o Rusija šiuo metu dislokuoja slampinėjančią amuniciją Ukrainoje autonominis pajėgumas.

Daugelis aktyvistų, pavyzdžiui, Kampanijos „Killer Robots“ sustabdymas, nori visiškai uždrausti autonominius ginklus, reikalaudami, kad bet koks nuotolinis ginklas liktų galiojantis prasminga žmogaus kontrolė visais laikais. JT diskutuoja, kaip tai padaryti valdyti tokias ginklus daugelį metų.

Tačiau, kaip aiškiai nurodyta naujojoje direktyvoje, Pentagonas laikosi kitos linijos.

„DoD nuolat priešinosi „prasmingos žmogaus kontrolės“ politikos standartui, kai kalbama apie autonomines ir AI sistemas. Gregoris Allenas, AI valdymo projekto direktorius Strateginių ir tarptautinių studijų centras, sakė man. „Pageidaujamas DoD meno terminas yra „tinkamas žmogaus sprendimo lygis“, o tai atspindi faktą, kad kai kuriais atvejais, pavyzdžiui, autonominiai stebėjimo orlaiviai ir kai kurie autonominiai kibernetiniai ginklai, tinkamas žmogaus valdymo lygis gali būti menkas. .

Kokie autonominiai ginklai kokiomis aplinkybėmis būtų leidžiami? Allenas mano, kad ankstesnė direktyvos redakcija buvo tokia neaiški, kad atgrasė bet kokią plėtrą šioje srityje.

„Sumišimas buvo toks plačiai paplitęs, įskaitant kai kuriuos DoD vyresniuosius vadovus, kad pareigūnai susilaikė nuo kai kurių sistemų, kurios buvo ne tik leidžiamos pagal politiką, bet ir aiškiai atleistos nuo vyresniųjų peržiūros reikalavimo“, - sako Allenas.

Nė vienas ginklas nebuvo pateiktas savarankiškų ginklų peržiūros procesui, išdėstytam originaliame 3000.09 per dešimt metų nuo jo paskelbimo.

Allenas parašė an esė apie tai CSIS praėjusiais metais aprašomos keturios sritys, kuriose reikėjo padirbėti – formaliai apibrėžti autonomines ginklų sistemas, nurodant, ką politikai reiškia „palaikytas dirbtinis intelektas“, kaip peržiūros procese bus tvarkomi mašininio mokymosi modeliai, ir paaiškinta, kokių tipų ginklams reikia pereiti sunkų peržiūros procesą.

„DoD įgyvendino juos visus“, - sako Allenas.

Iš esmės tai turėtų užtikrinti, ką DoD apibrėžia „tvirtas ir nuolatinis įsipareigojimas būti skaidriu pasauliniu lyderiu kuriant atsakingą politiką dėl autonominių sistemų karinio naudojimo“.

Tačiau yra keletas papildymų, kurie gali būti laikomi spragomis, pvz., atleidimas nuo vyresniosios peržiūros autonominiams ginklams, saugant bepiločius orlaivius, kurie nėra nukreipti į žmones („antimaterialiniai ginklai“), bet kuriems būtų leista taikyti raketas, kitus bepiločius orlaivius. ir galbūt kitos sistemos.

„Žodis „gynimas“ daro daug darbo“, Zakas Kallenbornas, man pasakė George'o Masono universiteto Schar politikos ir vyriausybės mokyklos politikos bendradarbis. „Jei bepilotis orlaivis veikia priešo teritorijoje, beveik bet koks ginklas gali būti suprantamas kaip „gynantis“ platformą.

Kallenbornas taip pat pažymi, kad nors efektyviai autonominiai ginklai, tokie kaip minos, buvo naudojami daugiau nei šimtmetį, kraštovaizdis sparčiai keičiasi dėl AI pažangos ir tam tikro mašininio mokymosi. Tai sukūrė sistemas, kurios yra labai pajėgios, bet techniškai trapus – kai jiems nepavyksta, jie įspūdingai žlunga taip, kaip, pavyzdžiui, joks žmogus supainioti vėžlį su šautuvu.

„Atsižvelgiant į šiuo metu dominuojančių metodų trapumą ir nepaaiškinamumą, neabejotinai verta susirūpinti dėl savarankiškumo naudojant AI“, – sako Kallenbornas.

Atnaujinimas nėra didelis. Tačiau tai rodo nuolatinį Pentagono įsipareigojimą kurti veiksmingus autonominius ginklus ir tikėjimą, kad jie gali atitikti Tarptautinė humanitarinė teisė — atskirti civilius nuo karinio personalo, stengtis nepakenkti civiliams ir naudoti tik proporcingą ir būtiną jėgą.

Kampanijos dalyviai mano, kad dirbtinis intelektas neturės reikiamo supratimo, kad galėtų priimti moralinius sprendimus karo metu, ir rizikuoja sukurti pasaulį, kuriame karas yra automatizuotas, o žmonės nebevaldo. Kiti mano, kad JAV kariuomenė bus lenkia priešininkus su autonominiais ginklais nebent dirbtinis intelektas yra įtrauktas į taktinį lygmenį ir kad per didelis žmonių įsitraukimas sulėtina karinius robotus.

Tikėtina, kad ginčas tęsis net pradėjus pasirodyti autonominiams ginklams, o rezultatai bus atidžiai stebimi. Bet kuriuo atveju atrodo, kad ateina robotai žudikai.

Šaltinis: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/