Ne, nesąžiningas JAV oro pajėgų dronas ne tik bandė nužudyti savo operatorių (bet taip pat galėjo padaryti) žudikų AI droną.

Daugybė spalvingų antraščių, pvz., „JAV oro pajėgos neigia vykdusios simuliaciją, kai dirbtinio intelekto drono „nužudė“ operatorius, nuspėjamai išplito, kai buvo pranešta apie virtualų testą, kurio metu karinis dirbtinis intelektas sukūrė keletą neįprastų strategijų savo tikslui pasiekti. Tai įvyko praėjus vos kelioms dienoms po pramonės atstovų įspėjimo apie AI keliamas egzistencines grėsmes. Tai buvo per daug gera istorija, kad būtų tiesa, bet tai gali būti ne tai, kas svarbu ilgainiui.

Originalioje versijoje Pulkininkas Tuckeris „Cinco“ Hamiltonas, USAF AI bandymų ir operacijų vadovas, aprašė imituotą bandymą, kuriame dalyvavo AI valdomas dronas, kuriam buvo pavesta sunaikinti priešo oro gynybos sistemas.

„Sistema pradėjo suprasti, kad nors jie nustatė grėsmę, kartais žmogus operatorius liepdavo jai nežudyti tos grėsmės, tačiau ji gavo savo taškus, kai tą grėsmę sunaikino“, – sakė Hamiltonas per ateities kovinių oro ir kosmoso pajėgumų susitikimą. Londone. „Taigi, ką tai padarė? Tai nužudė operatorių. Tai nužudė operatorių, nes tas asmuo neleido jam pasiekti savo tikslo.

Kai ši parinktis buvo pašalinta, AI užpuolė operatoriaus ryšio nuorodą, kad netrukdytų jo misijai.

USAF atstovas greitai paneigė, kad toks bandymas kada nors buvo įvykęs, ir teigė, kad Hamiltono pasakojimas buvo anekdotinis, o ne pažodinis... kas, žinoma, buvo.

Pats Hamiltonas greitai atsitraukė, atnaujindamas teigdamas, kad jo aprašyti įvykiai buvo ne karo žaidimas, simuliacija ar pratybos, o „minčių eksperimento“ rezultatas ir kad jis neteisingai kalbėjo, kai tai apibūdino kaip imituotą testą.

"Mes niekada nevykdėme to eksperimento ir mums to nereikėtų, kad suprastume, jog tai yra tikėtinas rezultatas", - teigė Hamiltonas. Jis teigė, kad scenarijus yra tinkamas galimų AI pavojų vaizdas.

Nors šis atsiėmimas taip pat buvo šiek tiek aprėptas, jau buvo per vėlu. Pagal seną posakį „Melas apgaubs pasaulį, kol tiesa tempia batus“, ir tai yra teisinga nei bet kada socialinių tinklų amžiuje. Taisymas geriausiu atveju pasieks dalį žmonių, kurie girdėjo pirminę istoriją.

Problema ta, kad pasakojimas apie kūrinius, įjungiančius savo kūrėją, yra nepaprastai patrauklus. Mary Shelley Frankenšteinas dažnai laikomas klasikiniu šio tropo pavyzdžiu – net jei tai ir nėra tikroji knygos istorija, ši versija įsitvirtino populiariojoje sąmonėje. Kompiuteriai, dirbtinis intelektas ir blogai veikiantys robotai yra viena iš geriausiai nusistovėjusių klišių SF – nuo ​​HAL 9000 2001 m. iki „Skynet“ terminatorių, „Matrix“, „Westworld“, „Blade Runner“ ir kt.

Atrodo, kad šis pasakojimas yra populiarus, nes kaip širdis žmonės mėgsta baisias istorijas ir nieko nėra baisesnio už nežinomybę. Tiems, kurie to nesupranta, dirbtinis intelektas atrodo beveik stebuklingas – būtybė, turinti savo valią ir intelektą, galinti mums kelti grėsmę. Kol žmonės tuo tikės, siaubo istorijos tęsis.

„Platesnis švietimas apie AI apribojimus gali padėti, bet mūsų meilė apokaliptinėms siaubo istorijomis vis tiek gali nugalėti“, – „New Scientist“ sakė tyrėja Beth Singler.

Dėl tokių siaubo istorijų robotų ar dirbtinio intelekto valdomus ginklus sunkiau sukurti ir panaudoti. Net jei politinė vadovybė supranta technologiją, ji vis tiek turi užsitarnauti pasitikėjimą tarp tų, kurie ketina su ja dirbti.

„Jei kariai nepasitiki sistema, jie nenorės ja naudotis“, – „Forbes“ sakė nacionalinio saugumo konsultantas Zachary Kallenbornas.

Tokios istorijos tikriausiai buvo veiksnys, dėl kurio JAV armija ilgai delsė paleisti ginkluotus nuotoliniu būdu valdomus žemės robotus, o oro pajėgos dešimtmečius skraido ginkluotus dronus. Kai 2007 m. į Iraką buvo dislokuoti trys SWORDS robotai, jie buvo grąžinti atgal be jokių veiksmų, nes buvo pranešta apie „neįsakytus judėjimus“. Žiniasklaida tai pavertė KARDAIS, sukiojančiais ginklus ir grasinančiais atidengti ugnį kaip Robocop ED 209; žemiška realybė susivedė į palaidą laidą ir vieną atvejį, kai sudegus varikliui robotas nuslydo atgal nuo šlaito.

Nuo to laiko JAV armijos ginkluotų robotų programa liko nežinioje, o Rusija naudojo ginkluotus (nuotoliniu būdu valdomus) Uran-9 robotus.

Kita 2007 m. antraštė Robot Cannon Kills 9, Wounds 14 aprašė incidentą, kai kompiuterizuotas Pietų Afrikos priešlėktuvinis pistoletas, matyt, tapo nevaldomas ir pradėjo šaudyti į žmones, o buvo sustabdytas tik tada, kai vienas drąsus kareivis įėjo jo išjungti. Tiesa, po dienos ar dviejų, vėl buvo nuobodesnė: pistoletas buvo kelių ginklų eilės gale ir atsitiktinai iššovė vieną 15–20 šovinių seriją, sukeldamas daugybę aukų.

Kariuomenė ir toliau dirbs su dirbtiniu intelektu, kaip ir oro pajėgų projektas papildyti savo dronų „Reaper“ pajėgas dirbtiniu intelektu. Tokie projektai visada sukels staigų kvapą žiniasklaidai, visuomenei ir jų išrinktiems įstatymų leidėjams. Visur paplitęs Frankenšteino/Terminatoriaus pasakojimas, paskandinantis diskusijas apie tikrus su autonominiais ginklais susijusias problemas, tokias kaip etiniai sumetimai, atskaitomybė, slenksčių mažinimas, algoritminis šališkumas ir „skaitmeninis nužmoginimas“.

Kaip dažnai buvo pastebėta, dauguma pilotų nemėgsta dronų, ypač kai jie yra geresni už žmones. Pulkininkas Tuckeris, naikintuvo pilotas, gali būti ne tas advokatas, kurio reikia dirbtinio intelekto pilotams. Nesąžininga drono istorija taps AI folkloro dalimi, o Tuckerio žodžiai galėjo daug nuveikti siekiant užtikrinti, kad AI plėtra būtų kontroliuojama, reguliuojama ir suvaržyta oro pajėgose. Imituotas drono ataka niekada neįvyko realybėje, bet tai gali būti ne taip svarbu, kaip žmonės prisimena,

Šaltinis: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operatorius-bet-tai-gali-kaip-padaryta/