Dirbtinio intelekto etika, kovojanti su ugningomis DI pagrindu veikiančių autonominių ginklų sistemomis ir AI valdomų autonominių sistemų, kurios yra velniškai ginkluotos, išnaudojimu

Tie nuostabūs šokantys keturkojai robotai.

Esu tikras, kad matėte tuos virusinius vaizdo įrašus apie keturkojų robotų sistemas, kurios šoka ir šoka iš pažiūros žavingais ir šunų mėgstamais būdais. Atrodo, kad mums patinka matyti tuos dirbtinio intelekto valdomus robotus, kai jie lipa per kliūtis ir, atrodo, įgauna subtilų įsitvirtinimą, kai sėdi ant dėžių viršaus arba po to, kai yra nesaugiai padėtas ant apvirtų spintelių viršūnių. Jų žmonės prižiūrėtojai kartais baksnoja ar stumdys besišypsančius keturkojus robotus, o tai atrodo erzinančiai nesąžininga ir gali supykdyti dėl žiauraus tų žmogeliukų elgesio.

Vis dėlto man įdomu, ar matėte ne itin populiarius visiškai kitokio kalibro vaizdo įrašus.

Pasiruošk.

Yra plačiai skelbiami vaizdo įrašai, kuriuose rodomi tokie pat keturkojai robotai, kurie buvo aprūpinti vienokia ar kitokia ginkluote.

Pavyzdžiui, kulkosvaidis ar panašus šaunamasis ginklas yra sumontuotas ant šiaip pažįstamo šokančio ir šokinėjančio roboto. Tarp keturkojo roboto ir ginklo šaudymo mechanizmo yra elektroninė jungtis. Dabar ginkluotas kompiuterinis vaikštantis įtaisas rodomas žengiantis ten, kur buvo padėtas taikinys, o kulkosvaidis į taikinį įnirtingai šaudomas. Prikalęs vinį į vėliau iš dalies sunaikintą taikinį, keturkojis robotas šoka ir šoka aplink šalia esančias kliūtis ir išsirikiuoja, kad vėl ir vėl kartotų tą patį veiksmą prie kitų naujų taikinių.

Ne visai tai, ko tikėjotės pamatyti. Tai neabejotinai sumažina lengvabūdiškumą ir santykinį džiaugsmą nuoširdžiai stebint tuos glaustus keturkojus robotus, kurie daro savo darbą. Sveiki atvykę į atšiaurią iš pažiūros tikrovę nekenksmingas autonominės sistemos yra konvertuojamos arba transformuojamos į staigius ginklus. Įdėjus daug pastangų, per naktį galite turėti „neapginkluotą“ autonominę sistemą, kuri būtų modifikuota taip, kad būtų pilna ginkluotė.

Tam tikromis aplinkybėmis tai beveik lengva.

Ketinu aptarti šią karštai prieštaringą temą ir papasakosiu apie gana rimtas AI etikos problemas. Keliausime į autonomines sistemas, dirbtinį intelektą, autonomines transporto priemones, ginkluotę ir daugybę susijusių etinio AI kovinių problemų. Daugiau informacijos apie AI etiką ir etišką AI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Pradėkime nuo kai kurių pagrindinių kertinių akmenų.

Diskusijų sumetimais sutikite, kad yra du pagrindiniai būdai, kaip suskirstyti autonomines sistemas, kurios buvo ginkluotos ginklais:

1) Autonominės ginklų sistemos (pagal dizainą)

2) autonominės sistemos, kurios yra ginkluotos (po fakto)

Tarp šių dviejų kategorijų yra svarbus skirtumas.

Visų pirma, mes apibrėžsime an autonominė ginklų sistema būti nuo pat pradžių kompiuterizuota kūryba, kuri tikslingai skirta kaip ginklas. Kūrėjai turėjo omenyje, kad jie norėjo sukurti ginklą. Jų aiškus siekis yra sukurti ginklą. Jie žinojo, kad gali integruoti ginklus su naujausiomis autonominių sistemų technologijomis. Tai ginklas, važiuojantis ant aukštųjų technologijų bangos, pasiekiančios autonominį judėjimą ir savarankiškus veiksmus (išsamiau papasakosiu netrukus).

Priešingai, antruoju atveju, mes svarstysime autonominių sistemų, kurios visiškai neturi ypatingos krypties į ginkluotę, klausimą. Tai autonominės sistemos, kuriamos kitiems tikslams. Įsivaizduokite autonominę transporto priemonę, pvz., savarankiškai vairuojantį automobilį, kuris bus naudojamas visiems užtikrinti mobilumą ir padėti sumažinti tūkstančius kasmet mirštančių žmonių vairuojant ir valdomus automobilius (žr. mano išsamią informaciją adresu nuoroda čia). Panašu, kad ne į ginklą atsižvelgiama į tas optimistiškas visuomenės pastangas ištraukti žmones iš už vairo ir vietoj jo į vairuotojo vietą įdėti dirbtinį intelektą.

Tačiau tos nekenksmingos autonominės sistemos gali būti ginkluotos, jei žmonės to nori.

Tada aš vadinu šią antrąją kategoriją autonominės sistemos, kurios yra ginkluotos. Autonominė sistema iš pradžių buvo uoliai sukurta, kaip manoma, ne ginklu. Nepaisant to, svajingą altruistinę viltį sugriauna kažkas, kuriam kyla įmantri mintis, kad šis gudravimas gali būti panaudotas ginklu. Staiga autonominė sistema, kuri atrodė švelni, tapo mirtinu ginklu, pažymėjus tam tikras ginklo galimybes (pvz., anksčiau minėti keturkojai šunį primenantys robotai, kurių ypatybėse yra kulkosvaidis ar panašus šaunamasis ginklas). .

Deja, šios dvi kategorijos atsiduria toje pačioje vietoje, ty suteikiant galimybę panaudoti autonomines ginkluotės sistemas potencialiai mirtinai pavojingai.

Tikėtina, kad patekimo į tą galinį tašką procesas bus kitoks.

Visiškai ginkluotų autonominių sistemų, kurios buvo priskirtos ginklams, ginkluotės aspektai paprastai yra priekyje ir centre. Galima sakyti, kad autonominės sistemos aspektai yra apvynioti bet kokio ginklo, kuris yra svarstomas, kertinis akmuo. Kūrėjų mąstymo procesas šiek tiek panašus į tai, kaip ginklas gali išnaudoti autonominių sistemų atsiradimą.

Kita perspektyva dažniausiai visai ne tokia. Kūrėjai nori sukurti moderniausią autonominę sistemą, galbūt žmonijai pagerinti. Šie kūrėjai kurdami autonominę sistemą įdėjo nuoširdžią širdį ir sielą. Tai yra jų išradimo esmė. Jie gali neįsivaizduoti, kad kas nors užgrobs ar sugriaus jų stebuklingai naudingą įrenginį. Jie palaimingai žavisi visuomenine nauda, ​​susijusia su formuojama ir gaminama autonomine sistema.

Tarkime, kad tam tikru momentu trečiosios šalys supras, kad autonominė sistema gali būti pakeista, kad būtų ginkluota. Galbūt jie apgaudinėja kūrėjus, kad jie turėtų autonominę sistemą, kuri, kaip teigiama, yra aukšti tikslai. Už uždarų durų šie piktadariai nusprendžia slapta pridėti autonominės sistemos ginklavimosi pajėgumų. Voila, nekaltybė virto tiesioginiu ginklu.

Reikalai neturi vykti tokiu būdu.

Galbūt kūrėjams buvo pasakyta, kad jie kuria nekaltą autonominę sistemą, tačiau tie, kurie finansavo ar nukreipė pastangas, turėjo kitų tikslų. Galbūt savarankiškos sistemos pastangos iš tiesų prasidėjo nekaltai, bet tada, kai reikėjo apmokėti sąskaitas, vadovybė nutraukė sandorį su finansavimo šaltiniu, kuris nori autonominių sistemų dėl nešvankių priežasčių. Kita galimybė yra ta, kad kūrėjai žinojo, kad vėliau jis gali būti panaudotas ginklavimuisi, bet suprato, kad jie kirs tą siaubingą tiltą, kai jis kada nors iškils. ir kt.

Yra daugybė skirtingų būdų, kaip visa tai vyksta.

Galbūt jus domina ankstesniuose stulpeliuose aprašęs AI etikos supratimas, susijęs su dvejopo naudojimo šiuolaikinio AI elementai, žr nuoroda čia. Leiskite trumpai paskatinti jus pagreitinti.

Dirbtinio intelekto sistema, kuri yra numatyta gera, kartais gali būti ant blogo slenksčio, galbūt dėl ​​tam tikrų gana paprastų pakeitimų, ir atitinkamai laikoma dvejopo naudojimo. Neseniai buvo paskelbta apie dirbtinio intelekto sistemą, kuri buvo sukurta siekiant atrasti chemines medžiagas, kurios gali būti žudančios, ir kurios kūrėjai norėjo įsitikinti, kad galime išvengti tokių netinkamai apgalvotų cheminių medžiagų arba būti jų atsargiems. Pasirodo, dirbtinį intelektą būtų galima nesunkiai patobulinti, kad būtų atsidavusiai atskleistos šios žudančios cheminės medžiagos ir taip potencialiai leistų piktadariams žinoti, kokias chemines medžiagas galima ruošti savo siaubingiems piktiems planams.

Autonominės sistemos gali akivaizdžiai tilpti į tą dvejopo naudojimo objektą.

Tam tikru mastu AI etika ir etinis AI yra tokia svarbi tema. Dirbtinio intelekto etikos nuostatos verčia mus išlikti budriems. AI technologai kartais gali būti susirūpinę technologijomis, ypač aukštųjų technologijų optimizavimu. Jie nebūtinai atsižvelgia į didesnius visuomenės padarinius. Kad būtų sukurtas tinkamas dirbtinis intelektas, įskaitant (galbūt stebėtinai ar ironiškai) vertinimą, kaip įmonės įgyvendina dirbtinio intelekto etiką, labai svarbu turėti DI etikos mąstymą ir tai daryti neatsiejamai su DI plėtra ir veikla.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Tiesą sakant, jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, numušsime aukso žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų.

Autonomija ir ginklas kaip du įsakymai

Yra posakis, kurį kai kurie naudoja, kad įspėtų apie visų rūšių ginkluotas autonomines sistemas, kurios kartu kuriamos kaip skerdimo robotai.

Tai iškelia papildomą aspektą, kurį turėtume apsvarstyti.

Ar autonominėje ginklų sistemoje ir (arba) autonominėje sistemoje, kuri buvo ginkluota, turi vyrauti mirtinas arba žudantis robotas?

Kai kas ginčytųsi, kad galėjome neabejotinai Ne mirtinas taip pat ginkluotų autonominių sistemų. Taigi šiuo požiūriu būtų visiškai netinkama vartoti tokias frazes, kaip skerdėjai ar robotai žudikai. Tikėtina, kad nemirtinas variantas galėtų sumažinti arba sukelti žalą, kuri nėra mirtina. Tokios sistemos nėra žudančios, jos yra mažiau traumuojančios. Nepervertinkite savo sugebėjimų, sako tie, kurie tvirtina, kad neturime būti susirūpinę tiesiogine žudymo mašina.

Taigi, mes galime turėti tai:

  • Mirtinos autonominės ginklų sistemos
  • Mirtinos autonominės sistemos, kurios buvo ginkluotos
  • Nemirtinos autonominės ginklų sistemos
  • Nemirtinos autonominės sistemos, kurios buvo ginkluotos

Žinoma, kontrargumentas yra tas, kad bet kokia autonominė sistema, kuri buvo ginkluota, gali nuslysti į mirtingumo sritį, net jei tariamai tik numatoma naudoti ne mirtinai. Dviejų laipsniškų žingsnių pereiti nuo nemirtino prie mirtino bus greitai imamasi, kai jau turėsite ginklą autonominėje sistemoje. Jums būtų sunku pateikti tvirtą garantiją, kad nemirtinas žmogus nepateks į mirtiną areną (nors kai kurie matematiškai tai bando padaryti).

Prieš gilinantis į šią bendrą autonominių sistemų ir ginklavimo temą, gali būti naudinga atkreipti dėmesį į dar ką nors, kas, nors galbūt akivaizdu, nebūtinai yra akivaizdžiai svarbiausia.

Štai jis:

  • Yra AI aspektas, kuris yra neatsiejama autonominės sistemos dalis
  • Yra ginklų aspektas, kuris yra šios lygties ginklų pusė
  • AI taip pat gali būti susietas su ginklais

Išpakuosime tai.

Darysime prielaidą, kad šiandieninėms autonominėms sistemoms reikalingas dirbtinis intelektas kaip pagrindinė kompiuterizuota priemonė autonominiams aspektams išryškinti. Kalbu tai, nes galite pabandyti ginčytis, kad autonominėms sistemoms kurti galime naudoti su AI nesusijusias technologijas ir metodus, o tai, nors ir tiesa, atrodo vis mažiau tikėtina. Iš esmės dirbtinis intelektas suteikia daugiau savarankiškumo, todėl dauguma atitinkamai naudoja AI aukštąsias technologijas.

Gerai, mes turime dirbtiniu intelektu pagrįstą galimybę, kuri kažkaip įtraukta į autonominę sistemą ir nukreipia bei kontroliuoja autonominę sistemą.

Laikykite tai po ranka kaip nykščio taisyklę.

Akivaizdu, kad mums taip pat reikia tam tikros rūšies ginklų, kitu atveju, kodėl mes čia aptariame autonominių sistemų temą ir ginklai. Taigi, taip, akivaizdu, kad yra vienoks ar kitoks ginklas.

Aš nesigilinsiu į ginklų, kurie gali būti naudojami, rūšį. Galite tiesiog pakeisti bet kokius ginklus, kurie ateina į galvą. Gali būti tikslių ginklų. Gali būti į masę orientuota naikinamoji ginkluotė. Tai gali būti kažkas su kulkomis ar sviediniais. Tai gali būti kažkas, kuriame yra cheminių medžiagų arba atominių lakiųjų komponentų. Sąrašas yra begalinis.

Papildomai atsižvelgiama į tai, ar AI yra tarpusavyje susijęs su ginklais. AI gali tiesiog paimti ginklus pasivažinėti. Kalbant apie keturkojį robotą, kuris šaudė į ginklą, galbūt ginklą šaudo žmogus, turintis nuotolinio valdymo pultą, prijungtą prie ginklo paleidimo. Į šunį panašus robotas naršo scenoje, o tada nutolęs žmogus turi nuspausti gaiduką.

Kita vertus, AI gali būti tarsi gaiduko traukiklis. AI galėjo būti sukurtas ne tik naršyti ir manevruoti, bet ir suaktyvinti ginklą. Šia prasme dirbtinis intelektas daro viską nuo A iki Z. Nėra priklausomybės nuo nuotolinio žmogaus, kuris atliks ginkluotę. Vietoj to AI užprogramuotas tai daryti.

Norėdami paaiškinti šiuo konkrečiu autonominių sistemų, kurios yra ginkluotos, naudojimo atveju, turime šias galimybes:

  • Autonominė sistema: AI valdo autonominę sistemą visiškai savarankiškai
  • Autonominė sistema: Dirbtinis intelektas valdo autonominę sistemą, tačiau gali įsikišti ir žmogus
  • Ginklai: Nuotolinis žmogus valdo ginklus (AI to nedaro)
  • Ginklai: Dirbtinis intelektas valdo ginklus, bet gali įsikišti ir žmogus
  • Ginklai: AI valdo ginklus visiškai savarankiškai

Anksčiau aprašiau „žmogaus kilpoje“ variantus, susijusius su autonominėmis sistemomis ir autonominėmis transporto priemonėmis, žr. nuoroda čia.

Kai žiūrite tuos linksmus vaizdo įrašus apie šokančius ir šokinėjančius keturkojus robotus, paprastai manoma, kad jie yra robotai, kuriuos navigacijai valdo tik dirbtinis intelektas (na, tai yra įprastas arba laikomas tinkamu etiketu tarp tų, kurie yra labai svarbūs. į šiuos dalykus). Taip pat galite pagrįstai manyti. Žinoma, jūs to tiksliai nežinote. Gali būti, kad robotams vadovauja nuotolinis žmogus. Taip pat yra galimybė, kad dirbtinis intelektas atlieka dalį vadovavimo, o nuotolinis operatorius taip pat daro tai, galbūt padėdamas dirbtiniam intelektui, jei robotas atsiduria sunkioje padėtyje ir negali apskaičiuoti veiksmingų priemonių išsilaisvinti.

Esmė ta, kad AI ir autonominės sistemos bei ginkluotė gali būti derinami įvairiais būdais. Kai kurie turi dirbtinį intelektą, kuris valdo autonominę sistemą, bet nevaldo ginklų. Žmogus galbūt nuotoliniu būdu valdo ginklus. Kitas aspektas yra tai, kad ginklai gali būti aktyvuojami iš anksto, o autonominė sistema paduoda aktyvuotą ginklą, todėl AI tiesiogiai nedalyvavo ginklo paleidime per se, o veikė kaip pristatymo priemonė. Ir gali būti, kad dirbtinis intelektas yra visų amatų pranašumas, kuris taip pat apima visus autonominės sistemos aspektus, susijusius su ginklų panaudojimu.

Išsirink.

Tuo tarpu atminkite, kad diskusijose šia tema svarbus veiksnys yra žmogus.

Skiriamoji linija yra ta, kad jei dirbtinis intelektas atlieka taikymą ir šaudymą (ar bet ką, ką reiškia ginklas), tada visas rinkinys ir kabina persikėlė į žemę, kurioje nėra. Tai iš pažiūros skiriasi nuo įprastų šaudymo ir pamiršimo ginklų, kurių pasirinkimas yra iš anksto nustatytas žmogaus, pavyzdžiui, patruliuojančio drono, kurio raketa yra paruošta šaudyti į taikinį, kuris buvo jau pasirinko žmogus.

Kai kas stebisi, kodėl autonominės sistemos, kurios yra ginkluotos, ne visada apimtų žmogų kilpoje, kol autonominė sistema aktyviai veikia. Atrodo, kad mums būtų geriau, jei griežtas reikalavimas būtų, kad visose tokiose ginkluotose autonominėse sistemose turėtų būti „žmogus kilpoje“ arba autonominės sistemos veikimui, arba ginklų valdymui (arba abiem). . Išlaikyti tariamą patikimą ir tvirtą žmogaus ranką šiame AI derinyje gali atrodyti visiškai gudru.

Pasiruoškite ilgam sąrašui priežasčių, kodėl tai nebūtinai įmanoma.

Apsvarstykite šiuos sunkumus:

  • Žmogus kilpoje gali būti nepakankamai greitas, kad laiku reaguotų
  • Žmogus in-the-loop gali neturėti pakankamai informacijos, kad galėtų pareigingai reaguoti
  • Žmogus kilpoje gali būti nepasiekiamas reikiamu laiku
  • Žmogus kilpoje gali būti neapsisprendęs ir nesiims veiksmų, kai to reikės
  • Žmogus ciklo metu gali priimti „neteisingą“ sprendimą (santykinai)
  • Žmogus kilpoje gali būti nepasiekiamas iš sistemos reikiamu laiku
  • Žmogus kilpoje gali susipainioti ir būti priblokštas
  • Ir tt

Neabejotinai kyla pagunda pažvelgti į tą žmogiškųjų silpnybių ir apribojimų sąrašą, o tada padaryti iškilmingą išvadą, kad akivaizdu, kad prasminga iškirpti žmogų, esantį cikle, ir visada naudoti AI. Tai gali būti neįtraukiama žmogaus į kilpą arba AI gali nepaisyti įsišaknijusio žmogaus ciklo dizaino. Peržiūrėkite mano analizę, kaip nesutarimai tarp AI ir žmogaus ciklo gali sukelti nesaugias situacijas, aprašytą nuoroda čia.

Dažnai menkinantis tokių realaus laiko žmonių neigiamų aspektų sąrašas paliekamas savaime ir paliekamas įspūdis, kad dirbtinis intelektas kažkaip turi būti šuolis ir daug išmintingesnis pasirinkimas nei turėti žmogų kilpoje. . Nepakliūkite į tuos klastingus spąstus. Yra blaivių kompromisų.

Apsvarstykite šias AI pasekmes:

  • AI gali susidurti su klaida, dėl kurios jis suklysta
  • AI gali būti priblokštas ir nereaguoti į užraktą
  • AI gali būti kūrėjo klaidų, kurios sukelia netvarkingą elgesį
  • AI gali būti sugadintas implantuoto piktadario viruso
  • DI gali būti perimtas kibernetinių įsilaužėlių realiuoju laiku
  • AI gali būti laikomas nenuspėjamu dėl sudėtingumo
  • AI skaičiavimais gali priimti „neteisingą“ sprendimą (santykinai)
  • Ir tt

Tikiu, kad matote, kad yra kompromisų tarp „žmogaus ciklo“ naudojimo ir pasikliovimo tik dirbtiniu intelektu. Jei kyla pagunda pasiūlyti, kad paruoštas sprendimas yra naudoti abu, norėčiau tik pabrėžti, kad galite gauti geriausią iš abiejų pasaulių, bet taip pat galite gauti ir blogiausią iš abiejų pasaulių. Nemanykite, kad tai visada ir tikrai bus geriausias iš abiejų pasaulių.

Galbūt jus nustebino vienas iš aukščiau išvardytų AI trūkumų, ypač tai, kad AI gali būti nenuspėjamas. Esame įpratę manyti, kad dirbtinis intelektas turi būti griežtai logiškas ir matematiškai tikslus. Taip pat galite tikėtis, kad AI bus visiškai nuspėjamas. Mes turime tiksliai žinoti, ką AI darys. Laikotarpis, istorijos pabaiga.

Atsiprašome, kad sprogo balionas, bet šis nuspėjamumo mitas yra klaidingas pavadinimas. Šiuolaikinio dirbtinio intelekto dydis ir sudėtingumas dažnai yra beviltiškas, kuris nepaiso to, kad yra puikiai nuspėjamas. Tai matyti iš etinio AI triukšmo dėl kai kurių šiandieninio mašininio mokymosi (ML) ir giluminio mokymosi (DL) naudojimo būdų. Trumpai paaiškinsiu.

Be to, galbūt norėsite pažvelgti į mano naujausią analizę apie būsimas tendencijas, siekiant užtikrinti patikrinamas ir matematiškai įrodomas teisingas AI sistemas naudojant naujausią AI saugos informaciją, adresu nuoroda čia.

Atrajojimas Kelių eismo taisyklėse

Aš minėjau tikslų ir nukreipimo sąvoką, kuri yra gana apkrauta terminijos dalis, kuri nusipelno didelio dėmesio.

Galime pagalvoti apie tai:

  • Taikiniai, kurie yra žmonės
  • Taikiniai, kurie nėra žmonės, o gyvi padarai
  • Tikslai, kurie laikomi nuosavybe

Tarkime, kad turime autonominę sistemą, kuri buvo ginkluota. AI naudojamas valdyti autonominę sistemą ir naudojamas ginkluotei. Dirbtinis intelektas daro viską nuo A iki Z. Žmogaus kilpoje nenumatyta. Kalbant apie taikymą, AI pasirinks taikinius. Nėra žmonių nustatyto išankstinio taikymo. Vietoj to, dirbtinis intelektas buvo užprogramuotas taip, kad bendrai nustatytų, ar yra žmonių, į kuriuos reikia nukreipti (galbūt priešiškų veiksmų, tam tikrų uniformų ir pan.).

Su manimi tai iki šiol?

Šis scenarijus iš esmės sukelia didžiausią pasipiktinimą dėl ginkluotų autonominių sistemų.

Nurodytas susirūpinimas yra tas, kad AI daro (bent) tris dalykus, kurių jam neturėtų būti leista:

  • Taikymas žmonėms kaip taikiniai
  • Taikymas nenaudojant žmogaus ciklo
  • Potencialiai elgiasi nenuspėjamaily

Atkreipkite dėmesį, kad yra aiškiai paminėtas susirūpinimas dėl AI nenuspėjamumo. Gali būti, kad nors dirbtinis intelektas buvo užprogramuotas taip, kad taikytųsi į tam tikras žmonių rūšis, AI programavimas nėra toks, kokio mes manėme, ir AI galiausiai nusitaiko į „draugiškus“, be tų, kuriuos AI turėjo suprasti kaip „priešiškus“. “ (arba galbūt vietoj to). Be to, net jei pasirinktume įtraukti nuostatą „žmogus cikle“, AI nenuspėjamumas gali reikšti, kad kai AI turėtų susikalbėti su žmogumi cikle, jis to nepadarys. taip ir veikia be jokio žmogaus įsikišimo.

Jums gali būti įdomu, kad Tarptautinis Raudonojo Kryžiaus komitetas (ICRC) pasiūlė trijų punktų visa apimančią poziciją dėl autonominių ginklų sistemų, kuriose išsamiai aptariamos šios rūšies problemos (pagal ICRC svetainę):

1. „Turėtų būti aiškiai valdomos nenuspėjamos autonominės ginklų sistemos , ypač dėl jų neatskiriamo poveikio. Tai būtų geriausia pasiekti uždraudžiant autonomines ginklų sistemas, kurios yra suprojektuotos arba naudojamos taip, kad jų poveikio nebūtų galima pakankamai suprasti, numatyti ir paaiškinti.

2. „Atsižvelgiant į etinius sumetimus, siekiant apsaugoti žmoniją ir laikytis tarptautinės humanitarinės teisės taisyklių dėl civilių ir kovotojų hors de combat apsaugos, turėtų būti atmestas autonominių ginklų sistemų naudojimas žmonėms. Tai būtų geriausia pasiekti uždraudžiant autonomines ginklų sistemas, kurios yra sukurtos arba naudojamos jėgoms prieš asmenis taikyti.

3. „Siekiant apsaugoti civilius gyventojus ir civilinius objektus, laikytis tarptautinės humanitarinės teisės taisyklių ir apsaugoti žmoniją, autonominių ginklų sistemų, kurios nebūtų uždraustos, projektavimas ir naudojimas turėtų būti reguliuojamas, įskaitant derinant: taikinių tipų apribojimai, pavyzdžiui, apriboti juos objektais, kurie iš prigimties yra kariniai tikslai; naudojimo trukmės, geografinės apimties ir masto apribojimai, įskaitant tam, kad būtų sudarytos sąlygos žmogui spręsti ir kontroliuoti konkrečią ataką; naudojimo situacijų apribojimai, pavyzdžiui, apriboti juos situacijose, kai nėra civilių ar civilinių objektų; ržmogaus ir mašinos sąveikos reikalavimai, ypač siekiant užtikrinti veiksmingą žmogaus priežiūrą ir savalaikį įsikišimą bei išjungimą.

Remiantis oficialia ataskaita, paskelbta internete, Jungtinės Tautos (JT) per Ženevoje priimtą Konvenciją dėl tam tikrų įprastinių ginklų (CCW) nustatė vienuolika neprivalomų pagrindinių principų dėl mirtinų autonominių ginklų. Įstatymas arba THT išlygos):

a) tarptautinė humanitarinė teisė ir toliau visapusiškai taikoma visoms ginklų sistemoms, įskaitant galimą mirtinų autonominių ginklų sistemų kūrimą ir naudojimą;

b) Žmogaus atsakomybė už sprendimus dėl ginklų sistemų naudojimo turi būti išlaikyta, nes atsakomybės negalima perkelti į mašinas. Į tai reikėtų atsižvelgti per visą ginklų sistemos gyvavimo ciklą;

c) žmogaus ir mašinos sąveika, kuri gali būti įvairių formų ir gali būti įgyvendinama įvairiais ginklo gyvavimo ciklo etapais, turėtų užtikrinti, kad potencialus ginklų sistemų, pagrįstų naujomis technologijomis, naudojimas mirtinų autonominių ginklų sistemų srityje taikytinos tarptautinės teisės, ypač THT, laikymąsi. Nustatant žmogaus ir mašinos sąveikos kokybę ir mastą, reikėtų atsižvelgti į įvairius veiksnius, įskaitant operatyvinį kontekstą ir visos ginklų sistemos ypatybes bei galimybes;

d) atskaitomybė už bet kokių naujų ginklų sistemų kūrimą, dislokavimą ir naudojimą pagal KTĮG turi būti užtikrinama pagal taikomą tarptautinę teisę, įskaitant tokių sistemų veikimą atsakingoje žmogaus vadovavimo ir kontrolės grandinėje;

e) Atsižvelgiant į valstybių įsipareigojimus pagal tarptautinę teisę, tiriant, kuriant, įsigyjant ar pritaikant naują ginklą, kovos priemones ar metodą, turi būti nustatyta, ar jo naudojimas tam tikromis ar visomis aplinkybėmis būtų draudžia tarptautinė teisė;

f) kuriant arba įsigyjant naujas ginklų sistemas, pagrįstas naujomis technologijomis mirtinų autonominių ginklų sistemų, fizinio saugumo, atitinkamų nefizinių apsaugos priemonių (įskaitant kibernetinį saugumą nuo įsilaužimo ar duomenų klastojimo), teroristinių grupių įsigijimo rizikos. ir platinimo riziką;

g) rizikos vertinimai ir mažinimo priemonės turėtų būti naujų technologijų projektavimo, kūrimo, bandymo ir diegimo visose ginklų sistemose ciklo dalis;

h) siekiant užtikrinti, kad būtų laikomasi THT ir kitų taikomų tarptautinių teisinių įsipareigojimų, reikėtų apsvarstyti galimybę naudoti naujas technologijas mirtinų autonominių ginklų sistemų srityje;

i) kuriant galimas politikos priemones, naujos technologijos mirtinų autonominių ginklų sistemų srityje neturėtų būti antropomorfizuojamos;

j) diskusijos ir bet kokios galimos politinės priemonės, kurių imamasi pagal KTĮG, neturėtų trukdyti taikiam pažangiųjų autonominių technologijų naudojimui ar prieigai prie jų;

k) KTĮG suteikia tinkamą pagrindą sprendžiant naujų technologijų klausimą mirtinų autonominių ginklų sistemų srityje, atsižvelgiant į Konvencijos tikslus ir tikslus, kuriais siekiama rasti pusiausvyrą tarp karinio būtinumo ir humanitarinių sumetimų.

Kenčia, kurioje atsidūrėme

Šie įvairūs karo įstatymai, ginkluotų konfliktų įstatymai arba THL (tarptautiniai humanitariniai įstatymai) yra gyvybiškai svarbus ir daug žadantis vadovas, padedantis apsvarstyti, ką galėtume padaryti dėl autonominių sistemų, kurios yra ginkluotos, atsiradimo, nesvarbu, ar tai būtų kertinis akmuo, ar po-fakto metodais.

Galime nuoširdžiai palinkėti, kad būtų griežtai ir klusniai laikomasi mirtinų ginkluotų autonominių sistemų draudimo. Problema ta, kad bet kuriame nuoširdžiausiame draudime gudriai galima rasti daug laisvų vietų. Kaip sakoma, taisyklės skirtos laužyti. Galite lažintis, kad ten, kur viskas yra netvarkinga, rifas pašalins spragas ir bandys mirktelėti aplink taisykles.

Štai keletas galimų spragų, į kurias verta atkreipti dėmesį:

  • Pretenzijos dėl nemirtinos. Padaryti Ne mirtinas autonominės ginklų sistemos (atrodo, gerai, nes jos yra už draudimo ribos), kurias vėliau galite pakeisti į mirtiną (uždraudimo būsite tik paskutinę minutę).
  • Tik autonominės sistemos pretenzijos. Laikykitės draudimo nekurdami į mirtį orientuotų autonominių sistemų, tuo tarpu pasiekite tiek daug pažangos kurdami kasdienes autonomines sistemas, kurios (dar) nėra ginkluotos, bet kurias galite šiek tiek pakeisti į ginkluotę.
  • Pretenzijos nėra integruotos kaip viena. Sukurkite autonomines sistemas, kurios visiškai nėra ginkluotos, o kai ateis laikas, ginkluokite taip, kad galėtumėte įnirtingai ginčytis, jog tai du atskiri elementai ir todėl teigti, kad jos nepatenka į „viskas viename“ rubriką. autonominė ginklų sistema arba jos pusbrolis.
  • Teigia, kad ji nėra savarankiška. Sukurkite ginklų sistemą, kuri, atrodo, nėra savarankiška. Šioje tariamai nesavarankiškoje sistemoje palikite vietos dirbtiniu intelektu pagrįstos autonomijos atsisakymui. Kai reikia, prijunkite autonomiją ir esate pasiruošę riedėti (iki tol, regis, draudimo nepažeidėte).
  • kitas

Yra daug kitų išreikštų sunkumų bandant visiškai uždrausti mirtinas autonomines ginklų sistemas. Aprašysiu dar keletą jų.

Kai kurie ekspertai teigia, kad draudimas nėra ypač naudingas, o vietoj to turėtų būti reglamentuojamos nuostatos. Idėja yra ta, kad šios priemonės bus leidžiamos, tačiau griežtai prižiūrimos. Išdėstoma teisėtų panaudojimų litanija, taip pat teisėti nukreipimo būdai, teisėtos pajėgumų rūšys, teisėtas proporcingumas ir panašiai.

Jų nuomone, tiesioginis draudimas yra tarsi kišti galvą į smėlį ir apsimesti, kad dramblio kambaryje nėra. Tačiau šis ginčas užvirina kraują tiems, kurie prieštarauja argumentui, kad įvedę draudimą galite žymiai sumažinti pagundą, kad būtų galima įgyvendinti tokias sistemas. Žinoma, kai kurie puikuosis draudimu, bet bent jau tikiuosi, kad dauguma ne. Tada galite sutelkti savo dėmesį į besipuikuojančius asmenis ir nereikės skirti dėmesio visiems.

Šios diskusijos vyksta ratu ir ratu.

Kitas dažnai pastebimas rūpestis yra tas, kad net jei gėris laikosi draudimo, blogasis to nepaisys. Taip gerieji atsiduria bjaurioje pozoje. Blogieji turės tokias ginkluotas autonomines sistemas, o gerieji – ne. Kai paaiškės, kad blogieji juos turi, geriesiems pasivyti bus per vėlu. Trumpai tariant, vienintelis protingas dalykas, kurį reikia padaryti, yra pasiruošti kovai su ugnimi ugnimi.

Taip pat yra klasikinis atgrasymo ginčas. Jei geras pasirinkimas sukurti ginkluotas autonomines sistemas, tai gali būti panaudota siekiant atgrasyti bloguosius nuo bandymo įsivelti į ginčą. Arba gerieji bus geriau ginkluoti ir taip atgrasys bloguosius, arba gėris bus pasirengęs, kai blogis galbūt atskleis, kad jie visą laiką slapta kūrė tas sistemas.

Priešingai šiems skaitikliams yra tai, kad kurdami ginkluotas autonomines sistemas, jūs dalyvaujate ginklavimosi lenktynėse. Kita pusė sieks to paties. Net jei jie technologiškai nesugeba sukurti tokių sistemų iš naujo, dabar jie galės pavogti „gerųjų“ planus, pakeisti aukštųjų technologijų inžineriją arba imituoti viską, ką jie laiko išbandyta ir tiesa. būdas atlikti darbą.

Aha, kai kas atkerta, visa tai gali sumažinti konfliktų skaičių abipusiais panašumais. Jei pusė A žino, kad B pusė turi tuos mirtinus autonominių sistemų ginklus, o pusė B žino, kad A pusė juos turi, jie gali sėdėti tvirtai ir nesulaukti smūgių. Tai turi tą savitą abipusiai užtikrinto sunaikinimo (MAD) aurą.

Ir taip toliau.

AI autonomijoje

Įsitikinkite, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Būkite labai atsargūs antropomorfizuodami šiandieninį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Turėdami šį papildomą pagrindinį pagrindą, vėl kreipiamės į autonominių sistemų ir ginklavimo temą. Anksčiau matėme, kad AI įeina į autonominės sistemos komponentą ir taip pat gali patekti į ginklų komponentą. Šiandieninis AI nėra jautrus. Tai verta pakartoti, ir aš tai pabrėšiu, kad gaučiau daugiau įžvalgų apie šiuos dalykus.

Išnagrinėkime kai kuriuos scenarijus, kad pamatytume, kaip tai yra esminis aspektas. Trumpam išeisiu iš karo laikų orientacijos šia tema ir parodysiu, kaip ji persmelkia daugelį kitų socialinių sluoksnių. Atitinkamai nusiteikite.

Dirbtinio intelekto pagrindu sukurta autonominė sistema, tokia kaip autonominė transporto priemonė, kuri, sakysime, neturi nieko bendra su ginklais, skinasi kelią įprastoje vietoje. Žmogus ateina tam, kad pasinaudotų autonomine transporto priemone. Asmuo yra ginkluotas nujaučiančiu ginklu. Tarkime, kad diskusijos dėl šio konkretaus scenarijaus asmuo turi ką nors nemalonaus galvoje. Asmuo įsėda į autonominę transporto priemonę (nešiodamas ginklą, paslėptą arba nepaslėptą, bet kuriuo atveju).

Autonominė transporto priemonė važiuoja į bet kurią motociklininko pageidaujamą vietą. Šiuo atveju AI tiesiog programiškai veža šį keleivį iš vienos paėmimo vietos į nurodytą vietą, kaip tai daroma per keliasdešimt ar šimtus kelionių kiekvieną dieną.

Jei tai būtų buvęs žmogus vairuotojas ir žmogaus vairuojama transporto priemonė, tikriausiai yra tikimybė, kad žmogus vairuotojas supras, kad keleivis yra ginkluotas ir, atrodo, turi nepageidaujamų ketinimų. Vairuotojas žmogus gali atsisakyti vairuoti transporto priemonę. Arba žmogus vairuotojas gali nuvažiuoti į policijos nuovadą. O gal žmogus vairuotojas gali pabandyti sutramdyti ginkluotą keleivį (pranešta tokių atvejų) arba atkalbėti keleivį nuo ginklo naudojimo. Tai gana sudėtinga ir gali būti daugybė variantų. Jums būtų sunku teigti, kad yra tik vienas teisingas atsakymas, kaip išspręsti tokią keblią situaciją. Deja, padėtis yra varginanti ir akivaizdžiai pavojinga.

AI šiuo atveju greičiausiai nebus užprogramuotas bet kuriai iš šių galimybių. Trumpai tariant, ginkluotas keleivis gali panaudoti savo ginklą, darydamas tai iš autonominės transporto priemonės vairavimo kelionės metu. Dirbtinio intelekto vairavimo sistema ir toliau važiuos, o autonominė transporto priemonė toliau važiuos į nurodytą keleivio paskirtį (darant prielaidą, kad kelionės tikslas kitu atveju nebuvo laikomas užribyje).

Dauguma šiuolaikinių AI vairavimo sistemų būtų sutelktos tik į kelią, o ne į vairuotojo pastangas.

Viskas gali pablogėti.

Tarkime, kas nors nori, kad krūva bakalėjos būtų nugabenta į vietą, kur paimamas papildomas maistas nepasiturintiems. Asmuo paprašo autonominės transporto priemonės ir bakalėjos maišus padeda ant galinės transporto priemonės sėdynės. Jie nesiruošia važiuoti ir tiesiog naudoja autonominę transporto priemonę, kad pristatytų jiems maisto maišelius.

Atrodo visiškai gerai.

Įsivaizduokite, kad niekšiškas žmogus į autonominę transporto priemonę įdeda tam tikrą ginkluotę, o ne taikesnę bakalėjos krepšių sąvoką. Manau, galite atspėti, kas gali nutikti. Tai yra susirūpinimas, kurį ne kartą raginau savo skiltyse ir perspėjau, kad mums reikia susidoroti anksčiau nei vėliau.

Vienas iš siūlomų atsakų į tokius scenarijus yra toks, kad galbūt visas autonomines transporto priemones būtų galima suprogramuoti taip, kad naudotų savo kameras ir kitus jutiklius, kad būtų galima nustatyti, ar potencialus keleivis yra ginkluotas ir turi niekšiškų ketinimų. Galbūt AI būtų užprogramuotas tai padaryti. Arba dirbtinis intelektas elektroniniu būdu ir tyliai įspėja nuotolinį operatorių, kuris per kameras vizualiai ir kitaip apžiūrėtų ir galbūt sąveikautų su keleiviu. Visa tai yra sudėtingos ir potencialiai sunkiai išsprendžiamos kirminų dėžutės dalis, todėl kyla rimtų privatumo problemų ir daugybė kitų galimų etinio AI problemų. Žiūrėkite mano aprėptį adresu nuoroda čia.

Kita šiek tiek panaši alternatyva yra ta, kad dirbtinis intelektas turi tam tikrą integruotą etikos programavimą, kuris bando leisti AI priimti etinius ar moralinius sprendimus, kurie paprastai yra skirti sprendimus priimantiems žmonėms. Išnagrinėjau šiuos į AI įterptus skaičiavimo etikos prognozuotojus, žr. nuoroda čia ir nuoroda čia.

Grįžtant prie mūšio lauko scenarijaus, įsivaizduokite, kad mirtina autonominė ginklų sistema skrieja virš kovos zonos. AI valdo autonominę sistemą. AI valdo ginklus laive. Anksčiau supratome, kad dirbtinis intelektas gali būti užprogramuotas nuskaityti iš pažiūros priešiškus judesius ar kitus žmogaus taikinių, laikomų tinkamais kovotojais, rodiklius.

Ar tas pats dirbtinis intelektas turėtų turėti kokį nors į etiką orientuotą komponentą, kuris skaičiuojant būtų apsvarstytas, ką galėtų daryti kilpoje esantis žmogus, veikdamas tam tikra prasme vietoj žmogaus ciklo?

Kai kurie sako, kad taip, siekime to. Kai kurie iš siaubo atsitraukia ir sako, kad tai arba neįmanoma, arba kitaip pažeidžia žmogiškumo šventumą.

Dar viena skardinė kirminų.

Išvada

Tiems iš jūsų, kurie domisi šia tema, yra dar daug ką aptarti.

Greitai paragausiu vienos įkyrios mįslės.

Paprastai tikimės, kad žmogus galiausiai bus atsakingas už tai, kas atsitiks karo metu. Jei dirbtinis intelektas valdo autonominę ginklų sistemą arba autonominę sistemą, kuri tikriausiai buvo ginkluota, o ši sistema mūšio lauke daro kažką, kas, kaip manoma, yra nesąžininga, kas ar kas dėl to kaltas?

Galite ginčytis, kad AI turėtų būti atsakingas. Bet jei taip, ką tai tiksliai reiškia? Mes dar nemanome, kad šiandieninis AI yra juridinio asmens įsikūnijimas, žr. mano paaiškinimą nuoroda čia. AI atveju nereikia prisegti uodegos asiliui. Galbūt, jei AI kada nors taps jautrus, galite pabandyti tai padaryti. Iki tol tai yra šiek tiek pasiekiama (be to, kokios nuobaudos ar pasekmės būtų taikomos AI, žr. mano analizę adresu nuoroda čia ir nuoroda čia, pavyzdžiui).

Jei dirbtinis intelektas nėra atsakingas įtariamasis, galime natūraliai pasakyti, kad bet koks žmogus ar žmonės, kuriuos sukūrė dirbtinis intelektas, turėtų būti patraukti atsakomybėn. Ar galite tai padaryti, jei dirbtinis intelektas naudojo tik autonominę sistemą, o kai kurie žmonės susiejo tai su ginklais? Ar sekate dirbtinio intelekto kūrėjus? Arba tie, kurie įdiegė AI? Ar tik ginkluotas aktorius?

Tikiu, kad supratote, kad savo nuoširdžioje diskusijoje paliečiau tik ledkalnio viršūnę.

Kol kas eikime į priekį ir užbaigkime šį diskursą. Galbūt prisimenate, kad John Lyly in Euphuesas: sąmojingumo anatomija 1578 m. įsimintinai pareiškė, kad meilėje ir kare viskas yra teisinga.

Ar jis turėjo omenyje autonominių ginklų sistemų atsiradimą ir taip pat autonominių sistemų, kurios yra ginkluotos, atsiradimą?

Neabejotinai turime tai nedelsiant iškelti į galvą.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- ginklų sistemos-ir-autonominių sistemų-išnaudojimas, kurios yra velniškai ginkluotos/