AI etika ir dirbtinio intelekto įstatymai šokančių robotų kūrėjai užduoda sunkių klausimų apie šį naują pažadą, sakydami, kad jie išvengs AI ginklavimo

Galbūt praėjusią savaitę pastebėjote naujienose arba socialinėje žiniasklaidoje pastebėjote kai kurių robotų gamintojų pažadą dėl jų išpažįstamų tikslų išvengti DI ginklavimo bendrosios paskirties robotams. Netrukus supažindinsiu jus su detalėmis, todėl nesijaudinkite, jei to nesupratote.

Reakcija į šį skelbimą buvo greita ir, galbūt, kaip įprasta mūsų poliarizuotoje visuomenėje, buvo pagirtina, o kartais ir pašaipiai kritiška ar tiesiog bjauriai skeptiška.

Tai pasaka apie du pasaulius.

Viename pasaulyje kai kurie sako, kad tai yra būtent tai, ko mums reikia atsakingas AI robotų kūrėjai turi paskelbti.

Ačiū Dievui, kad esate teisingoje problemos pusėje, kuri pamažu taps labiau matoma ir kelia nerimą. Tie mieli šokantys robotai kelia nerimą, nes juos gana lengva pritaikyti nešiotis ginklus ir panaudoti pačius blogiausius būdus (taip galite įsitikinti patys apsilankę socialinėje žiniasklaidoje ir yra daugybė vaizdo įrašų, kuriuose demonstruojami šokantys robotai, ginkluoti kulkosvaidžiais ir kita ginkluotė).

Kitoje monetos pusėje rašoma, kad vadinamasis įkeitimas yra ne kas kita, kaip rinkodaros ar viešųjų ryšių triukas (pažymėtina, ar kas nors žino skirtumą tarp įkeitimo ir dovanojimo?). Šiaip ar taip, abejojantys ragina, kad tai nežabotas dorybės signalizavimas šokančių robotų kontekste. Matote, apgailestavimas dėl to, kad bendrosios paskirties robotai gali būti ginkluoti, tikrai yra vertas ir nuoširdžiai ieškomo svarstymo, nors vien tvirtinimas, kad gamintojas to nepadarys, greičiausiai yra tuščias pažadas, kai kurie tvirtina.

Apibendrinant, visas klausimas iškelia gana didelį AI etikos ir AI teisės aspektų rinkinį. Kruopščiai išpakuosime temą ir pamatysime, kaip tai yra dviguba etinio ir teisinio AI mėšlungis. Daugiau informacijos apie AI etiką ir AI įstatymą žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Šios diskusijos metu taip pat remuosiu savo ankstesne AI ginklavimo pavojų analize, pavyzdžiui, savo nuodugniu įvertinimu nuoroda čia. Galbūt norėsite pažvelgti į tą diskursą, kad sužinotumėte daugiau užkulisių.

Atviras laiškas, kuris atidaro kirminų skardinę

Pradėkime šią analizę atidžiai nuosekliai išnagrinėdami atvirąjį laišką, kurį neseniai paskelbė šeši gana gerai žinomi pažangūs robotų gamintojai, būtent Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics ir Unitree. Apskritai spėju, kad daugiausiai matėte Boston Dynamics robotus, tokius, kurie šokinėja keturiomis. Jie atrodo taip, tarsi būtų panašūs į šunis, ir mums patinka matyti juos lakstančius.

Kaip jau anksčiau ir ne kartą įspėjau, tokių „šokančių“ robotų naudojimas kaip priemonė įtikinti plačiąją visuomenę, kad šie robotai yra mieli ir žavūs, yra, deja, klaidinantis ir patenka į gausius jų antropomorfizavimo spąstus. Mes pradedame galvoti apie šiuos sukietėjusius metalo ir plastiko gabalus taip, tarsi jie prilygtų glaustam ištikimam šuniui. Mūsų noras priimti šiuos robotus yra pagrįstas klaidingu saugumo ir užtikrintumo jausmu. Žinoma, jūs turite užsidirbti pinigų, o tikimybę tai padaryti padidina demonstravimas aplink šokančius robotus, tačiau tai, deja, praleidžia arba tarsi paslepia tikrą faktą, kad šie robotai yra robotai ir kad robotus valdantis AI gali būti sukurtas neteisingai. arba suklysti.

Apsvarstykite šias AI pasekmes (ištrauka iš mano straipsnio apie AI ginklavimą, rasta adresu nuoroda čia):

  • AI gali susidurti su klaida, dėl kurios jis suklysta
  • AI gali būti priblokštas ir nereaguoti į užraktą
  • AI gali būti kūrėjo klaidų, kurios sukelia netvarkingą elgesį
  • AI gali būti sugadintas implantuoto piktadario viruso
  • DI gali būti perimtas kibernetinių įsilaužėlių realiuoju laiku
  • AI gali būti laikomas nenuspėjamu dėl sudėtingumo
  • AI skaičiavimais gali priimti „neteisingą“ sprendimą (santykinai)
  • Ir tt

Tai yra dalykai, susiję su dirbtiniu intelektu, kurio tipas yra tikrai sukurtas norint padaryti teisingą dalyką.

Be šių svarstymų, turite įtraukti AI sistemas, sukurtas nuo pat pradžių, kad padarytumėte blogus dalykus. Galite turėti dirbtinį intelektą, kuris yra sukurtas naudingais tikslais, dažnai vadinamas AI for Good. Taip pat galite turėti dirbtinį intelektą, kuris yra sąmoningai sukurtas blogiems tikslams, žinomas kaip AI For Bad. Be to, galite turėti AI for Good kuris yra sugadintas arba paverčiamas tapsmu AI For Bad.

Beje, visa tai neturi nieko bendra su AI tapimu jautriu, ką aš paminėju, nes kai kurie nuolat šaukia, kad šiandieninis AI yra arba jaučiantis, arba ant jutimo ribos. Ne taip. Analizuodama tuos mitus išskaičiau nuoroda čia.

Tada įsitikinkime, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrios AI, kurią turime šiandien. Jei norėtume pašėlusiai spėlioti apie jausmingą AI, ši diskusija galėtų vykti radikaliai kita linkme. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, gali būti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimos itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Primygtinai siūlyčiau viską laikytis žemiškai ir atsižvelgti į šiandieninį skaičiavimo nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Būkite labai atsargūs antropomorfizuodami šiandieninį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuvokti, kas vyksta. Dėl paslaptingos ML/DL matematikos gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Visa tai turi ypač reikšmingų AI etikos pasekmių ir siūlo patogų langą į išmoktas pamokas (net prieš tai, kai įvyksta visos pamokos), kai kalbama apie AI įstatymą.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų.

Ankstesnėse skiltyse aprašiau įvairias nacionalines ir tarptautines pastangas rengti ir priimti įstatymus, reglamentuojančius dirbtinį intelektą, žr. nuoroda čia, pavyzdžiui. Taip pat aprašiau įvairius dirbtinio intelekto etikos principus ir gaires, kurias nustatė ir priėmė įvairios tautos, įskaitant, pavyzdžiui, Jungtinių Tautų pastangas, tokias kaip UNESCO AI etikos rinkinys, kurį priėmė beveik 200 šalių, žr. nuoroda čia.

Čia yra naudingas pagrindinis etinių AI kriterijų arba charakteristikų, susijusių su AI sistemomis, kurias anksčiau atidžiai tyrinėjau, sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Šiuos AI etikos principus nuoširdžiai turėtų taikyti AI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą.

Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo gyvavimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip jau buvo pabrėžta, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Dabar, kai padėjau naudingą pagrindą patekti į atvirąjį laišką, esame pasirengę pasinerti.

Oficialus atviro laiško temos pavadinimas yra toks:

  • "Atviras laiškas robotikos pramonei ir mūsų bendruomenėms, bendrosios paskirties robotai neturėtų būti ginkluojami“ (kaip paskelbta internete).

Kol kas viskas gerai.

Pavadinimas beveik atrodo kaip ledai ir obuolių pyragas. Kaip kas nors galėtų užginčyti tai kaip buvusį raginimą išvengti AI roboto ginklavimo?

Skaitykite toliau, kad pamatytumėte.

Pirma, kaip pašaras apsvarstymui, čia yra oficiali atvirojo laiško įžanginė pastraipa:

  • „Esame vienos iš pirmaujančių pasaulyje kompanijų, siekiančių pristatyti visuomenei naujas pažangios mobiliosios robotikos kartas. Šios naujos kartos robotai yra labiau prieinami, lengviau valdomi, autonomiškesni, įperkami ir pritaikomi nei ankstesnės kartos, ir gali patekti į vietas, kurios anksčiau nebuvo pasiekiamos automatizuotomis ar nuotoliniu būdu valdomomis technologijomis. Tikime, kad pažangūs mobilieji robotai duos didelę naudą visuomenei kaip pramonės bendradarbiai ir mūsų namų palydovai“ (kaip skelbiama internete).

Saulėta šių tipų robotų atsiradimo pusė yra ta, kad galime tikėtis daug puikios naudos. Jokių abejonių. Galbūt jūsų namuose yra robotas, galintis atlikti tokias Jetsono veiklas, kaip namų valymas, indų plovimas ir kiti namų ruošos darbai. Turėsime pažangius robotus, skirtus naudoti gamyklose ir gamybos patalpose. Robotai gali šliaužti ar manevruoti ankštose erdvėse, pavyzdžiui, kai griūva pastatas ir kyla pavojus žmonių gyvybėms. Ir taip toliau.

Be to, galbūt jus sudomins mano naujausia akiai kritiška informacija apie Tesla AI dieną, kurioje Elonas Muskas vaizdavo kai kuriuos vaikštančius robotus kaip Teslos ir visuomenės ateitį, žr. nuoroda čia.

Grįžkime prie nagrinėjamo reikalo. Rimtai diskutuodami apie šokančius robotus ar vaikščiojančius robotus, turime apgalvotai atsižvelgti į kompromisus arba bendrą investicijų grąžą, naudojant šį AI. Neturėtume leisti sau pernelyg susižavėti nauda, ​​kai reikia atsižvelgti ir į išlaidas.

Naujas blizgus žaislas gali turėti gana aštrius kraštus.

Visa tai skatina svarbų, bet šiek tiek tylų teiginį, kad dalis priežasčių, kodėl dabar kyla AI ginklavimo problema, yra DI pažanga link savarankiškos veiklos. Paprastai tikėjomės, kad ginklai paprastai yra valdomi žmonių. Žmogus priima sprendimą šaudyti, ar panaudoti ginklą. Tikėtina, kad tą žmogų galime laikyti atsakingu už savo veiksmus.

Dirbtinis intelektas, kuris yra sukurtas veikti savarankiškai arba gali būti apgautas tai padaryti, tarsi pašalintų žmogų iš kilpos. AI tada algoritmiškai priima skaičiavimo sprendimus, kurie gali baigtis žmonių žudymu ar pakenkimu. Be akivaizdaus susirūpinimo dėl AI kontrolės stokos, jūs taip pat nerimaujate, kad mums gali tekti daug laiko prisiimti atsakomybę už AI veiksmus. Mes neturime žmogaus, kuris būtų akivaizdus mūsų kurstytojas.

Suprantu, kad kai kurie mano, kad turėtume tiesiog ir tiesiogiai laikyti AI atsakingą už savo veiksmus, tarsi dirbtinis intelektas būtų įgyjęs supratimo arba kitaip būtų suteiktas juridinis asmuo (žr. mano pranešimą apie DI, įgyjantį juridinio asmens statusą nuoroda čia). Tai kol kas neveiks. Turėsime atsekti AI iki žmonių, kurie jį sukūrė arba sukūrė. Jie neabejotinai bandys teisiškai išsisukti nuo atsakomybės, bandydami teigti, kad dirbtinis intelektas viršijo tai, ką jie įsivaizdavo. Tai vis didėjantis ginčas, kurį turime spręsti (žr. mano AI įstatymo raštus, kad gautumėte įžvalgų apie ginčytinus klausimus).

Remiantis oficialia ataskaita, paskelbta internete, Jungtinės Tautos (JT), Ženevoje priimta Konvencija dėl tam tikrų įprastinių ginklų (CCW), nustatė vienuolika neprivalomų pagrindinių principų dėl mirtinų autonominių ginklų (apima nuorodas į atitinkamą tarptautinę humanitarinę teisę arba THT išlygas). , įskaitant:

a) tarptautinė humanitarinė teisė ir toliau visapusiškai taikoma visoms ginklų sistemoms, įskaitant galimą mirtinų autonominių ginklų sistemų kūrimą ir naudojimą;

b) Žmogaus atsakomybė už sprendimus dėl ginklų sistemų naudojimo turi būti išlaikyta, nes atsakomybės negalima perkelti į mašinas. Į tai reikėtų atsižvelgti per visą ginklų sistemos gyvavimo ciklą;

c) žmogaus ir mašinos sąveika, kuri gali būti įvairių formų ir gali būti įgyvendinama įvairiais ginklo gyvavimo ciklo etapais, turėtų užtikrinti, kad potencialus ginklų sistemų, pagrįstų naujomis technologijomis, naudojimas mirtinų autonominių ginklų sistemų srityje taikytinos tarptautinės teisės, ypač THT, laikymąsi. Nustatant žmogaus ir mašinos sąveikos kokybę ir mastą, reikėtų atsižvelgti į įvairius veiksnius, įskaitant operatyvinį kontekstą ir visos ginklų sistemos ypatybes bei galimybes;

d) atskaitomybė už bet kokių naujų ginklų sistemų kūrimą, dislokavimą ir naudojimą pagal KTĮG turi būti užtikrinama pagal taikomą tarptautinę teisę, įskaitant tokių sistemų veikimą atsakingoje žmogaus vadovavimo ir kontrolės grandinėje;

e) Atsižvelgiant į valstybių įsipareigojimus pagal tarptautinę teisę, tiriant, kuriant, įsigyjant ar pritaikant naują ginklą, kovos priemones ar metodą, turi būti nustatyta, ar jo naudojimas tam tikromis ar visomis aplinkybėmis būtų draudžia tarptautinė teisė;

f) kuriant arba įsigyjant naujas ginklų sistemas, pagrįstas naujomis technologijomis mirtinų autonominių ginklų sistemų, fizinio saugumo, atitinkamų nefizinių apsaugos priemonių (įskaitant kibernetinį saugumą nuo įsilaužimo ar duomenų klastojimo), teroristinių grupių įsigijimo rizikos. ir platinimo riziką;

g) rizikos vertinimai ir mažinimo priemonės turėtų būti naujų technologijų projektavimo, kūrimo, bandymo ir diegimo visose ginklų sistemose ciklo dalis;

h) siekiant užtikrinti, kad būtų laikomasi THT ir kitų taikomų tarptautinių teisinių įsipareigojimų, reikėtų apsvarstyti galimybę naudoti naujas technologijas mirtinų autonominių ginklų sistemų srityje;

i) kuriant galimas politikos priemones, naujos technologijos mirtinų autonominių ginklų sistemų srityje neturėtų būti antropomorfizuojamos;

j) diskusijos ir bet kokios galimos politinės priemonės, kurių imamasi pagal KTĮG, neturėtų trukdyti taikiam pažangiųjų autonominių technologijų naudojimui ar prieigai prie jų;

k) KTĮG suteikia tinkamą pagrindą sprendžiant naujų technologijų klausimą mirtinų autonominių ginklų sistemų srityje, atsižvelgiant į Konvencijos tikslus ir tikslus, kuriais siekiama rasti pusiausvyrą tarp karinio būtinumo ir humanitarinių sumetimų.

Šie ir kiti įvairūs karo įstatymai ir ginkluotų konfliktų įstatymai arba THL (tarptautiniai humanitariniai įstatymai) yra gyvybiškai svarbus ir daug žadantis vadovas, padedantis apsvarstyti, ką galėtume padaryti dėl autonominių sistemų, kurios yra ginkluotos, atsiradimo, nesvarbu, ar tai būtų kertinis akmuo. suprojektuoti arba naudojant „fakto“ metodus.

Kai kurie sako, kad turėtume visiškai uždrausti tas AI autonomines sistemas, kurias galima naudoti ginklais. Tiesa, pasaulis turėtų pakišti koją ir griežtai reikalauti, kad dirbtinio intelekto autonominės sistemos niekada nebūtų ginkluotos. Turi būti įvestas visiškas draudimas. Istorijos pabaiga. Taškas, taškas.

Na, mes galime nuoširdžiai palinkėti, kad būtų griežtai ir klusniai laikomasi mirtinų ginkluotų autonominių sistemų draudimo. Problema ta, kad bet kuriame nuoširdžiausiame draudime gudriai galima rasti daug laisvų vietų. Kaip sakoma, taisyklės skirtos laužyti. Galite lažintis, kad ten, kur viskas yra netvarkinga, rifas pašalins spragas ir bandys mirktelėti aplink taisykles.

Štai keletas galimų spragų, į kurias verta atkreipti dėmesį:

  • Pretenzijos dėl nemirtinos. Sukurkite nemirtinų autonominių ginklų sistemas (atrodo, gerai, nes jos nepatenka į uždraudimo ribas), kurias vėliau galite pakeisti mirtinomis (uždraudimo būsite tik paskutinę minutę).
  • Tik autonominės sistemos pretenzijos. Laikykitės draudimo nekurdami į mirtį orientuotų autonominių sistemų, tuo tarpu pasiekite tiek daug pažangos kurdami kasdienes autonomines sistemas, kurios (dar) nėra ginkluotos, bet kurias galite šiek tiek pakeisti į ginkluotę.
  • Pretenzijos nėra integruotos kaip viena. Sukurkite autonomines sistemas, kurios visiškai nėra ginkluotos, o kai ateis laikas, ginkluokite taip, kad galėtumėte įnirtingai ginčytis, jog tai du atskiri elementai ir todėl teigti, kad jos nepatenka į „viskas viename“ rubriką. autonominė ginklų sistema arba jos pusbrolis.
  • Teigia, kad ji nėra savarankiška. Sukurkite ginklų sistemą, kuri, atrodo, nėra savarankiška. Šioje tariamai nesavarankiškoje sistemoje palikite vietos dirbtiniu intelektu pagrįstos autonomijos atsisakymui. Kai reikia, prijunkite autonomiją ir esate pasiruošę riedėti (iki tol, regis, draudimo nepažeidėte).
  • kitas

Yra daug kitų išreikštų sunkumų bandant visiškai uždrausti mirtinas autonomines ginklų sistemas. Aprašysiu dar keletą jų.

Kai kurie ekspertai teigia, kad draudimas nėra ypač naudingas, o vietoj to turėtų būti reglamentuojamos nuostatos. Idėja yra ta, kad šios priemonės bus leidžiamos, tačiau griežtai prižiūrimos. Išdėstoma teisėtų panaudojimų litanija, taip pat teisėti nukreipimo būdai, teisėtos pajėgumų rūšys, teisėtas proporcingumas ir panašiai.

Jų nuomone, tiesioginis draudimas yra tarsi kišti galvą į smėlį ir apsimesti, kad dramblio kambaryje nėra. Tačiau šis ginčas užvirina kraują tiems, kurie prieštarauja argumentui, kad įvedę draudimą galite žymiai sumažinti pagundą, kad būtų galima įgyvendinti tokias sistemas. Žinoma, kai kurie puikuosis draudimu, bet bent jau tikiuosi, kad dauguma ne. Tada galite sutelkti savo dėmesį į besipuikuojančius asmenis ir nereikės skirti dėmesio visiems.

Šios diskusijos vyksta ratu ir ratu.

Kitas dažnai pastebimas rūpestis yra tas, kad net jei gerieji laikysis draudimo, blogi jo nepadarys. Taip gerieji atsiduria bjaurioje pozoje. Blogieji turės tokias ginkluotas autonomines sistemas, o gerieji – ne. Kai paaiškės, kad blogieji juos turi, geriesiems pasivyti bus per vėlu. Trumpai tariant, vienintelis protingas dalykas, kurį reikia padaryti, yra pasiruošti kovai su ugnimi ugnimi.

Taip pat yra klasikinis atgrasymo ginčas. Jei geras pasirinkimas sukurti ginkluotas autonomines sistemas, tai gali būti panaudota siekiant atgrasyti bloguosius nuo bandymo įsivelti į ginčą. Arba gerieji bus geriau apsiginklavę ir taip atgrasys bloguosius, arba gėris bus pasirengęs, kai blogieji galbūt atskleis, kad jie visą laiką slapta kūrė tas sistemas.

Priešingai šiems skaitikliams yra tai, kad kurdami ginkluotas autonomines sistemas, jūs dalyvaujate ginklavimosi lenktynėse. Kita pusė sieks to paties. Net jei jie technologiškai nesugeba sukurti tokių sistemų iš naujo, dabar jie galės pavogti „gerųjų“ planus, pakeisti aukštųjų technologijų inžineriją arba imituoti viską, ką jie laiko išbandyta ir tiesa. būdas atlikti darbą.

Aha, kai kas atkerta, visa tai gali lemti konfliktų sumažėjimą abipusio panašumo dėka. Jei pusė A žino, kad B pusė turi tuos mirtinus autonominių sistemų ginklus, o pusė B žino, kad A pusė juos turi, jie gali sėdėti tvirtai ir nesulaukti smūgių. Tai turi tą savitą abipusiai užtikrinto sunaikinimo (MAD) aurą.

Ir taip toliau.

Atidžiai pažvelgus į antrąją pastraipą

Mes jau daug ką čia aptarėme ir iki šiol svarstėme tik pirmąją arba įžanginę atvirojo laiško pastraipą (iš viso yra keturios pastraipos).

Laikas pažvelgti į antrąją pastraipą, štai jūs:

  • „Kaip ir bet kuri nauja technologija, siūlanti naujas galimybes, pažangių mobiliųjų robotų atsiradimas suteikia galimybę piktnaudžiauti. Nepatikimi žmonės gali juos panaudoti siekdami pažeisti pilietines teises arba grasinti, pakenkti kitiems ar įbauginti. Viena iš sričių, kuri kelia ypatingą susirūpinimą, yra ginkluotė. Manome, kad ginklų pridėjimas prie nuotoliniu būdu arba autonomiškai valdomų robotų, plačiai prieinamų visuomenei ir galinčių nukeliauti į anksčiau nepasiekiamas vietas, kur žmonės gyvena ir dirba, kelia naują žalos pavojų ir rimtų etinių problemų. Ginkluotas šių naujų robotų pritaikymas taip pat pakenks visuomenės pasitikėjimui technologijomis taip, kad pakenks milžiniškai naudai, kurią jie atneš visuomenei. Dėl šių priežasčių mes nepalaikome mūsų pažangaus mobilumo bendrosios paskirties robotų ginklavimo. Tiems iš mūsų, kurie praeityje kalbėjome šiuo klausimu, ir tiems, kurie dalyvauja pirmą kartą, dabar jaučiame naują skubą, atsižvelgiant į pastaraisiais mėnesiais didėjantį visuomenės susirūpinimą, kurį sukėlė nedidelis skaičius žmonių, kurie akivaizdžiai paskelbė apie savo laikiną pastangos ginkluoti komerciškai prieinamus robotus“ (kaip skelbiama internete).

Perskaitę tą antrą pastraipą, tikiuosi, pamatysite, kaip išryškėja mano ankstesnis diskursas apie AI ginklavimą.

Panagrinėkime keletą papildomų punktų.

Kažkoks nerimas dėl konkretaus formuluotės aspekto, dėl kurio kai kas sukėlė pleiskanų, yra tai, kad pasakojime pabrėžiama, jog „nepatikimi žmonės“ gali netinkamai naudoti šiuos AI robotus. Taip, iš tiesų, tai gali būti blogi žmonės ar piktadariai, kurie pritraukia niekšiškus veiksmus, kurie „netinkamai panaudos“ AI robotus.

Tuo pačiu metu, kaip buvo nurodyta šios diskusijos pradžioje, taip pat turime aiškiai pasakyti, kad pats AI gali suklysti, galbūt dėl ​​įterptųjų klaidų ar klaidų ir kitų panašių komplikacijų. Išreikštas susirūpinimas yra tai, kad tik pabrėžiama galimybė nepatikimi žmonės atrodo, kad ji ignoruoja kitas nepalankias galimybes. Nors dauguma AI įmonių ir pardavėjų nenori to pripažinti, yra daugybė AI sistemų problemų, kurios gali sumažinti autonominių sistemų saugumą ir patikimumą. Apie AI saugą ir griežtų bei įrodomų apsaugos priemonių poreikį žr nuoroda čiaPavyzdžiui.

Kitas svarbus dalykas, kuris iškilo tarp tų, kurie išnagrinėjo atvirąjį laišką, yra įtrauktas į teiginį, kad gali būti sumažintas visuomenės pasitikėjimas, susijęs su AI robotais.

Viena vertus, tai pagrįstas teiginys. Jei dirbtinio intelekto robotai naudojami piktiems siūlymams, galite lažintis, kad visuomenė bus gana įtempta. Kai visuomenė užsidegs, galite lažintis, kad įstatymų leidėjai imsis veiksmų ir sieks priimti įstatymus, kurie apribotų AI robotus ir AI robotų kūrėjus. Tai savo ruožtu gali sužlugdyti AI robotikos pramonę, jei įstatymai būtų visa apimantys ir nutrauktų pastangas, susijusias su AI robotų pranašumais. Tam tikra prasme kūdikis gali būti išmestas kartu su vonios vandeniu (senas posakis, tikriausiai vertas išeiti į pensiją).

Taip pat iškeltas akivaizdus klausimas, ar šis teiginys apie tai, kad nesumažėtų visuomenės pasitikėjimas dirbtinio intelekto robotais, yra šiek tiek savanaudiškas kredo, ar jis yra mūsų visų labui (ar gali būti abiem?).

Tu nuspręsk.

Dabar pereiname prie ypač sočios Atviro laiško dalies:

  • „Pažadame, kad nenaudosime ginklų savo pažangių mobilumo bendrosios paskirties robotų ar mūsų kuriamos programinės įrangos, kuri įgalina pažangią robotiką, ir nepadėsime kitiems tai daryti. Jei įmanoma, mes atidžiai peržiūrėsime savo klientų numatytas programas, kad išvengtume galimo ginklavimosi. Taip pat įsipareigojame ištirti technologinių savybių, kurios galėtų sušvelninti arba sumažinti šią riziką, plėtrą. Kad būtų aišku, mes neprieštaraujame esamoms technologijoms, kurias valstybės ir jų vyriausybinės agentūros naudoja, kad apsigintų ir laikytųsi savo įstatymų“ (kaip skelbiama internete).

Galime tai išpakuoti.

Atsisėskite ir atitinkamai pasiruoškite.

Ar esate pasiruošę ugningai poliarizacijai?

Kalbant apie teigiamą pusę, kai kurie garsiai skelbia, kad šie AI robotų gamintojai duotų tokį pažadą. Atrodo, kad šie robotų gamintojai, laimei, stengsis neapginkluoti savo „pažangaus mobilumo bendrosios paskirties“ robotų. Be to, atvirame laiške sakoma, kad jie nepalaikys kitų, kurie tai daro.

Kritikai stebisi, ar čia nevyksta koks nors protingas žodžių kalimas.

Pavyzdžiui, kur prasideda ir baigiasi „pažangus mobilumas“? Jei robotų gamintojas kuria a paprastas- mobilumo AI robotas, o ne pažangus robotas (tai yra neapibrėžtas technikos žargono dalis), ar jis neįtraukiamas į tai, kas bus ne būti ginkluotas? Taigi, matyt, yra gerai ginkluoti paprasto mobilumo AI robotus, jei jie nėra vadinamieji. pažangus.

Tas pats pasakytina ir apie bendrosios paskirties robotų formuluotę. Jei AI robotas yra sukurtas specialiai ginkluoti ir todėl nėra, sakykime a Pagrindinis tikslas robotas, ar tai tampa perspektyviu pašalinimu iš taikymo srities?

Galite ginčytis dėl šių gudrybių ir karštai ginčytis, kad tai tik atviras laiškas, o ne penkiasdešimties puslapių teisinis dokumentas, kuriame išaiškintos visos smulkmenos.

Tai atveda mus prie iš pažiūros labiau makrolygio kai kurių išsakytos nuojautos. Iš esmės, ką reiškia „įkeitimas“?

Kai kas klausia, kur jautiena?

Panašu, kad įmonė, kuri duoda tokį įsipareigojimą, tai daro neturėdama tikrojo žaidimo akcijų. Jei bet kurios firmos, kuri pasirašo šį įsipareigojimą, aukščiausioji žalvario pusė nusprendžia nebevykdyti įsipareigojimo, kas atsitiks su ta įmone? Ar vadovai bus trumpai konservuoti? Ar įmonė užsidarys ir labai atsiprašys, kad pažeidė įsipareigojimą? Ir taip toliau.

Kiek galima numanyti, už bet kokį įkeitimo pažeidimą nėra skiriamos jokios konkrečios nuobaudos ar nuobaudos.

Galite ginčytis, kad yra galimybė pakenkti reputacijai. Įkeitimo įmonė gali būti apimta rinkoje dėl to, kad davė pažadą, kurio nebesilaiko. Žinoma, tai taip pat daro prielaidą, kad žmonės prisimins, kad buvo pažadėtas. Taip pat daroma prielaida, kad įkeitimo pažeidimas bus kažkaip aptiktas (labai tikėtina, kad įmonė viską pasakys, jei tai padarys). Reikėtų iškviesti pažado pažeidėją, tačiau tokia problema gali tapti tik triukšmu besitęsiančioje naujienų apie AI robotikos gamintojus cunamyje.

Apsvarstykite kitą iškilusį kampą.

Įkeitimo įmonę perka kokia nors didesnė įmonė. Didesnė įmonė nusprendžia pradėti pažangius mobilumo bendrosios paskirties robotus paversti dirbtinio intelekto ginkluotomis versijomis.

Ar tai įsipareigojimo pažeidimas?

Didesnė įmonė gali tvirtinti, kad tai nėra pažeidimas, nes jie (didesnė įmonė) niekada nepažadėjo. Tuo tarpu nekenksmingi dirbtinio intelekto robotai, kuriuos subūrė ir sukūrė mažesnė įmonė, turėdama iš pažiūros altruistiškiausių ketinimų, beveik per naktį paverčiami ginklais.

Savotiškai pažeidžia įsipareigojimą, nors galima sakyti, kad mažesnė įmonė nežinojo, kad tai kada nors įvyks. Jie nuoširdžiai troško. Jie nekontroliavo, ką pasirinko didesnė pirkimo įmonė.

Kai kurie taip pat klausia, ar už tai yra kokia nors teisinė atsakomybė.

Įkeitimo įmonė po kelių mėnesių nusprendžia, kad įsipareigojimo nevykdys. Jiems pasikeitė širdis. Ar įmonei gali būti pareikštas ieškinys dėl to, kad ji atsisakė savo įsipareigojimo? Kas paduotų ieškinį? Koks būtų ieškinio pagrindas? Iškyla aibė teisinių problemų. Kaip sakoma, beveik bet ką gali paduoti į teismą, bet ar tu nugausi – visai kitas reikalas.

Pagalvokite apie tai kitu būdu. Įkeitimo įmonė gauna galimybę padaryti tikrai didelį sandorį ir parduoti visą krūvą savo pažangių mobilumo bendrosios paskirties robotų didžiulei įmonei, kuri nori mokėti per nosį, kad gautų robotus. Tai vienas iš tų vienkartinių milijonų dolerių pirkimo sandorių.

Ką turėtų daryti AI robotikos įmonė?

Jei dirbtinio intelekto robotų įkeitimo įmonė yra viešai prekiaujama, jos beveik neabejotinai sieks parduoti (tą patį galima pasakyti apie privačią įmonę, nors ne visai taip). Įsivaizduokite, kad įkeitimo įmonė nerimauja, kad pirkėjas gali pabandyti panaudoti robotus, nors tarkime, kad tokių diskusijų nėra. Tik sklando gandai, kad pirkėjas taip gali pasielgti.

Atitinkamai, įkeitimo įmonė savo licencijoje nurodo, kad robotai neturi būti ginkluoti. Pirkėjas atsisako šios kalbos ir nueina nuo pirkimo.

Kiek pelno pažadėjusi dirbtinio intelekto robotų įmonė tiesiog atsitraukė?

Ar yra momentas, kai gaunamas pelnas nusveria licencijavimo apribojimo reikalavimo įtraukimą (arba galbūt teisiškai suformulavus apribojimą, kad būtų galima svyruoti ir vis tiek susitarti)? Manau, kad jūs matote su tuo susijusius sunkumus. Tokių scenarijų nesunkiai prisigalvojama daugybė. Kyla klausimas, ar šis įsipareigojimas turės dantų. Jei taip, kokie dantys?

Trumpai tariant, kaip minėta šios diskusijos pradžioje, kai kurie yra įsitikinę, kad tokio tipo įkeitimas yra daromas, o kiti žiūri į tai, ar įkeitimas atlaikys vandenį.

Mes judame toliau.

Pasižadėjimo gavimas

Ketvirtoje ir paskutinėje atviro laiško pastraipoje sakoma:

  • „Suprantame, kad vien mūsų įsipareigojimo nepakanka, kad visapusiškai pašalintume šią riziką, todėl raginame politikos formuotojus bendradarbiauti su mumis, skatinant saugų šių robotų naudojimą ir uždrausti netinkamą jų naudojimą. Taip pat raginame kiekvieną robotikos bendruomenės organizaciją, kūrėją, tyrėją ir vartotoją duoti panašius įsipareigojimus nekurti, nesuteikti įgaliojimų, nepalaikyti tokių robotų ir neleisti prie jų pritvirtinti ginklų. Esame įsitikinę, kad šių technologijų nauda žmonijai gerokai viršija netinkamo naudojimo riziką, ir džiaugiamės šviesia ateitimi, kurioje žmonės ir robotai dirbs kartu, kad spręstų kai kuriuos pasaulio iššūkius“ (kaip skelbiama internete).

Ši paskutinė atvirojo laiško dalis turi keletą papildomų elementų, kurie sukėlė pyktį.

Kai kurie tvirtina, kad kreiptis į politikos formuotojus gali būti gerai patarta arba neapgalvota. Gali būti, kad politikos formuotojai, kurie nėra susipažinę su šiais klausimais, imsis klasikinių skubotų sprendimų ir sukurs įstatymus bei reglamentus, kurie uzurpuoja dirbtinio intelekto robotų pažangą. Remiantis anksčiau pateikta mintimi, galbūt naujovės, skatinančios dirbtinio intelekto robotų pažangą, bus sutrikdytos arba užmuštos.

Geriau įsitikinkite, kad žinote, ko prašote, sako kritikai.

Žinoma, priešingas argumentas yra tas, kad pasakojime aiškiai teigiama, kad politikos formuotojai turėtų dirbti su AI robotikos įmonėmis, kad išsiaiškintų, kaip, tikėtina, protingai priimti tokius įstatymus ir reglamentus. Priešingas argumentas yra tas, kad politikos formuotojai gali būti vertinami kaip žiūrintys į AI robotikos kūrėjus, jei jie tenkina savo užgaidas. Priešingas priešpriešinis argumentas yra tai, kad natūraliai būtina dirbti su tais, kurie išmano apie technologiją, nes kitaip rezultatas gali būti žiaurus. ir kt.

Galbūt dėl ​​kivirčų, kai kurie rėmuo peržengę liniją, raginančią visus duoti panašius įsipareigojimus, kad pritvirtinantis ginklų pažangių mobilumo bendrosios paskirties robotams. Raktinis žodis ten yra žodis pritvirtinantis. Jei kas nors kuria dirbtinio intelekto robotą, kuriame yra ar sklandžiai įdedami ginklai, atrodo, kad tai neatitinka pritvirtinantis kažkas. Tai matote dabar, kai kažkas įnirtingai ginčijasi, kad ginklas nėra pritvirtintas, jis yra visiškai neatskiriama AI roboto dalis. Susitvarkyk, sušunka jie, mes nesame to pažado taikymo sferoje, o kitaip net būtų galėję pasakyti, kad taip.

Tai iškelia dar vieną skundą dėl įkeitimo nelankstumo.

Ar įmonė ar bet kas, nusprendęs duoti šį įsipareigojimą, gali bet kada pareikšti, kad nori tai padaryti ir dėl kokios nors priežasties?

Matyt taip.

Aplink daug diskutuojama apie pasižadėjimą ir tai, kokią trauką jie suteikia.

Išvada

Taip, galima sakyti, šios įmonės, kurios bando daryti teisingus dalykus, sulaukia būgnų dėl bandymų daryti teisingus dalykus.

Kas atėjo iš mūsų pasaulio?

Kiekvienas, kuris duoda tokį pasižadėjimą, turėtų susidoroti su abejonėmis, kurias galėtumėte aistringai išlaikyti. Jie žengia į viešąją erdvę, kad drąsiai ir gyvybiškai prisidėtų. Jei pradėsime juos šmeižti už tai, tai tikrai pablogins situaciją. Niekas nenorės duoti tokio pasižadėjimo. Firmos ir kiti net nesistengs. Jie pasislėps ir neperspės visuomenės apie tai, kuo tie brangūs šokantys robotai gali būti pavojingai paversti.

Skeptikai skelbia, kad būdas paskatinti visuomenę išmintingiau reikalauja kitų veiksmų, pavyzdžiui, atsisakyti išgalvotų šokančių dirbtinio intelekto robotų demonstravimo. Arba bent jau padarykite tai labiau subalansuotą veiksmą. Pavyzdžiui, užuot tik mėgdžioję mylimus naminiams gyvūnėliams ištikimus šunis, iliustruokite, kaip šokantys robotai gali būti panašesni į laukinius piktus vilkus, kurie gali suplėšyti žmones į gabalus, nedvejodami.

Jie maldauja, kad tai sulauks daugiau dėmesio nei pažadai.

Įsipareigojimai neabejotinai gali būti gana sudėtinga.

Kaip iškalbingai pasakė Mahatma Gandhi: „Kad ir koks aiškus pažadas būtų, žmonės pavers ir iškraus tekstą, kad atitiktų savo tikslą.

Galbūt, norėdamas baigti nuotaiką, Tomas Džefersonas apie pažadus pasakė taip: „Mes abipusiai įsipareigojame vieni kitiems savo gyvybes, turtus ir šventą garbę.

Kalbant apie dirbtinio intelekto robotus, jų savarankiškumą, ginkluotę ir panašius dalykus, galiausiai mes visi būsime kartu. Mūsų abipusis įsipareigojimas turi būti bent jau toks, kad šiuos reikalus išliksime priešakyje, stengsimės rasti būdų, kaip susidoroti su šia pažanga ir kažkaip rasti kelią, kaip užsitikrinti savo garbę, turtus ir gyvybę.

Ar galime tai pasižadėti?

Tikiuosi.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robotų kūrėjai sako-jie-išvengs-išginklavimo/