AI etika svarsto teisiškai įpareigojančių atpirkimo fondų privalumus, kad būtų užtikrinta atskaitomybė už netinkamą AI elgesį

Kas kaltas?

Tai gali atrodyti kaip paprastas klausimas, nors legendinio Abboto ir Costello dueto garsiojoje komedijoje apie beisbolo komandą „kas“ gali būti painu. Galbūt neaiškiai susipažinote su Kas pirmas komiška rutina, kurią jie pavertė vienu iš patvariausių visų laikų siužetų (įspėjimas apie spoilerį tiems, kurie to negirdėjote).

Abbott pasakoja Costello, kad kas pirmas, kas antras, o aš nežinau – trečias. Protinga gudrybė ta, kad pirmasis žaidėjas pavadintas Kas, antrasis rūsys pavadintas „Kas“, o trečiasis – „Aš nežinau“. Žinoma, šios frazės taip pat turi įprastą reikšmę, todėl bandymas interpretuoti tai, ką sako Abbott, gali būti visiškai gluminantis. Iš tiesų, Costello užduoda iš pažiūros nekenksmingą klausimą, kas pirmas, į kurį atsakymas yra tvirtai teigiamas. Tačiau Costello tai neturi prasmės, nes jis tikėjosi vardo ir gavo gluminantį „taip“ atsakymą.

Pavarų perjungimas, kai kalbama apie dirbtinio intelekto (DI) atsiradimą, vienas iš labiausiai varginančių klausimų, kurių vis užduodama, susijęs su tuo, kas ar galbūt už ką bus atsakingas, kai dirbtinis intelektas suklys.

Anksčiau aptariau baudžiamąją atsakomybę už tai, kai dirbtinis intelektas sukelia arba imasi nusikalstamų veiksmų, žr. nuoroda čia. Taip pat yra civilinės atsakomybės klausimas, pvz., kam ir ką galite paduoti į teismą, kai dirbtinis intelektas padarė jums neteisingą temą. Tai yra tema, kurią čia aptarsiu. Visa tai turi svarbių AI etikos sumetimų. Daugiau informacijos apie AI etiką ir etišką AI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Dirbtinio intelekto etikos nuostatos verčia mus išlikti budriems. AI technologai kartais gali būti susirūpinę technologijomis, ypač aukštųjų technologijų optimizavimu. Jie nebūtinai atsižvelgia į didesnius visuomenės padarinius. Kad būtų sukurtas tinkamas dirbtinis intelektas, įskaitant (galbūt stebėtinai ar ironiškai) vertinimą, kaip įmonės įgyvendina dirbtinio intelekto etiką, labai svarbu turėti AI etikos mąstymą ir tai daryti neatsiejamai su DI plėtra ir veikla.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie tvirtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Tiesą sakant, jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami DI pažangą, teikiančią didžiulių socialinių pranašumų.

Vyksta karštos diskusijos, ar esami įstatymai gali tinkamai spręsti AI sistemų atsiradimą visoje visuomenėje. Teisinė atsakomybė paprastai reikalauja, kad galėtumėte prisegti asilo uodegą ir nustatyti, kas atsakingas už žalingą elgesį. DI atveju gali būti gana neaiškus kelias, susiejantis konkretų asmenį ar asmenis su AI, atlikusiu kokį nors žalingą veiksmą. AI gali būti beveik neatsektas iki šaltinio ar išradėjo, sukūrusio AI.

Kitas svarstymas yra tas, kad net jei AI šaknis galima atsekti, kyla klausimas, ar asmuo ar asmenys negalėjo pagrįstai numatyti neigiamų padarinių, kuriuos galiausiai sukėlė AI. Nuspėjamumo esmė yra įprastai pastebimas veiksnys vertinant teisinę atsakomybę.

Jums gali kilti pagunda manyti, kad galite paprasčiausiai vadovautis pačiu AI ir pavadinti AI teisine šalimi, atsakinga arba atsakinga už bet kokią tariamai padarytą žalą. Apskritai vyrauja teisinė nuomonė, kad AI dar nepasiekė juridinio asmens statuso. Taigi, griežtai kalbant, negalėsite siekti, kad dirbtinis intelektas susimokėtų, o reikės surasti žmones, kurie tarytum naudojo svertus užkulisiuose (mano AI juridinio asmens statuso analizę žr. nuoroda čia).

Į visą šią potencialią teisinę mėšlą įkeliama idėja, kuri yra trumpalaikė arba galbūt ilgalaikė priemonė. Idėja ta, kad galbūt reikėtų įsteigti specialų kompensacinį fondą, kuris teiktų finansinę pagalbą tiems, kuriems AI nukentėjo. Jei kitu atveju negalite priversti dirbtinio intelekto jums atlyginti žalą ir negalite nustatyti asmenų, kurie, kaip manoma, turėtų būti patraukti atsakomybėn, kitas geriausias pasirinkimas būtų pasinaudoti kompensaciniu fondu, kurio tikslas – padėti tiems, kuriuos nukentėjo dirbtinis intelektas.

Toks fondas būtų panašus į tam tikrą draudimo formą, kaip teigiama mąstyti skatinančiame moksliniame darbe: „Tai iš esmės būtų draudimo nuo netikrumo mechanizmas: aiški ir skaidri sistema greitam kompensavimui tais atvejais, kai pareiškiamas ieškinys dėl atsakomybės. neaiškus arba visai nesitikima sėkmės dėl nenumatomo žalingo elgesio pobūdžio, pačios žalos (rūšies) arba pernelyg didelių išlaidų ir (arba) procedūros sudėtingumo“ (Olivia Erdelyi ir Gabor Erdelyi straipsnis „The AI ​​Liability Puzzle“ Ir fondas pagrįstas sprendimas“, Dirbtinio intelekto tyrimų žurnalas, 2021).

Kompensacinis fondas būtų visa apimančios AI garantijų schemos (AIGS) dalis, o kartu su tam tikrais nedideliais galiojančių įstatymų dėl teisinės atsakomybės pakeitimais. Lengvas prisilietimas, ko gero, būtų lengviau įgyvendinamas ir nereikėtų sunkaus teisinio ir visuomeninio nerimo, jei esamuose teisiniuose režimuose būtų atlikta daug stulbinančių demonstratyvių pakeitimų. Pasak mokslininkų: „Tai atspindi mūsų įsitikinimą, kad, nepaisant tokio greito sprendimo patrauklumo, nepakeistas esamų atsakomybės taisyklių taikymas AI arba a protekcionistiškai motyvuoti griežtos atsakomybės taikymas siekiant nustatyti atsakomybę bet kokia kaina nėra teisingas atsakymas dėl trijų priežasčių: pirma, ignoruojant, kad šios taisyklės buvo pritaikytos skirtingoms aplinkybėms ir todėl gali būti netinkamos dirbtiniam intelektui, jos prieštarauja subtiliai subalansuotiems DI tikslams. teisinės atsakomybės sistema. Antra, jie stabdo dirbtinio intelekto naujoves, taikydami nepagrįstą baudžiamąjį metodą. Trečia, neteisėtas griežtos atsakomybės taikymas tik apeina nuspėjamumo ir kaltės problemas dogmatiškai nenuosekliai, o ne jas ištaiso“ (kaip nurodyta pirmiau minėtame dokumente).

Argumentai, palaikantys tokius AI kompensacinius fondus, yra šie:

  • Sumažėja ilgų ir brangių teisinių bandymų poreikis susidoroti su AI daroma žala
  • Įtikina žmones, kad jie gali pasinaudoti dirbtiniu intelektu ir gauti kompensaciją, jei nukentės
  • Skatina dirbtinio intelekto naujoves, sumažindama teisinį netikrumą, su kuriuo susiduria DI novatoriai
  • Gali būti pradėtas naudoti daug greičiau, nei atliekant didžiulius galiojančių įstatymų pakeitimus
  • Siūlo gana aiškią priemonę, kuri yra patikima ir lengvai prieinama
  • kitas

Tuo tarpu tie, kurie prieštarauja AI kompensuojamųjų fondų metodui, sako:

  • Leiskite dirbtinio intelekto kūrėjams per daug nusišalinus nuo kablio ir leisti jiems išvengti atsakomybės
  • Skatins dirbtinio intelekto kūrėjus kurti dirbtinį intelektą, kuriam trūksta pareigingos saugos ir tinkamo valdymo
  • Gali paskatinti žmones melagingai teigti, kad AI daro žalą, kad jie galėtų pasinaudoti lėšomis
  • Apeina ir sumenkina tikrąjį poreikį peržiūrėti mūsų įstatymus, kad būtų pakankamai valdomas AI
  • Gali tapti biurokratiniu košmaru, kuris užstringa ir netinkamai panaudoja lėšas
  • kitas

Kaip gali būti akivaizdu, yra šios visiškai prieštaringos sąvokos šalininkų ir priešininkų.

Jums būtų sunku trumpai atmesti AI kompensacinį fondą kaip galimą požiūrį į didėjantį susirūpinimą dėl žalą darančio AI. Siūlomas sprendimas taip pat nėra „slam dunk“.

Vienas iš požiūrių yra tas, kad dirbtinio intelekto kūrėjai, kurdami ir skelbdami dirbtinį intelektą, turėtų skirti pinigų į fondus. Tai gali būti suprantama kaip tam tikras mokestis ar mokestis, kurį jie turi sumokėti, kad galėtų išleisti savo AI pasauliui. Tačiau ar šios papildomos išlaidos gali slopinti naujų įmonių, kurios bando peržengti šiandieninio AI ribas, pastangas? Ir kaip būtų tvarkomas reikalavimas, kad dirbtinio intelekto kūrėjai sumokėtų mokestį ar mokesčius?

Kyla daugybė klausimų, kuriuos reikėtų išspręsti:

  • Kuriose šalyse AI kompensacinis fondas būtų geriausiai įgyvendinamas?
  • Ar būtų galima sukurti pasaulinį tarpusavyje susijusių dirbtinio intelekto kompensavimo fondų įvaizdį?
  • Kokie būtų išsamūs ir veiksmingi mechanizmai, susiję su tokiomis lėšomis?
  • Kaip turi būti finansuojami dirbtinio intelekto kompensavimo fondai (viešieji, privatūs, labdaros)?
  • Ar tai būtų draudimo be kaltės pagrindas, ar būtų imamasi kitokio būdo?
  • Ir tt

Sritis, kuri jau turėjo AI kompensavimo fondų idėją, susideda iš autonominių sistemų, tokių kaip autonominės transporto priemonės ir savarankiškai važiuojantys automobiliai. Norėdami sužinoti apie savarankiškai važiuojančius automobilius ir AI autonomines sistemas, žr nuoroda čia.

Pateikiame eskizą, kaip tai gali veikti dirbtinio intelekto pagrindu veikiančiuose savaeigiuose automobiliuose.

Tarkime, savarankiškai važiuojantis automobilis atsitrenkia į dviratininką. Nukentėjo dviračio vairuotojas. Dviratininkas gali siekti teisinės žalos atlyginimo persekiodamas autonominės transporto priemonės gamintoją. Arba jie gali būti nukreipti į savarankiško vairavimo technologijų įmonę, sukūrusią AI vairavimo sistemą. Jei savarankiškai vairuojamas automobilis naudojamas kaip automobilių parkas, kitas teisėtas būdas būtų persekioti transporto parko operatorių. Šiuo metu negalima bandyti paduoti AI į teismą, nes DI juridinis asmuo dar nėra nustatytas.

Užuot imusis teisinių veiksmų prieš bet kurią iš tų šalių, kita išeitis būtų pateikti paraišką arba pretenziją į tinkamą AI kompensacinį fondą. Fondas būtų formalizavęs ieškinio peržiūros procesus, o tada nustatęs, kas, jei ieškovui gali būti sumokėtos kompensacinės išmokos. Gali būti apeliacijų procesas, kuris padeda ieškovams, manantiems, kad fondas jiems neteisingai atsisakė, arba fondas negavo pakankamai kompensacijos.

Teoriškai AI kompensacinis fondas būtų daug greitesnis būdas gauti kompensaciją už padarytą žalą. Galite įsivaizduoti, koks sunkus gali būti ieškinys, kai įmonės, kurioms iškelta byla, gali bandyti vilkinti bylą.

Advokatai gali pabrėžti, kad dirbtinio intelekto kompensavimo fondas galėtų leisti kitoms šalims, pvz., dirbtinio intelekto kūrėjams, išvengti bet kokios griežtos bausmės už tai, kad viešuose keliuose paleido savarankiškai vairuojantį automobilį, kuris galiausiai užklupo dviratininką. Ką dar galėtų tos įmonės „neatsargiai“ daryti? Be gresiančios teisinio kardo šmėklos, kabančio virš jų galvų, galėtume kasdien susidurti su DI, kuriame gausu pavojų keliančių pajėgumų.

Ginčai eina ratu ir ratu.

Išvada

AI etika primena mums, kad visada turėtume atsižvelgti į etines ir teisines AI pasekmes. Šiuo atveju, kalbant apie AI kompensacinius fondus, pasiūlyta į draudimą panašaus fondo sąvoka, skirta kompensuoti tiems, kuriems AI kenkia, atrodo viliojanti. Panašu, kad lėšos ten lauktų, paruoštos panaudoti ir kuo greičiau kompensuoti.

Kompromisai, ar tai gali atverti užtvanką, kad dirbtinis intelektas turi vis mažiau saugos valdiklių, kelia bauginantį ir pernelyg didelį susirūpinimą. Tikriausiai nereikia pilti žibalo į ugnį, kuri galbūt jau yra įsibėgėjusi.

Ar galime kaip nors priversti dirbtinio intelekto kūrėjus sukurti tinkamą etišką AI ir kartu sukurti šiuos kompensacinius AI fondus?

Kai kas pasakytų, kad taip, galime. Pakeitus galiojančius įstatymus, kad jie būtų suderinti su AI kompensaciniais fondais, tie, kuriems DI kenkia, galbūt turėtų dvejopą kelią siekti teisingos kompensacijos.

Kas pirmas?

Taip, būtent jie (kaip ir mes visi) pirmiausia pastebi, kad turėtume galvoti apie galimą dirbtinio intelekto kompensavimo fondų panaudojimą ir pakeisti galiojančius įstatymus, net jei tai nežymiai, kad būtų galima susidoroti su gero AI ir blogas AI.

Dėl šio svarbaus svarstymo nėra painiavos.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- atskaitomybė/