AI etika skeptiškai vertina vadinamųjų raudonosios vėliavos AI įstatymų, skirtų šališkus algoritmus iškviesti autonominėse AI sistemose, sukūrimą

Pakalbėkime apie Raudonosios vėliavos įstatymus.

Jūs neabejotinai žinote, kad Raudonosios vėliavos įstatymų sąvoka pastaruoju metu buvo plačiai nušviečiama naujienose. Antraštės, apimančios temą, yra daug. Aistros ir aistringos diskusijos tokiais klausimais yra svarbiausias visuomenės rūpestis ir yra susiję su dabartiniais ir greitai atsirandančiais Raudonosios vėliavos ginklų įstatymais.

Vis dėlto drįsčiau teigti, kad galbūt nesate susipažinę su kitais Raudonosios vėliavos įstatymais, priimtais XIX amžiaus pabaigoje, susijusiais su motorinėmis transporto priemonėmis ir šiandieninių kasdienių modernių automobilių pirmtakais. Taip, tai tiesa, Raudonosios vėliavos įstatymai grįžta į istoriją, nors apima ir kitas temas, palyginti su šiandienos akcentu. Jie paprastai vadinami Raudonosios vėliavos eismo įstatymais.

Šie šimtmečio senumo ir visai nebegaliojantys įstatymai reikalavo, kad bet kokia motorizuota karieta ar variklis, varomas garais, tuo metu prieš transporto priemonę turėtų važiuoti suaugęs žmogus ir neštis raudoną vėliavą perspėjimo tikslais. Idėja buvo tokia, kad gyvuliai gali sunerimti dėl tų triukšmingų ir niūrių daiktų, kurie lėtai ir netolygiai rieda purvu ar mažai asfaltuotais keliais, taigi, jei kas nors vaikščiotų priešais konstrukciją ir energingai mojuotų raudona vėliava, būtų galima išvengti nelaimių. Jei susimąstėte, geležinkeliams ir traukiniams nebuvo taikomi tie patys įstatymai, nes jie buvo transporto priemonės, neatsiejamai sujungtos su bėgiais ir turėjo kitus įstatymus, reglamentuojančius jų veiksmus.

Įsivaizduokite, kad šiandien privalome mojuoti raudonomis vėliavomis kiekvienam automobiliui viešuosiuose keliuose.

Pavyzdžiui, paprastas vairuotojas, einantis jūsų kaimynystės gatve, turėtų įsitikinti, kad šalia važiuojančio automobilio yra suaugęs, mojuojantis raudona vėliava. Tai turėtų įvykti kiekvienai jūsų gatve važiuojančiai transporto priemonei. Galbūt žmonės taptų raudonosios vėliavos darbininkais, samdančiais pravažiuojančius automobilių vairuotojus, kurie šiaip neturėjo draugo ar giminaičio, kuris galėtų eiti priešais ir atlikti numatytą mojavimo veiksmą.

Šiais laikais su greitkeliu susijusią raudoną vėliavą esame linkę sieti su kelių tiesimo aikštelėmis. Kai priartėsite prie iškasto kelio, darbuotojai iškels raudoną vėliavą, kad patrauktų jūsų dėmesį. Tai liepia sulėtinti greitį ir būti budriems. Gali būti, kad jūsų kelyje atsidurs buldozeris. Priešais gali būti didžiulė skylė, kurią turėsite atsargiai apvažiuoti.

Bet grįžkime prie 1800-ųjų raudonųjų vėliavų naudojimo.

Tikėkite ar ne, raudona vėliavėlė turėjo būti bent aštuntosios mylios atstumu prieš būsimą motorizuotą mašiną. Tai atrodo gana ilgas atstumas. Tačiau galima manyti, kad tais laikais tai buvo labai prasminga. Stulbinančio variklio triukšmo ir galbūt vien automobilio žvilgsnio gali pakakti gyvūnams sunerimti. Kai kurie tos eros Raudonosios vėliavos įstatymai taip pat reikalavo, kad naktį būtų aukštai šviečianti raudona šviesa, kad iš tamsaus atstumo būtų galima pamatyti vizualiai matomą raudoną atsarginį įspėjimą.

Apskritai manau, kad teisinga teigti, kad mes, kaip visuomenė, raudoną vėliavą linkę sieti kaip signalą ar ženklą, kad kažkas gali būti negerai arba bent jau reikia mūsų nuoširdaus dėmesio.

Pasiruoškite šiek tiek pakeisti šį raudonos vėliavos reiškinį.

Sklando ginčas, kad turėtume reikalauti raudonos vėliavos nuostatų, kai kalbama apie dirbtinį intelektą (AI).

Tai šiek tiek stulbinanti ir stebinanti koncepcija, dėl kurios daugelis kreipiasi į galvą. Jums gali kilti klausimas, kaip ir kodėl turėtų būti vadinamieji Raudonosios vėliavos AI įstatymai. Atkreipkite dėmesį, kad aš vadinu tai Raudonosios vėliavos AI įstatymais, kad atskirtų šį klausimą nuo Raudonosios vėliavos kelių eismo įstatymų (tokių kaip XIX a. pabaigos) ir taip pat išskirčiau juos nuo kitų šiandien labiau paplitusių Raudonosios vėliavos ginklų įstatymų.

Ar mums iš tikrųjų reikia Raudonosios vėliavos AI įstatymų, kurie būtų aiškiai ir tik orientuoti į AI reikalus?

Tie, kurie pritaria siūlomam požiūriui, reikalautų, kad mums būtinai reikalingos teisinės nuostatos, kurios padėtų apriboti dirbtinį intelektą, kuriame yra nepagrįstų šališkų ir diskriminacinių veiksmų. Šiuo metu dirbtinio intelekto kūrimas ir diegimas yra panašūs į laukinių vakarų aplinkybę. Pastangos suvaldyti blogą AI šiuo metu priklauso nuo AI etikos gairių formulavimo ir patvirtinimo. Daugiau informacijos apie AI etiką ir etišką DI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Įstatymai, lemiantys blogą AI, pamažu kuriami ir priimami, žr. mano aprėptį nuoroda čia. Kai kurie nerimauja, kad įstatymų leidėjai neveikia pakankamai greitai. Atrodo, kad potvynio vartai, leidžiantys skatinti šališką AI pasaulyje, šiuo metu yra plačiai atviri. Rankų laužymas sako, kad kai nauji įstatymai pateks į knygas, piktasis džinas jau bus ištrauktas iš butelio.

Ne taip greitai, kontrargumentai eina. Nerimą kelia tai, kad jei įstatymai bus priimti per greitai, mes tarsi nužudysime auksinę žąsį, dėl ko dirbtinio intelekto pastangos nustos ir mes negausime visuomenę skatinančios naujų AI sistemų naudos. Dirbtinio intelekto kūrėjai ir įmonės, norintys naudoti DI, gali išsigąsti, jei federaliniu, valstijos ir vietos lygmenimis netikėtai bus priimta daugybė naujų AI reglamentuojančių įstatymų, jau nekalbant apie tarptautinius su AI susijusius įstatymus, kurie taip pat žengia į priekį.

Į šį netvarkingą reikalą ateina raginimas priimti Red Flag AI įstatymus.

Prieš imdamiesi daugiau mėsos ir bulvių apie laukinius ir vilnonius svarstymus, kuriais grindžiamas numatytas Raudonosios vėliavos AI įstatymas, nustatykime keletą papildomų esminių temų pagrindų. Turime trumpai pasinerti į AI etiką ir ypač mašininio mokymosi (ML) ir giluminio mokymosi (DL) atsiradimą.

Galbūt miglotai žinote, kad vienas garsiausių balsų šiais laikais dirbtinio intelekto srityje ir net už AI ribų yra reikalavimas siekti didesnio etiško AI panašumo. Pažiūrėkime, ką reiškia AI etika ir etiška AI. Be to, išnagrinėsime, ką turiu omenyje kalbėdamas apie mašininį mokymąsi ir gilųjį mokymąsi.

Vienas konkretus dirbtinio intelekto etikos segmentas arba dalis, sulaukianti daug žiniasklaidos dėmesio, yra dirbtinis intelektas, pasižymintis nepageidaujamu šališkumu ir nelygybe. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Netrukus pasidalinsiu su jumis kai kuriais pagrindiniais AI etikos principais. Šen bei ten sklando daugybė tokių sąrašų. Galima sakyti, kad dar nėra vienintelio visuotinio patrauklumo ir sutapimo sąrašo. Tai liūdna žinia. Geros naujienos yra tai, kad bent jau yra lengvai prieinami AI etikos sąrašai ir jie paprastai yra gana panašūs. Apskritai tai rodo, kad tam tikra pagrįsto konvergencijos forma randame kelią link bendro AI etikos bendrumo.

Pirma, trumpai apžvelgsime kai kuriuos bendrus etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam AI.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veikimo metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Taip pat įsitikinkime, kad esame tame pačiame puslapyje apie šiandienos AI prigimtį.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Grįžkime prie raudonosios vėliavos AI įstatymų.

Pagrindinė koncepcija yra ta, kad žmonės galėtų iškelti raudoną vėliavėlę, kai tikėtų, kad AI sistema veikia nepagrįstai šališkai arba diskriminuojančiai. Jūs nekeltumėte fizinės vėliavos per se, o tiesiog naudotumėte elektronines priemones, kad išreikštumėte savo problemas. Raudona vėliavėlė schemos ar požiūrio dalis yra labiau metafora nei fizinis įsikūnijimas.

Apsimeskite, kad kreipiatės dėl būsto paskolos. Norėdami kreiptis dėl paskolos, pasirenkate naudotis internetinės bankininkystės paslauga. Įvedę kai kuriuos asmeninius duomenis, akimirksniu laukiate, kol naudojama AI sistema nuspręs, ar esate vertas paskolos, ar ne. AI praneša, kad jums buvo atsisakyta paskolos. Paprašius paaiškinti, kodėl buvote atmestas, tekstinis pasakojimas rodo, kad dirbtinis intelektas naudojo nepagrįstus šališkus veiksnius, kaip sprendimo priėmimo algoritmo dalį.

Laikas iškelti raudoną vėliavą apie AI.

Kur tiksliai plevėsuos ši raudona vėliava?

Tai milijono dolerių klausimas.

Vienas požiūris yra tas, kad turėtume sukurti visos šalies duomenų bazę, kuri leistų žmonėms pažymėti savo su AI susijusias raudonas vėliavėles. Kai kurie sako, kad tai turėtų reguliuoti federalinė vyriausybė. Federalinės agentūros būtų atsakingos už raudonųjų vėliavų ištyrimą ir pagalbos plačiajai visuomenei teisingumą bei kovą su tariamai „blogu dirbtiniu intelektu“, kuris paskatino raudonųjų vėliavėlių ataskaitas.

Nacionalinį Raudonosios vėliavos AI įstatymą, regis, patvirtintų Kongresas. Įstatyme būtų nurodyta, kas yra su DI susijusi raudona vėliava. Įstatyme būtų aprašyta, kaip iškeliamos šios AI gniuždančios raudonos vėliavėlės. Ir taip toliau. Taip pat gali būti, kad atskiros valstybės taip pat gali nuspręsti parengti savo Raudonosios vėliavos AI įstatymus. Galbūt jie tai daro vietoj nacionalinės iniciatyvos arba tai daro norėdami sustiprinti detales, kurios ypač patrauklios jų konkrečiai valstybei.

Federalinės ar bet kokios vyriausybės remiamos Red Flag AI programos kritikai ginčytųsi, kad tai yra kažkas, ką gali padaryti privati ​​pramonė, ir mums nereikia, kad „Big Brother“ iškiltų į priekį. Pramonė galėtų sukurti internetinę saugyklą, kurioje žmonės galėtų užregistruoti raudonas vėliavėles apie AI sistemas. Pramonės savikontrolės veiksmai pakankamai išspręstų šias problemas.

Apgailestauja dėl tariamo pramonės požiūrio, kad atrodo, kad jis kvepia draugyste. Ar įmonės būtų pasirengusios laikytis privačios „Red Flag AI“ duomenų bazės? Daugelis įmonių gali nepaisyti pažymėtų raudonų vėliavėlių apie savo AI. Nebūtų aštrių dantų, kad įmonės susidorotų su įvestomis raudonomis vėliavomis.

Ei, privataus sektoriaus požiūrio šalininkai nuskamba, tai būtų panašu į nacionalinę „Yelp“ paslaugą. Vartotojai galėtų pažvelgti į raudonąsias vėliavas ir patys nuspręsti, ar jie nori užsiimti verslu su įmonėmis, kurios turi daugybę į AI orientuotų raudonųjų vėliavėlių. Bankas, sulaukęs daugybės raudonų vėliavėlių apie savo dirbtinį intelektą, turėtų atkreipti dėmesį ir atnaujinti savo AI sistemas, taigi, logika tokia, kitu atveju vartotojai išvengtų įmonės kaip maro.

Nesvarbu, ar viso šio požiūrio imasi vyriausybė, ar pramonė, tėra ledkalnio viršūnė sprendžiant sudėtingus klausimus, su kuriais susiduria siūlomi Raudonosios vėliavos AI įstatymų postulatai.

Įdėkite save į įmonės, kuri sukūrė arba naudoja dirbtinį intelektą, vietą. Gali būti, kad vartotojai iškeltų raudonas vėliavas, net jei tam nebuvo tinkamo pagrindo. Jei žmonės galėtų laisvai paskelbti raudoną vėliavėlę apie AI, jiems gali kilti pagunda tai padaryti dėl užgaidos, o gal siekdami keršto įmonei, kuri kitaip nepadarė nieko blogo vartotojui.

Trumpai tariant, apie AI gali būti daug klaidingai teigiamų raudonųjų vėliavėlių.

Kitas aspektas yra didžiulis gautų raudonų vėliavėlių dydis arba dydis. Lengvai gali būti iškelta milijonai ir milijonai raudonų vėliavų. Kas seks visas tas raudonas vėliavas? Kiek kainuotų tai padaryti? Kas sumokės už raudonosios vėliavos pastangas? ir kt.

Jei sakytumėte, kad kiekvienas, registruojantis ar pranešantis raudoną vėliavėlę apie dirbtinį intelektą, turi sumokėti mokestį, patekote į miglotą ir klastingą sritį. Nerimą kelia tai, kad tik turtingieji galėtų sau leisti iškelti raudonas vėliavas. Tai savo ruožtu reiškia, kad nuskurdę asmenys negalėtų vienodai dalyvauti „raudonosios vėliavos“ veikloje ir iš esmės neturės vietos įspėti apie neigiamą AI.

Kol kas tik dar vienas papildomas posūkis, būtent, atrodo, kad tokie „raudonosios vėliavėlės“ įstatymai ar gairės dėl dirbtinio intelekto yra pasenę, o ne tarnauja kaip įspėjimas iš anksto.

Grįžtant prie Raudonosios vėliavos eismo įstatymų, raudonos vėliavos naudojimas buvo skirtas išvengti nelaimės. Raudona vėliavėlė turėjo būti gerokai priekyje būsimo automobilio. Būdami priekyje transporto priemonės, gyvuliai būtų įspėjami, o gyvulius saugoję asmenys žinotų, kad turėtų imtis atsargumo priemonių dėl netrukus atvyksiančio nerimą keliančio šaltinio.

Jei žmonės gali tik iškelti raudoną vėliavą apie dirbtinį intelektą, kuris, atrodo, jau pakenkė ar pažeidžia jų teises, patarlės arklys jau išėjo iš tvarto. Atrodo, kad tai būtų pasiekta tik tuo, kad kiti ateinantys žmonės dabar žinos, kad yra atsargūs dėl tos AI sistemos. Tuo tarpu tariamai skriaudžiamas asmuo jau nukentėjo.

Kai kurie mano, kad galbūt galėtume leisti žmonėms iškelti raudonas vėliavas apie AI, kad jie įtarti gali būti šališki, net jei jie nenaudojo dirbtinio intelekto ir nebuvo tiesiogiai paveikti AI. Taigi raudona vėliava pamojava prieš padarant žalą.

Oi, sakoma replikoje, jūs tikrai paverssite AI kovojančias raudonąsias vėliavas visiškai nevaldoma ir chaotiška. Jei kas nors dėl kokių nors priežasčių gali iškelti raudoną vėliavėlę apie AI sistemą, nepaisant to, kad nieko su ta AI nepadarė, jus užplūs raudonos vėliavėlės. Dar blogiau, jūs negalėsite atskirti kviečių nuo pelų. Visas raudonosios vėliavos metodas žlugs nuo savo svorio ir sumažins idėjos gerumą, leisdamas flotsam ir riffraff nuskandinti visą laivą.

Svaiginantis ir gluminantis.

Šioje svarbioje diskusijoje aš galiu lažintis, kad norite pateikti keletą iliustruojančių pavyzdžių, kurie galėtų parodyti šią temą. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas ką nors parodo apie Red Flag AI įstatymus, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir raudonosios vėliavos AI įstatymai

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Tikiuosi, kad tai suteikia pakankamai įspėjimų, kad pagrįstų tai, ką ketinu pasakyti.

Nubraižykime scenarijų, kuris galėtų panaudoti Raudonosios vėliavos AI įstatymą.

Įsėdate į dirbtinio intelekto pagrindu veikiantį savarankiškai vairuojantį automobilį ir norite, kad autonominė transporto priemonė nuvežtų jus į jūsų vietinę bakalėjos parduotuvę. Palyginti trumpos kelionės metu AI pasirenka maršrutą, kuris jums atrodo šiek tiek klaidingas. Užuot važiavęs tiesiausiu keliu, dirbtinis intelektas pereina į atokias gatves, todėl vairavimo laikas pailgėja, nei galėtų būti įprastai.

Kas vyksta?

Darant prielaidą, kad mokate už savaeigio automobilio naudojimą, jums gali kilti įtarimų, kad dirbtinis intelektas buvo užprogramuotas važiuoti ilgesniu maršrutu, siekiant padidinti kelionės kainą ar kainą. Kiekvienas, kada nors naudojęs įprastą žmogaus vairuojamą kabiną, žino apie gudrybes, kurios gali įvykti norint gauti daugiau tešlos ant matuoklio. Žinoma, kai žmonės turi GPS savo išmaniuosiuose telefonuose važiuodami kabinoje ar lygiaverte, galite lengvai sugauti žmogų vairuotoją, kuris, atrodo, slapčia važiuoja bereikalingai ilgais maršrutais.

Pasirodo, jūs turite dar vieną susirūpinimą dėl maršruto pasirinkimo, kas jus tikrai graužia.

Tarkime, maršrutas buvo atliktas siekiant išvengti tam tikrų miesto dalių dėl rasinių aspektų. Yra dokumentuotų atvejų, kai žmonės vairuotojai buvo sugauti darantys tokius pasirinkimus, žr. mano diskusiją adresu nuoroda čia. Galbūt dirbtinis intelektas buvo užprogramuotas neigiamai.

Nusprendi iškelti raudoną vėliavą.

Tarkime, kad diskusijų dėlei buvo priimtas Raudonosios vėliavos AI įstatymas, apimantis jūsų jurisdikciją. Tai gali būti vietinė teisė, valstijos teisė, federalinė ar tarptautinė teisė. Analizę, kurią parengiau kartu su Harvardo autonominės transporto priemonių politikos iniciatyva (AVPI), dėl didėjančios vietos lyderystės svarbos bendruomenėms pradėjus naudoti savarankiškai važiuojančius automobilius, žr. nuoroda čia.

Taigi, prisijungiate prie „Red Flag AI“ duomenų bazės. Į incidentų duomenų bazę įvedate informaciją apie savarankiško automobilio kelionę. Tai apima važiavimo datą ir laiką, taip pat savarankiškai važiuojančio automobilio markę ir modelį. Tada įvedate navigacijos maršrutą, kuris atrodė įtartinas, ir siūlote, o gal ir tiesiai šviesiai tvirtinate, kad AI buvo sukurtas turint šališką ar diskriminacinį tikslą ir galimybes.

Turėtume spėlioti dėl kitų Raudonosios vėliavos AI įstatymo detalių, kas nutiks toliau pagal šį konkretų scenarijų. Teoriškai būtų numatyta, kad kas nors peržiūrėtų raudoną vėliavą. Tikėtina, kad jie sieks priversti automobilių gamintoją ar savarankiškai vairuojančių technologijų įmonę paaiškinti savo požiūrį ant raudonos vėliavos. Kiek dar tokių raudonų vėliavų užregistruota? Kokius rezultatus davė tos raudonos vėliavos?

Ir taip toliau.

Išvada

Neįtikėtina, ragina kai kurie skeptikai.

Mums nereikia Red Flag AI įstatymų, jie griežtai laikosi. Darydami bet ką panašaus, dirbtinio intelekto tempas ir pažanga apsunkins darbus. Bet kokie tokie įstatymai būtų sudėtingi. Jūs sukurtumėte problemą, kuri neišsprendžia problemos. Yra ir kitų būdų, kaip susidoroti su AI, kurie yra blogi. Aklai neimkite už šiaudelių, kad susidorotumėte su šališku AI.

Perjungdami pavaras visi žinome, kad koriodininkai naudoja raudonus pelerinus, kad patrauktų pikto jaučio dėmesį. Nors raudona spalva mums labiausiai asocijuojasi su šia praktika, galbūt nustebsite sužinoję, kad mokslininkai teigia, kad jaučiai nesuvokia raudonos muleto spalvos (jie yra akli raudonai). Populiarus šou Mitų griovėjai atliko gana įdomų šio reikalo tyrimą. Pagrindinis elementas yra pelerinos judėjimas, o ne pasirinkta spalva.

Tiems, kurie atmeta „Red Flag AI“ įstatymų poreikį, priešpriešinis teiginys yra tas, kad mums reikia kažko dramatiško ir neabejotinai banguojančio pobūdžio, kad įsitikintume, jog DI kūrėjai ir įmonės, diegiančios AI, išvengs šališko ar blogo AI. Jei ne raudona vėliava, galbūt plazdantis apsiaustas ar iš esmės bet koks perspėjimo būdas gali būti deramai apsvarstyti.

Mes tikrai žinome, kad egzistuoja blogas AI ir kad mūsų kryptimi kryps daug daugiau blogo AI. Labai svarbu rasti būdų, kaip apsisaugoti nuo neigiamo AI. Lygiai taip pat svarbu nustatyti apsauginius turėklus, kad būtų išvengta blogo AI patekimo į pasaulį.

Ernestas Hemingvėjus garsiai pareiškė, kad niekas niekada nenugyvena savo gyvenimo iki galo, išskyrus koriodininkus. Turime užtikrinti, kad žmonės galėtų gyventi visą savo gyvenimą, nepaisant to, koks AI blogumas ar beprotybė mums yra paskelbta.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-nevezett-red-flag-ai-laws-for-calling-out- šališki-algoritmai-autonominėse-ai-sistemose/