AI etika ir dirbtinio intelekto įstatymai tiesiog gali būti paskatinti ir priversti įspėti apie visus esamus ir būsimus AI privalomus saugos įspėjimus

Jūsų kasdienė veikla neabejotinai yra bombarduojama tūkstančiais ar daugiau vienokių ar kitokių atsargumo priemonių.

Išbandykite šiuos dydžius:

  • Apsauginius akinius būtina nešioti visą laiką
  • Pavojus: netoliese esančios pavojingos cheminės medžiagos
  • Aukšta įtampa – saugokitės
  • Įspėjimas: atkreipkite dėmesį į aplinką
  • Daiktai veidrodyje yra arčiau nei atrodo
  • Išimkite vaiką prieš sulankstydami (kaip nurodyta ant kūdikių vežimėlių)
  • Įspėjimas: būtinai nepaisykite šio pranešimo

Dauguma jų yra patogūs ir visiškai apgalvoti ženklai ar etiketės, padedančios mums, tikėkimės, apsaugoti.

Atminkite, kad įtraukiau keletą „išskirtinių“ sąraše, kad atkreipčiau dėmesį į keletą svarbių dalykų.

Pavyzdžiui, kai kurie žmonės mano, kad kūdikių vežimėliuose yra priklijuota etiketė, įspėjanti nesulankstyti vežimėlio, kol kūdikis vis dar sėdi vežimėlyje. Nors ženklas neabejotinai tinkamas ir pareigingai naudingas, atrodo, kad elementaraus sveiko proto jau pakaktų.

Kuris žmogus savo sąmoningu noru nesuvoktų, kad pirmiausia reikia išimti kūdikį?

Na, o kiti pabrėžia, kad tokios etiketės atlieka svarbų tikslą. Pirma, kažkas iš tikrųjų gali pamiršti, kad prieš sulankstydamas vežimėlį reikia išimti kūdikį. Galbūt žmogus manė, kad vežimėlis buvo sumaniai sukurtas taip, kad sulankstymas nepakenktų kūdikiui. Arba, galbūt, yra įmontuotų saugos funkcijų, kurios neleidžia sulankstyti, kai vežimėlyje yra vaikas. ir kt.

Be to, gali būti, kad asmuo buvo išsiblaškęs ir be proto būtų sulankstęs vežimėlį, apgaubdamas kūdikį ir visa kita, tačiau etiketė, laimei, paskatino asmenį to nedaryti (kai kurie ginčytųsi, kad mažai tikėtina, kad toks asmuo pastebės etiketę šiaip). Taip pat yra tai, kad kas nors gali paduoti į teismą vežimėlio gamintoją, jei tokios etiketės nebūtų. Galite įsivaizduoti vieną iš tų didelių ieškinių, kai kūdikis buvo sužalotas, o vienas iš tėvų nusprendė surinkti milijoną dolerių, nes ant vežimėlio nebuvo įspėjamojo ženklo. Vežimėlių kompanija apgailestautų, kad neišleido kelių centų, reikalingų įspėjamiesiems ženklams pagaminti ir ant savo vežimėlių užklijuoti.

Taip pat atidžiai peržiūrėkite paskutinius įspėjamuosius pranešimus, kuriuos išvardijau aukščiau.

Nusprendžiau įdėti įkyrų pranešimą, kad būtinai nekreipčiau dėmesio į pranešimą, nes šiais laikais yra daug netikrų įspėjamųjų etikečių, kurias žmonės perka ar gamina tiesiog norėdami pasilinksminti. Šis yra tikras filosofinis mąstytojas. Jei perskaitėte įspėjimą, kuriame sakoma nekreipti dėmesio į įspėjimą, ką tiksliai daryti perskaičius įspėjimą? Jūs jau perskaitėte, todėl neva tai yra jūsų galvoje. Žinoma, galite tai ignoruoti, bet vėlgi, jums visai nerekomenduojama, ką turėtumėte ignoruoti. Šis pokštas vyksta aplinkui.

Žinoma, bona fide įspėjamieji užrašai paprastai nėra juokingi ar juokingi.

Į įspėjimus turime žiūrėti gana rimtai.

Paprastai, jei nesilaikote pažymėto įspėjimo, tai darote su asmenine didele rizika. Be to, gali būti, kad jei nesilaikysite įspėjimo ir jo nesilaikysite, taip pat gali kilti pernelyg didelė rizika kitiems. Apsvarstykite automobilio vairavimo veiksmą. Kai sėdite prie automobilio vairo, jūsų, kaip vairuotojo, veiksmai gali pakenkti jums pačiam, taip pat galite pakenkti savo keleiviams ir kitiems, pavyzdžiui, žmonėms kituose automobiliuose ar netoliese esantiems pėstiesiems. Šia prasme įspėjimas naudingas ne tik jums, bet ir kitiems.

Kodėl slepiu šiuos įspėjimų ir įspėjamųjų etikečių aspektus?

Kadangi kai kurie įnirtingai tvirtina, kad mums reikia įspėjamųjų ir įspėjamųjų ženklų dėl šiandieninio dirbtinio intelekto (DI).

Tiesą sakant, tokias etiketes norima klijuoti ir šiandieniniam, ir būsimam AI. Apibendrinant, visas dirbtinis intelektas turės tam tikrą įspėjimo ar įspėjamojo nurodymo formą ar variantą.

Gera mintis ar bloga mintis?

Praktiška ar nepraktiška?

Eikime į priekį, išpakuosime koncepciją ir pažiūrėkime, ką galime iš to padaryti.

Pirmiausia norėčiau pakloti esminius AI, ypač AI etikos ir AI teisės pagrindus, siekdamas užtikrinti, kad AI įspėjimų tema būtų kontekstualiai tinkama. Tiems iš jūsų, kurie paprastai domisi etišku AI ir AI įstatymu, žiūrėkite mano išsamią ir nuolatinę aprėptį adresu nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Didėjantis supratimas apie etinį AI ir taip pat dirbtinio intelekto įstatymą

Naujausia AI era iš pradžių buvo laikoma tokia AI for Good, tai reiškia, kad galėtume panaudoti AI žmonijos tobulinimui. Ant kulnų AI for Good atėjo supratimas, kad mes taip pat pasinėrėme AI For Bad. Tai apima dirbtinį intelektą, kuris yra sukurtas arba savaime pakeistas į diskriminacinį ir priimantis skaičiavimo sprendimus, sukeldamas nepagrįstą šališkumą. Kartais dirbtinis intelektas yra sukurtas tokiu būdu, o kitais atvejais jis nukrypsta į tą nepalankią teritoriją.

Noriu visiškai įsitikinti, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrios AI, kurią turime šiandien. Jei norėtume pašėlusiai spėlioti apie jausmingą AI, ši diskusija galėtų vykti radikaliai kita linkme. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, gali būti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimos itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Primygtinai siūlyčiau viską laikytis žemiškai ir atsižvelgti į šiandieninį skaičiavimo nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Būkite labai atsargūs antropomorfizuodami šiandieninį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuvokti, kas vyksta. Dėl paslaptingos ML/DL matematikos gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Visa tai turi ypač reikšmingų AI etikos pasekmių ir siūlo patogų langą į išmoktas pamokas (net prieš tai, kai įvyksta visos pamokos), kai kalbama apie AI įstatymą.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų.

Ankstesnėse skiltyse aprašiau įvairias nacionalines ir tarptautines pastangas rengti ir priimti įstatymus, reglamentuojančius dirbtinį intelektą, žr. nuoroda čia, pavyzdžiui. Taip pat aprašiau įvairius dirbtinio intelekto etikos principus ir gaires, kurias nustatė ir priėmė įvairios tautos, įskaitant, pavyzdžiui, Jungtinių Tautų pastangas, tokias kaip UNESCO AI etikos rinkinys, kurį priėmė beveik 200 šalių, žr. nuoroda čia.

Čia yra naudingas pagrindinis etinių AI kriterijų arba charakteristikų, susijusių su AI sistemomis, kurias anksčiau atidžiai tyrinėjau, sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Šiuos AI etikos principus nuoširdžiai turėtų taikyti AI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą.

Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo gyvavimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip buvo pabrėžta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti dirbtinio intelekto etikos nuostatas ir jų laikytis.

Aš taip pat neseniai išnagrinėjau AI teisių įstatymas Tai yra oficialus JAV vyriausybės oficialaus dokumento, pavadinto „AI Bill of Rights: Makeing Automated Systems Work for the American People“, pavadinimas, kuris buvo metus trukusių Mokslo ir technologijų politikos biuro (OSTP) pastangų rezultatas. ). OSTP yra federalinis subjektas, teikiantis patarimus Amerikos prezidentui ir JAV vykdomajai tarnybai įvairiais nacionalinės svarbos technologiniais, moksliniais ir inžineriniais aspektais. Šia prasme galima sakyti, kad šis AI Bill of Rights yra esamų JAV Baltųjų rūmų patvirtintas ir jų patvirtintas dokumentas.

AI teisės akte yra penkios pagrindinės kategorijos:

  • Saugios ir efektyvios sistemos
  • Algoritminė diskriminacijos apsauga
  • Duomenų privatumas
  • Įspėjimas ir paaiškinimas
  • Žmogaus alternatyvos, svarstymas ir atsargos

Aš atidžiai peržiūrėjau tuos nurodymus, žr nuoroda čia.

Dabar, kai padėjau naudingą pagrindą šioms susijusioms AI etikos ir AI teisės temoms, esame pasiruošę pereiti į svaiginančią temą, ar AI turi būti su įspėjamomis etiketėmis, ar ne.

Pasiruoškite akis atveriančiai informacinei kelionei.

Įspėjamųjų etikečių klijavimas ant AI kaip priemonė apsaugoti žmoniją

Vis garsiau kalbama, kad galbūt dirbtinis intelektas turėtų būti su kažkokiu įspėjimu.

Pavyzdžiui, neseniai paskelbtame straipsnyje MIT Technology Review aptariant didėjantį susidomėjimą dirbtinio intelekto auditais, kilo mintis teikti įspėjamuosius ženklus: „Šių auditų skaičiaus augimas rodo, kad vieną dieną galime pamatyti cigarečių pakelių tipo įspėjimus, kad AI sistemos gali pakenkti jūsų sveikatai ir saugai. Kituose sektoriuose, pavyzdžiui, chemijos ir maisto sektoriuose, reguliariai atliekami auditai, siekiant užtikrinti, kad produktai būtų saugūs naudoti. Ar kažkas panašaus gali tapti AI norma? (MIT Technology Review, Melissa Heikkilä, 24 m. spalio 2022 d.).

Pakalbėkime šiek tiek apie įspėjamuosius ir įspėjamuosius ženklus.

Visi jau žinome apie įspėjamuosius ir įspėjamuosius ženklus ant daugelio kasdienių produktų ir paslaugų. Kartais įstatymai numato, kad saugos ženklai yra privalomi, o kitais atvejais yra diskrecija naudoti tokius ženklus. Be to, kai kurie saugos ženklai yra standartizuoti, pavyzdžiui, nurodyti pagal ANSI Z535 standartą ir OSHA 1910.14 standartą. Šie standartai apima tokius aspektus kaip žymens formuluotė, naudojamos spalvos ir šriftai, žymens forma ir įvairios kitos detalės.

Prasminga turėti standartus tokiems įspėjamiesiems ženklams. Kai pamatysite tokį ženklą, jei jis atitinka nurodytus standartus, labiau tikėtina, kad jis yra teisėtas, be to, jums reikia mažiau pažinimo apdorojimo, kad galėtumėte analizuoti ir suprasti ženklą. Ženklams, kurių požiūris nėra standartizuotas, dažnai turite mintyse apskaičiuoti, ką ženklas jums sako, galbūt sugaišite brangaus laiko imtis veiksmų arba galite visiškai neteisingai įvertinti ženklą ir tinkamai nesuprasti perspėjimo.

Tokių ženklų gali būti įvairių, kuriems jie dažnai klasifikuojami taip:

  • Pavojaus ženklas: didžiausias susirūpinimas ir tiesioginis pavojus su galimomis sunkiomis pasekmėmis
  • Įspėjamasis ženklas: rodo pavojų, kuris yra mažesnis nei „pavojus“, bet vis tiek gana rimtas
  • Įspėjamasis ženklas: rodo galimą pavojų, kuris yra mažesnis nei „įspėjimas“, bet vis tiek rimtas
  • Pranešimo ženklas: rodo informacinį įspėjimą, kuris yra mažesnis nei „atsargiai“, bet vis tiek kelia nerimą

Atsižvelgdami į tai, kas išdėstyta pirmiau apie perspėjimus ir įspėjamuosius ženklus, galime tęsti ir pabandyti tai pritaikyti atsižvelgiant į AI naudojimą.

Pirma, galbūt galėtume kažkaip susitarti, kad dirbtinio intelekto ženklai gali būti panašaus sunkumo diapazono, kaip įprasta kasdieniams ženklams, pavyzdžiui:

  • AI pavojaus ženklas: AI kelia didžiausią susirūpinimą ir rodo tiesioginį pavojų su galimomis rimtomis pasekmėmis
  • AI įspėjamasis ženklas: AI rodo pavojų, kuris yra mažesnis nei „pavojus“, bet vis tiek gana rimtas
  • AI įspėjamasis ženklas: AI rodo galimą pavojų, kuris yra mažesnis nei „perspėjimas“, bet vis tiek rimtas
  • AI pranešimo ženklas: AI rodo informacinį įspėjimą, kuris yra mažesnis nei „atsargumas“, bet vis tiek kelia nerimą

Esmė ta, kad ne visi AI kels vienodą nerimą. Gali būti, kad dirbtinis intelektas kelia didžiulę riziką arba turi tik nedidelę riziką. Atitinkamai, ženklinimas turėtų atspindėti, kuris yra kuris. Jei visi AI įspėjimai ar įspėjamieji ženklai būtų tiesiog parodyti kaip to paties kalibro, tikriausiai nežinotume arba nežinotume, ar DI nerimauti reikėtų labai, ar tik šiek tiek. Tipiškos formuluotės schemos naudojimas gali palengvinti gyvenimą, kai matote ir interpretuojate su AI susijusius įspėjamuosius ženklus.

Jums gali kilti klausimas, ką dar ženklai pasakytų apie perduodamos žinutės specifiką.

Tai tikrai sunkiau sprendžiamas dalykas. AI galimybės daryti dalykus, kurie laikomi nesaugiais ar keliančiais nerimą, būtų nepaprastai dideli, beveik begaliniai. Ar galime juos suskirstyti į įprastą rinkinį, kurį kiekvienas išreiškia tik sauja žodžių? O gal turėsime leisti taikyti laisvesnę formuluotę?

Leisiu jums apmąstyti šį atvirą klausimą.

Judėdami toliau, mes linkę matyti ant objektų iškabintus įspėjamuosius ženklus. AI sistema nebūtinai yra „objektas“ ta pačia prasme, kaip įprastas ženklų tvirtinimas. Tai kelia klausimą, kur bus pateikti įspėjamieji AI ženklai.

Gali būti, kad kai naudojate programą išmaniajame telefone, pasakykite, kad jei jis naudoja dirbtinį intelektą, bus rodomas pranešimas, kuriame yra su AI susijęs įspėjimas. Programa įspės jus apie pagrindinį AI naudojimą. Tai gali būti iššokantis pranešimas arba pateikiamas įvairiais vaizdiniais ir net garsiniais būdais.

Taip pat yra situacija, kai naudojatės paslauga, kurią palaiko AI, nors galite tiesiogiai su AI nebendrauti. Pavyzdžiui, galite kalbėtis su žmogiškuoju agentu apie būsto paskolos gavimą, o agentas tyliai dirba užkulisiuose, naudodamas dirbtinio intelekto sistemą, kad nukreiptų savo pastangas.

Taigi turėtume numatyti, kad AI įspėjamieji ženklai turėtų būti abiem AI naudojimo atvejais, kad:

  • Konkretaus produkto AI: AI, kaip produktas, turi turėti tiesioginius AI įspėjamuosius arba įspėjamuosius ženklus
  • Į paslaugas orientuotas AI: AI kaip paslauga (tiesiogiai arba netiesiogiai) turi turėti AI įspėjamuosius arba įspėjamuosius ženklus

Skeptikai tikrai netruks pasiūlyti, kad AI įspėjamąjį ženklą programos kūrėjas gali klastingai užmaskuoti, kad įspėjimas nebūtų ypač pastebimas. Galbūt įspėjimas pasirodo trumpam ir jūs tikrai nepastebite, kad jis buvo parodytas. Kitas gudrus triukas būtų sukurti savotišką žaidimą, kuris, atrodo, sumažintų perspėjimo rimtumą ir priverstų žmones manyti, kad įspėjimas yra nereikšmingas.

Taip, galite lažintis, kad bet kokie su dirbtiniu intelektu susiję įspėjamieji ženklai bus apgauti ir naudojami tokiais būdais, kurie neatitinka įspėjamųjų pranešimų, kuriuos jie turėtų perduoti, dvasios ir tikslo.

Visi šie skepticizmai sutampa su tuo, ar AI etiką naudosime kaip „švelniuosius įstatymus“, siekdami imtis veiksmų, susijusių su DI įspėjimais ir perspėjimais, ar pasinaudosime „griežtais įstatymais“, įskaitant priimtus įstatymus, kuriuos remia teismas. Teoriškai neprivalomas teisės aktas leistų labiau žaisti su šiuo klausimu, o įstatymai dėl knygų turėtų galimybę vykdyti vyriausybę ir suteiktų didesnį griežtumą.

Kitas rūpestis yra tai, ar AI ženklai vis tiek turės įtakos.

Daugybė vartotojų elgesio tyrimų rodo neaiškus rezultatus, kai reikia pateikti įspėjamąsias etiketes vartotojams. Kartais įspėjimai yra veiksmingi, kartais ne. Kai kuriuos iš šių tyrimų pritaikykime dirbtinio intelekto kontekstui.

Apsvarstykite šiuos aspektus:

  • Aptikimas: Ar tie, kurie naudoja dirbtinį intelektą, kuriame yra veikiantis AI įspėjamasis ženklas, aktyviai pastebėtų arba aptiktų, kad ženklas jiems rodomas (darant prielaidą, kad toks ženklas atsirado)?
  • Supratimas: Tie, kurie pastebėjo, ar jie supras, ką jiems bando pasiūlyti AI įspėjamasis ženklas?
  • Veiksmas: Ar tiems, kurie daro šį protinį šuolį, AI įspėjamasis ženklas paskatins juos imtis veiksmų ar kitaip padės atitinkamai nukreipti jų elgesį?

Galite numatyti, kad jei AI įspėjamieji ženklai įgaus pagreitį, mokslininkai ketina atidžiai išnagrinėti šį klausimą. Idėja būtų padėti išsiaiškinti, kokiomis aplinkybėmis įspėjimai yra naudingi, o kada ne. Tai savo ruožtu susiję su dizainu ir išvaizda bei jausmu. Taip pat galime tikėtis, kad plačiąją visuomenę reikės šviesti arba informuoti apie šių AI įspėjamųjų ir įspėjamųjų ženklų atsiradimą, kad jie prie jų priprastų.

Reikia atsižvelgti į daugybę posūkių ir posūkių.

Ar AI įspėjamasis arba įspėjamasis ženklas turėtų pasirodyti tik programos naudojimo pradžioje? Galbūt atspirties taško neužtenka. Asmuo iš pirmo žvilgsnio gali manyti, kad programa tik saugiai žaidžia naudodama įspėjimą, todėl į įspėjimą nelabai atsižvelgia. Kai asmuo pradeda naudotis programa, galbūt būtų pateisinamas papildomas įspėjimas. Tokiu atveju asmuo geriau suvokia, ką programėlė imasi, ir galbūt jau pamiršo anksčiau nurodytą įspėjamąjį pranešimą.

Tada gali atsirasti AI įspėjimas arba perspėjimas:

  • Prieš paleisdami programą ir tuo metu, kai programa bus iškviesta
  • Pateikiama paleidus programą ir tik pradžios taške
  • Rodoma pradžioje ir vėl viduryje
  • Rodoma kelis kartus per AI naudojimą
  • Pateikiama programos naudojimo pabaigoje
  • Pateikite išėjus iš programos ir galbūt net po minučių, valandų ar dienų
  • Ir tt

Ar manote, kad dirbtinį intelektą naudojantys asmuo turi patvirtinti ar pripažinti tokius AI įspėjimus ar įspėjamuosius ženklus?

Kai kurie primygtinai reikalauja, kad asmuo pripažintų, kad matė įspėjimus. Tai gali užkirsti kelią tiems, kurie galėtų tvirtinti, kad nebuvo jokio įspėjamojo pranešimo. Tai taip pat gali paskatinti žmones rimčiau žiūrėti į pranešimus, nes jų prašoma patvirtinti, kad jie pastebėjo įspėjamąjį nurodymą.

Štai jums sunkus klausimas.

Jei visi AI turi pateikti įspėjimą ar saugos nurodymą?

Galite ginčytis, kad taip, visi AI turi tai turėti. Net jei dirbtinis intelektas kelia tik nedidelį pavojų saugai, jis vis tiek turėtų turėti tam tikrą įspėjamąjį ženklą, galbūt tik pranešimą arba informacinę nuorodą. Kiti ginčytų šį teiginį. Jie prieštarautų, kad jūs peržengiate bortą. Ne visiems AI to reikia. Be to, jei priversite visą dirbtinį intelektą jį turėti, susilpninsite tikslą. Žmonės taps bejausmi, matydami įspėjamuosius nurodymus. Visas požiūris taps farsu.

Kalbant apie susijusį kampą, apsvarstykite, ką gali pasakyti AI kūrėjai.

Vienas požiūris būtų toks, kad tai bus kančia žinant, ką įdėti. Pakeisti visas AI sistemas ir pridėti šią funkciją gali būti brangu. Pridėjus ją toliau, gali kainuoti pigiau, tačiau vis dėlto yra išlaidų, susijusių su šios nuostatos įtraukimu.

Miglotumas yra dar vienas galimas skundas. Kokią žinią reikia parodyti? Jei nėra jokių standartų, tai reiškia, kad dirbtinio intelekto kūrėjai turės ką nors sukurti iš naujo. Tai ne tik kainuoja, bet ir gali atverti duris į teismą. Galite įsivaizduoti, kad dirbtinio intelekto kūrėjas gali būti priimtas į užduotį, kad jų įspėjimas nebuvo toks geras kaip kai kurios kitos AI sistemos. Advokatai iš susidariusios painiavos susitvarkys.

Taip pat nerimaujama, kad žmonės pernelyg išsigąs dėl šių saugos pranešimų.

Dirbtinio intelekto kūrėjas gali pastebėti staigų vartotojų skaičiaus sumažėjimą dėl saugos pranešimo, skirto tik informaciniam įspėjimui. Žmonės nežinos, ką daryti su pranešimu. Jei jie anksčiau nematė tokių pranešimų, jie gali iš karto išsigąsti ir be reikalo vengti dirbtinio intelekto naudojimo.

Paminėju šiuos aspektus, nes kai kurie jau skelbia, kad „tai negali pakenkti“ pradėti įtraukti AI įspėjimus ar saugos pranešimus. Jiems idėja ideali kaip obuolių pyragas. Niekas negalėjo rimtai paneigti, kad visada reikalaujama su AI susijusios saugos ar įspėjimų. Bet, žinoma, tai nėra realus mąstymo būdas apie šį klausimą.

Jūs netgi galite eiti toliau ir teigti, kad AI įspėjamieji pranešimai gali sukelti tam tikrą masinę isteriją. Jei mes staiga pradėtume priversti dirbtinio intelekto sistemas turėti tokius pranešimus, žmonės galėtų klaidingai suprasti ketinimą. Matote, yra daug raginimų, kad mes susiduriame su AI egzistencine krize, kurios metu AI užvaldys pasaulį ir sunaikins žmoniją, žr. nuoroda čia už mano tokių teiginių analizę.

AI įspėjamasis pranešimas gali „įkvėpti“ kai kuriuos žmones patikėti, kad pabaiga arti. Kodėl kitaip pranešimai turėtų būti rodomi dabar? Žinoma, tai rodo, kad pagaliau AI ruošiasi tapti mūsų sleginčiais viršininkais.

Savotiškas beviltiškai niūrus rezultatas bandant pasielgti teisingai, informuojant visuomenę apie tai, kaip dirbtinis intelektas gali būti įkvėptas diskriminacinių gebėjimų ar kitų AI For Bad aspektai.

Išvada

Garsus amerikiečių poetas Jamesas Russellas Lowellas kartą pasakė taip: „Vienas patirties spygliukas vertas perspėjimo dykumos“.

Pateikiu aukštą pastabą, kad pateikčiau keletą baigiamųjų pastabų dėl AI įspėjimų ar saugos pranešimų.

Tikėtina, kad tol, kol nebus plačiai paplitęs supratimas, kad AI daro blogus darbus, nebus daug triukšmo dėl su AI susijusių įspėjamųjų pranešimų. Tie dirbtinio intelekto kūrėjai, kurie pasirenka tai padaryti savo noru, galbūt bus pagirti, nors jie taip pat gali netyčia atsidurti nesąžiningai persekiojami. Kai kurie žinovai gali sekti juos panaudoję dirbtinį intelektą, kuriam, atrodo, iš pradžių reikia įspėjimų, o tuo tarpu nesuvokti, kad jie bandė eiti pirmieji, o visi kiti dirbtinio intelekto kūrėjai atsilieka.

Prakeiktas, jei tai padarysi, galbūt neperšlampama, jei ne.

Kitas svarstymas susijęs su gražios konceptualios idėjos pavertimu praktiška ir naudinga praktika. Lengva mojuoti rankomis ir neaiškiai šaukti vėjams, kad dirbtinis intelektas turi turėti įspėjamuosius ir saugos pranešimus. Sunkiausia dalis yra sprendžiant, kokios tos žinutės turėtų būti, kada ir kur jos turėtų būti pateiktos, ar jų kaina atneša pakankamai naudos, ir taip toliau.

Šiuo metu paskutinį žodį (poetiškai) šia tema duosime Jamesui Russellui Lowellui: „Kūrybiškumas yra ne daikto suradimas, o kažko iš jo padarymas jį radus“.

Atspėk, kad laikas pasiraitoti rankoves ir pradėti tai dirbti. Ir tai ne tik įspėjimas, bet ir veiksmas.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- įspėjimai apie visus esamus ir ateities-ai/