Atsakingas dirbtinis intelektas mėgaujasi išskirtiniu postūmiu per AI etiką, paskelbtą aukščiausios profesionalų visuomenės ACM

Matėte ar girdėjote naujienas?

Dar vienas AI etikos priesakų rinkinys buvo neseniai paskelbtas.

Garsūs plojimai, jei prašau.

Tada vėl galite ne pastebėjo tai dėl to, kad tiek daug kitų AI etikos dekretų jau kurį laiką sklando. Kai kas sako, kad iš pažiūros nenutrūkstamas etiško AI pareiškimų sklaidymas tampa šiek tiek stingdantis. Kiek mums reikia? Ar kas nors gali suspėti juos visus? Kuris yra geriausias? Galbūt peržengiame AI etikos principus? Ir taip toliau.

Na, šiuo konkrečiu atveju sakau, kad turėtume ypač pasveikinti šį naujausią klubo papildymą.

Greitai įžvalgiai paaiškinsiu kodėl.

Pirmiausia, kaip paaiškinimą, kalbu apie AI etikos priesaką, dabar oficialiai žinomą kaip „Pareiškimas dėl atsakingų algoritminių sistemų principų“ kurį neseniai, 26 m. spalio 2022 d., paskelbė ACM technologijų politikos taryba. Dėkojame ekspertų komandoms, sukūrusioms šį vertingą dokumentą, įskaitant vieną iš pagrindinių autorių Jeanna Matthews (Clarkson University) ir Ricardo Baeza-Yates (Universitat Pompeu Fabra). ).

Tie, kurie žino, gali atidžiau pažvelgti į tai, kad šis dokumentas atrodo šiek tiek pažįstamas.

Gera akis!

Šis naujausias įsikūnijimas iš esmės yra atnaujintas ir išplėstas ankstesnio bendro „Algoritminio skaidrumo ir atskaitomybės pareiškimo“, kurį 2017 m. paskelbė ACM JAV technologijų politikos komitetas ir ACM Europos technologijų politikos komitetas, variantas. Ištikimi mano stulpelių skaitytojai gali prisiminti, kad Kartkartėmis paminėjau 2017 m. dekretą savo stulpelyje, kuriame aprašomi pagrindiniai AI etikos ir AI įstatymo aspektai.

Išsamų ir nuolatinį AI etikos ir AI teisės vertinimą bei tendencijų analizę žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Šis naujausias ACM pareiškimas yra ypač svarbus dėl kelių svarbių priežasčių.

Štai kodėl.

ACM, kuris yra patogus akronimas Kompiuterinių mašinų asociacija, yra laikoma didžiausia pasaulyje į kompiuteriją orientuota asociacija. Apytiksliai 110,000 1947 narių sudarytas ACM yra ilgametis skaičiavimo srities pradininkas. ACM atlieka kai kuriuos aukščiausius mokslinius tyrimus skaičiavimo srityje, taip pat teikia profesionalius tinklus ir kreipiasi į kompiuterijos specialistus. Taigi ACM yra svarbus balsas, paprastai atstovaujantis aukštųjų technologijų atstovams ir atkakliai stengėsi tobulėti kompiuterių srityje (ACM buvo įkurta XNUMX m.).

Taip pat galėčiau pridėti šiek tiek asmeninių pastabų. Kai vidurinėje mokykloje pirmą kartą įstojau į kompiuterius, prisijungiau prie ACM ir dalyvavau jų edukacinėse programose, ypač dėl įdomios galimybės dalyvauti kasmetiniame kompiuterių programavimo konkurse (šiais laikais tokie konkursai yra plačiai paplitę ir paprastai vadinami hakatonai). Aš ir toliau dalyvauju ACM, kol mokiausi kolegijoje per savo vietinio universiteto skyrių ir gavau galimybę sužinoti apie lyderystę, tapdamas studentų skyriaus pareigūnu. Pradėjęs dirbti pramonėje, prisijungiau prie profesionalaus skyriaus ir vėl ėmiau vadovaujančio vaidmens. Vėliau, kai tapau profesoriumi, dirbau ACM komitetuose ir redakcinėse kolegijose, taip pat rėmiau universiteto studentų skyrių. Net ir šiandien esu aktyvus ACM, taip pat dirbu ACM JAV technologijų politikos komitete.

Man patinka ACM miela ir ilgalaikė mokymosi visą gyvenimą ir karjeros plėtros vizija.

Bet kokiu atveju, kalbant apie naujausią AI etikos pareiškimą, tai, kad jį paskelbė ACM, turi tam tikrą svarbą. Galite pagrįstai teigti, kad etiniai AI nuostatai yra pasaulinės kompiuterių profesionalų grupės visuma arba kolektyvinis balsas. Tai čia kažką sako.

Taip pat yra aspektas, kad kiti kompiuterių srityje dirbantys žmonės bus įkvėpti atsigaivinti ir įsiklausyti taip, kad tinkamai atsižvelgtų į tai, ką pareiškime deklaruoja jų kolegos kompiuterių srityje. Taigi, net ir tiems, kurie nėra ACM arba nieko nežino apie gerbiamą grupę, tikimasi, kad bus labai įdomu sužinoti, apie ką šis teiginys.

Tuo tarpu tie, kurie yra Kompiuterijos srityje šis teiginys gali būti patrauktas kaip tam tikras vidinis žvilgsnis į užkulisius, ką kompiuteriai kalba apie etišką AI. Vis dėlto noriu pabrėžti, kad teiginys skirtas visiems, o ne tik kompiuterių bendruomenės nariams, todėl atminkite, kad dirbtinio intelekto etikos nuostatos yra tarsi visos.

Galiausiai, yra papildomas posūkis, į kurį tik nedaugelis pagalvotų.

Kartais pašaliečiai suvokia, kad kompiuterių asociacijos yra iki kelių technologijų srityje ir nelabai suvokia kompiuterių ir dirbtinio intelekto poveikį visuomenei. Gali kilti pagunda manyti, kad tokiems profesionaliems subjektams rūpi tik naujausi ir karščiausi techninės ar programinės įrangos laimėjimai. Visuomenė juos suvokia tiesiog šiurkščiai, kaip technikos niekšus.

Tiesą sakant, nuo tada, kai pradėjau dirbti su kompiuteriais, buvau pasinėręs į socialinį kompiuterijos poveikį, taip pat ACM taip pat labai domėjosi tokiomis temomis.

Tiems, kurie nustebo, kad šį teiginį apie AI etikos nuostatas sudarė ir paskelbė ACM, jie nekreipia dėmesio į ilgalaikius tyrimus ir darbą, vykstantį šiais klausimais. Taip pat norėčiau paraginti tuos, kurie domisi, gerai pažvelgti į ACM Etikos kodeksas, ryškus profesinės etikos kodeksas, kuris vystėsi bėgant metams ir pabrėžia, kad sistemų kūrėjai turi žinoti, laikytis ir būti budriems dėl etinių savo pastangų ir gaminių pasekmių.

AI kurstė ugnį, kai buvo informuota apie skaičiavimo etiką.

Etinių ir teisinių sumetimų matomumas kompiuterijos srityje nepaprastai išaugo, kai atsirado šiandieninis dirbtinis intelektas. Šios profesijos atstovai yra informuojami ir kartais nušviečiami, kad skiria tinkamą dėmesį dirbtinio intelekto etikos ir AI teisės klausimams. Įstatymų leidėjai vis labiau supranta AI etikos ir AI įstatymų aspektus. Įmonės suvokia, kad jų kuriamas ar naudojamas dirbtinis intelektas yra naudingas, tačiau kartais kelia didžiulę riziką ir galimus neigiamus aspektus.

Išskleiskime, kas vyko per pastaruosius kelerius metus, kad būtų galima nustatyti tinkamą kontekstą prieš pereinant prie naujausių AI etikos nuostatų.

Didėjantis etinio AI suvokimas

Naujausia AI era iš pradžių buvo laikoma tokia AI for Good, tai reiškia, kad galėtume panaudoti AI žmonijos tobulinimui. Ant kulnų AI for Good atėjo supratimas, kad mes taip pat pasinėrėme AI For Bad. Tai apima dirbtinį intelektą, kuris yra sukurtas arba savaime pakeistas į diskriminacinį ir priimantis skaičiavimo sprendimus, sukeldamas nepagrįstą šališkumą. Kartais dirbtinis intelektas yra sukurtas tokiu būdu, o kitais atvejais jis nukrypsta į tą nepalankią teritoriją.

Noriu visiškai įsitikinti, kad esame tame pačiame puslapyje dėl šiandieninio AI pobūdžio.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrios AI, kurią turime šiandien. Jei norėtume pašėlusiai spėlioti apie jausmingą AI, ši diskusija galėtų vykti radikaliai kita linkme. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, gali būti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimos itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Primygtinai siūlyčiau viską laikytis žemiškai ir atsižvelgti į šiandieninį skaičiavimo nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Būkite labai atsargūs antropomorfizuodami šiandieninį AI.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuvokti, kas vyksta. Dėl paslaptingos ML/DL matematikos gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Visa tai turi ypač reikšmingų AI etikos pasekmių ir siūlo patogų langą į išmoktas pamokas (net prieš tai, kai įvyksta visos pamokos), kai kalbama apie AI įstatymą.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie griežtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami dirbtinio intelekto pažangą, teikiančią didžiulių socialinių pranašumų.

Ankstesnėse skiltyse aprašiau įvairias nacionalines ir tarptautines pastangas rengti ir priimti įstatymus, reglamentuojančius dirbtinį intelektą, žr. nuoroda čia, pavyzdžiui. Taip pat aprašiau įvairius dirbtinio intelekto etikos principus ir gaires, kurias nustatė ir priėmė įvairios tautos, įskaitant, pavyzdžiui, Jungtinių Tautų pastangas, tokias kaip UNESCO AI etikos rinkinys, kurį priėmė beveik 200 šalių, žr. nuoroda čia.

Čia yra naudingas pagrindinis etinių AI kriterijų arba charakteristikų, susijusių su AI sistemomis, kurias anksčiau atidžiai tyrinėjau, sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Šiuos AI etikos principus nuoširdžiai turėtų taikyti AI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą.

Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo gyvavimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip buvo pabrėžta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti dirbtinio intelekto etikos nuostatas ir jų laikytis.

Aš taip pat neseniai išnagrinėjau AI teisių įstatymas Tai yra oficialus JAV vyriausybės oficialaus dokumento, pavadinto „AI Bill of Rights: Makeing Automated Systems Work for the American People“, pavadinimas, kuris buvo metus trukusių Mokslo ir technologijų politikos biuro (OSTP) pastangų rezultatas. ). OSTP yra federalinis subjektas, teikiantis patarimus Amerikos prezidentui ir JAV vykdomajai tarnybai įvairiais nacionalinės svarbos technologiniais, moksliniais ir inžineriniais aspektais. Šia prasme galima sakyti, kad šis AI Bill of Rights yra esamų JAV Baltųjų rūmų patvirtintas ir jų patvirtintas dokumentas.

AI teisės akte yra penkios pagrindinės kategorijos:

  • Saugios ir efektyvios sistemos
  • Algoritminė diskriminacijos apsauga
  • Duomenų privatumas
  • Įspėjimas ir paaiškinimas
  • Žmogaus alternatyvos, svarstymas ir atsargos

Aš atidžiai peržiūrėjau tuos nurodymus, žr nuoroda čia.

Dabar, kai padėjau naudingą pagrindą šioms susijusioms AI etikos ir AI teisės temoms, esame pasirengę pereiti prie neseniai išleisto ACM „Pareiškimo dėl atsakingų algoritminių sistemų principų“ (beje, nes dokumento pavadinimas nurodo atsakingas algoritmines sistemas, galbūt norėsite pažvelgti į mano vertinimą, ką reiškia kalbėti Patikimas AI, Žr. nuoroda čia).

Pasiruoškite kelionei į šį naujausią AI etikos principų rinkinį.

Įdėmiai gilinantis į ACM paskelbtas AI etikos nuostatas

ACM pareiškimas apie etišką AI susideda iš šių devynių kertinių akmenų:

  • Teisėtumas ir kompetencija
  • Žalos mažinimas
  • Sauga ir privatumas
  • Skaidrumas
  • Aiškinamumas ir aiškinamumas
  • Palaikomumas
  • Konkurencija ir auditiškumas
  • Atsakomybė ir atsakomybė
  • Apriboti poveikį aplinkai

Jei palyginsite šį naujausią rinkinį su kitais ypač prieinamais rinkiniais, tarp jų yra daug panašumų ar panašių atitikmenų.

Viena vertus, galite tai priimti kaip gerą ženklą.

Apskritai galime tikėtis, kad daugybė AI etikos principų susilieja į tą pačią bendrą aprėptį. Matydami, kad vienas rinkinys yra šiek tiek panašus į kitą rinkinį, įgyjate tarsi pasitikėjimo, kad šie rinkiniai yra toje pačioje aikštelėje, o ne kažkaip mįslingame kairiajame lauke.

Kai kurie gali skųstis dėl to, kad šie įvairūs rinkiniai atrodo maždaug vienodi, o tai gali sukelti painiavą ar bent jau nerimą dėl to, kad neturėtume turėti daugybės, atrodytų, besikartojančių sąrašų. Ar negali būti tik vienas sąrašas? Žinoma, problema ta, kad nėra paprasto būdo, kad visi tokie sąrašai būtų vienodai vienodi. Įvairios grupės ir skirtingi subjektai tai sprendė skirtingai. Geros naujienos yra tai, kad beveik visi jie padarė tą pačią bendrą išvadą. Galime nudžiuginti, kad rinkiniai neturi didelių skirtumų, o tai galbūt sukeltų mums nerimą, jei nebūtų bendro sutarimo.

Priešininkas gali raginti, kad šių sąrašų bendrumas kelia nerimą, teigdamas, kad galbūt vyksta grupinis mąstymas. Galbūt visos šios skirtingos grupės mąsto vienodai ir negali pažvelgti už normos ribų. Mes visi patenkame į vienodus spąstus. Sąrašai neva įtvirtina mūsų mąstymą ir mes negalime matyti toliau, nei savo nosis.

Neabejotinai verta pažvelgti už mūsų nosies.

Tikrai esu atviras išgirsti, ką turi pasakyti priešininkai. Kartais jie pagauna vėją to, kas turi titaniškas eina link milžiniško ledkalnio. Galėtume pasinaudoti keliomis erelio akies apžvalgos aikštelėmis. Tačiau, kalbant apie šiuos AI etikos nurodymus, priešininkai aiškiai nepasakė nieko, kas akivaizdžiai sumažintų ar sukeltų nerimą dėl vykstančio netinkamo bendrumo. Manau, kad mums sekasi gerai.

Šiame ACM rinkinyje yra keletas ypač reikšmingų ar išskirtinių punktų, kurie, mano nuomone, yra ypač verti dėmesio.

Pirma, man patinka aukščiausio lygio frazė, kuri šiek tiek skiriasi nuo įprastos.

Pavyzdžiui, remdamasis teisėtumas ir kompetencija (pirmasis punktas su ženkleliais) primena dizainerio ir valdymo kompetencijų, susijusių su AI, svarbą. Be to, teisėtumas Ši frazė galiausiai nukelia mus į AI etiką ir AI teisės sritis. Sakau tai todėl, kad daugelis dirbtinio intelekto etikos nuostatų beveik vien sutelkia dėmesį į etines pasekmes, tačiau atrodo, kad jos praleidžia arba vengia atkreipti dėmesį į teisinius padarinius. Teisės srityje etiniai sumetimai dažnai įvardijami kaip „negriežtieji įstatymai“, o knygelėse esantys įstatymai suprantami kaip „kieti įstatymai“ (tai reiškia, kad jie turi teisinių teismų svarbą).

Vieną iš mano mėgstamiausių visų laikų posakių ištarė garsus teisininkas Earlas Warrenas: „Civilizuotame gyvenime teisė plaukia etikos jūroje“.

Turime užtikrinti, kad dirbtinio intelekto etikos nuostatos taip pat apimtų ir pabrėžtų griežtąją dalykų pusę, pavyzdžiui, rengiant, priimant ir įgyvendinant AI įstatymus.

Antra, vertinu, kad į sąrašą įtraukta ginčijamumą ir audituojamumą.

Aš ne kartą rašiau apie galimybę varžytis arba iškelti raudoną vėliavą, kai jums taikoma AI sistema, žr. nuoroda čia. Be to, vis dažniau matysime naujus įstatymus, įpareigojančius atlikti AI sistemų auditą, apie kuriuos aš ilgai aptariau Niujorko (NYC) įstatymą dėl AI sistemų, naudojamų darbuotojų samdymui ir paaukštinimui, audito, žr. nuoroda čia. Deja, ir kaip aš atvirai kritikuoju naująjį Niujorko įstatymą, jei šie audito įstatymai bus klaidingi, jie tikriausiai sukurs daugiau problemų nei išspręs.

Trečia, pamažu bundama, kad dirbtinis intelektas gali sukelti tvarumo problemų, ir man malonu matyti, kad aplinkos tema gavo aukščiausio lygio atsiskaitymą šiuose AI etikos nurodymuose (žr. paskutinę sąrašo ženklą).

Vien tik AI sistemos sukūrimas gali sunaudoti daug skaičiavimo išteklių. Tie skaičiavimo ištekliai gali tiesiogiai arba netiesiogiai būti tvarumo užgrobėjais. Reikia atsižvelgti į AI teikiamą naudą ir su AI susijusias išlaidas. Paskutiniame iš ACM suženklintų elementų atkreipiamas dėmesys į tvarumą ir aplinkosaugos aspektus, kylančius naudojant AI. Norėdami sužinoti apie su AI susijusias anglies pėdsako problemas, žr nuoroda čia.

Dabar, kai labai pažvelgėme į ACM AI etikos priesakų sąrašą, toliau įkišame kojų pirštus į vandenis.

Čia pateikiami oficialūs kiekvieno aukšto lygio AI etikos nurodymo aprašymai (cituojami iš oficialaus pareiškimo):

1. "Teisėtumas ir kompetencija: Algoritminių sistemų kūrėjai turėtų turėti valdymo kompetenciją ir aiškų leidimą kurti ir diegti tokias sistemas. Jie taip pat turi turėti specialių žinių taikymo srityje, turėti mokslinį numatyto sistemų naudojimo pagrindą ir būti plačiai laikomi socialiai teisėtais sistemos paveiktų suinteresuotųjų šalių. Turi būti atliekami teisiniai ir etiniai vertinimai, siekiant patvirtinti, kad bet kokia sistemų keliama rizika bus proporcinga sprendžiamoms problemoms ir kad visos susijusios suinteresuotosios šalys supranta visus naudos ir žalos kompromisus.

2. "Sumažinti žalą: Algoritminių sistemų vadovai, dizaineriai, kūrėjai, naudotojai ir kitos suinteresuotosios šalys turėtų žinoti apie galimas klaidas ir šališkumą, susijusią su jų kūrimu, įgyvendinimu ir naudojimu, bei galimą žalą, kurią sistema gali padaryti asmenims ir visuomenei. Organizacijos turėtų reguliariai atlikti savo naudojamų sistemų poveikio vertinimus, kad nustatytų, ar sistema gali padaryti žalos, ypač diskriminacinės, ir taikyti atitinkamas mažinimo priemones. Kai įmanoma, jie turėtų pasimokyti iš faktinių veiklos rezultatų, o ne tik iš praeities sprendimų modelių, kurie patys galėjo būti diskriminaciniai.

3. "Saugumas ir privatumas: Kenkėjiškų šalių keliama rizika gali būti sumažinta diegiant geriausią saugumo ir privatumo praktiką kiekviename sistemos gyvavimo ciklo etape, įskaitant patikimą valdymą, siekiant sumažinti naujus pažeidžiamumus, atsirandančius algoritminių sistemų kontekste.

4. "Skaidrumas: Sistemos kūrėjai raginami aiškiai dokumentuoti, kaip konkretūs duomenų rinkiniai, kintamieji ir modeliai buvo parinkti kūrimui, mokymui, patvirtinimui ir testavimui, taip pat konkrečias priemones, kurios buvo naudojamos siekiant užtikrinti duomenų ir išvesties kokybę. Sistemos turėtų nurodyti savo pasitikėjimo lygį kiekvienu išėjimu, o žmonės turėtų įsikišti, kai pasitikėjimas yra mažas. Kūrėjai taip pat turėtų dokumentuoti metodus, kurie buvo naudojami siekiant ištirti galimą šališkumą. Sistemoms, turinčioms kritinį poveikį gyvybei ir gerovei, turėtų būti reikalingos nepriklausomos patikros ir patvirtinimo procedūros. Viešas duomenų ir modelių patikrinimas suteikia maksimalią galimybę juos pataisyti. Taigi kūrėjai turėtų palengvinti trečiųjų šalių testavimą visuomenės labui.

5. "Aiškinamumas ir paaiškinamumas: Algoritminių sistemų vadovai skatinami pateikti informaciją apie procedūras, kurių laikosi naudojami algoritmai (interpretamumas), ir apie konkrečius jų priimtus sprendimus (aiškinamumas). Paaiškinamumas gali būti toks pat svarbus kaip ir tikslumas, ypač viešosios politikos kontekste ar bet kurioje aplinkoje, kurioje nerimaujama, kaip algoritmai gali būti iškreipti, kad būtų naudingi vienai grupei prieš kitą be pripažinimo. Svarbu atskirti paaiškinimus ir po-faktinį racionalizavimą, kuris neatspindi įrodymų ar sprendimo priėmimo proceso, naudojamo paaiškinamai išvadai padaryti.

6. "Priežiūra: Visų algoritminių sistemų patikimumo įrodymai turėtų būti renkami per visą jų gyvavimo ciklą, įskaitant sistemos reikalavimų dokumentaciją, pakeitimų projektavimą ar įgyvendinimą, bandymų atvejus ir rezultatus bei rastų ir ištaisytų klaidų žurnalą. Norint tinkamai prižiūrėti, gali prireikti perkvalifikavimo sistemų su naujais mokymo duomenimis ir (arba) pakeisti naudojamus modelius.

7. "Galimybė konkuruoti ir audituoti: Reguliavimo institucijos turėtų skatinti taikyti mechanizmus, kurie leistų asmenims ir grupėms abejoti rezultatais ir siekti atlyginimo už neigiamą poveikį, atsirandantį dėl algoritmiškai pagrįstų sprendimų. Vadovai turėtų užtikrinti, kad duomenys, modeliai, algoritmai ir sprendimai būtų registruojami, kad būtų galima juos audituoti ir atkartoti rezultatus tais atvejais, kai įtariama ar įtariama žala. Audito strategijos turėtų būti paskelbtos viešai, kad asmenys, viešojo intereso organizacijos ir mokslininkai galėtų peržiūrėti ir rekomenduoti patobulinimus.

8. "Atsakomybė ir atsakomybė: Viešosios ir privačios įstaigos turėtų būti atsakingos už sprendimus, priimtus pagal jų naudojamus algoritmus, net jei neįmanoma išsamiai paaiškinti, kaip tie algoritmai davė rezultatus. Tokios įstaigos turėtų būti atsakingos už visas sistemas, įdiegtas jų specifiniame kontekste, o ne tik už atskiras dalis, sudarančias tam tikrą sistemą. Kai nustatomos problemos automatizuotose sistemose, už tų sistemų diegimą atsakingos organizacijos turėtų dokumentuoti konkrečius veiksmus, kurių jos imsis problemai ištaisyti ir kokiomis aplinkybėmis tokių technologijų naudojimas turėtų būti sustabdytas arba nutrauktas.

9. "Apribojamas poveikis aplinkai: Algoritminės sistemos turėtų būti sukurtos taip, kad praneštų apie poveikį aplinkai, įskaitant anglies dvideginio išmetimą tiek mokymo, tiek eksploatacinių skaičiavimų metu. AI sistemos turėtų būti suprojektuotos taip, kad būtų užtikrinta, jog jų anglies dvideginio išmetimas būtų pagrįstas, atsižvelgiant į tikslumo laipsnį, kurio reikalauja kontekstas, kuriame jos yra įdiegtos.

Tikiuosi, kad atidžiai ir nuodugniai perskaitysite kiekvieną iš šių esminių AI etikos nuostatų. Prašome priimti juos į širdį.

Išvada

Yra subtili, bet ne mažiau svarbi ACM pareiškimo dalis, kurią, manau, daugelis gali netyčia nepastebėti. Leiskite man tai atkreipti jūsų dėmesį.

Turiu užuominą apie dalį, kurioje aptariamas kankinantis galvosūkis, kai reikia pasverti kompromisus, susijusius su AI etikos taisyklėmis. Matote, dauguma žmonių, skaitydami etinius dirbtinio intelekto principus, dažnai linkčioja galva ir daro prielaidą, kad visi nurodymai yra vienodo svorio, o visiems įsakymams visada bus suteiktas toks pat optimalus pagarbos ir vertės panašumas.

Ne realiame pasaulyje.

Kai guma susitinka su keliu, bet koks dirbtinis intelektas, turintis net šiek tiek sudėtingumo, grubiai išbandys AI etikos nuostatas, nes kai kurie elementai yra pakankamai pasiekiami, palyginti su kai kuriais kitais principais. Suprantu, kad galite garsiai šaukti, kad visas AI turi maksimaliai išnaudoti visas AI etikos nuostatas, tačiau tai nėra ypač realu. Jei norite užimti tokią poziciją, drįstu teigti, kad tikriausiai turėtumėte pasakyti daugumai arba beveik visiems dirbtinio intelekto kūrėjams ir naudotojams uždaryti parduotuvę ir visiškai atsisakyti dirbtinio intelekto.

Reikia daryti kompromisus, kad dirbtinis intelektas išeitų pro duris. Nepaisant to, aš neskatinu imtis veiksmų, kurie pažeidžia AI etikos nuostatas, ir neteigiu, kad jie turėtų pažeisti AI įstatymus. Turi būti pasiektas tam tikras minimumas, kurį viršijus tikslas yra siekti daugiau. Galų gale reikia atidžiai įvertinti pusiausvyrą. Šis pusiausvyros veiksmas turi būti atliktas apgalvotai, aiškiai, teisėtai, o dirbtinio intelekto etika turi būti bona fide ir nuoširdus įsitikinimas (galbūt norėsite pamatyti, kaip įmonės naudoja dirbtinio intelekto etikos tarybas, siekdamos įgyti šį iškilmingą požiūrį, žr. nuoroda čia).

Štai keletas punktų, kurie ACM deklaracijoje minimi dėl kompromisų sudėtingumo (cituojama iš oficialaus dokumento):

  • „Sprendimai turėtų būti proporcingi sprendžiamai problemai, net jei tai turi įtakos sudėtingumui ar sąnaudoms (pvz., atmetus viešą vaizdo stebėjimą atliekant paprastą numatymo užduotį).
  • „Reikėtų atsižvelgti į daugybę našumo rodiklių ir gali būti vertinami skirtingai, atsižvelgiant į taikymo sritį. Pavyzdžiui, kai kuriose sveikatos priežiūros programose klaidingų neigiamų rezultatų poveikis gali būti daug blogesnis nei klaidingų teigiamų rezultatų, o baudžiamojoje justicijos srityje klaidingų teigiamų rezultatų pasekmės (pvz., nekalto asmens įkalinimas) gali būti daug blogesnės nei klaidingai teigiamų rezultatų. Labiausiai pageidaujama operacinės sistemos sąranka retai būna ta, kurios tikslumas yra didžiausias.
  • „Susirūpinimas dėl privatumo, komercinių paslapčių apsaugos arba analizės, kuri gali leisti piktybiniams veikėjams žaisti sistemoje, atskleidimas gali pateisinti prieigos apribojimą kvalifikuotiems asmenims, tačiau jie neturėtų būti naudojami siekiant pateisinti trečiųjų šalių tikrinimo apribojimą arba atleisti kūrėjus nuo prievolės. pripažinti ir ištaisyti klaidas“.
  • „Skaidrumas turi būti susietas su atskaitomybės procesais, kurie leistų suinteresuotosioms šalims, kurias paveikė algoritminė sistema, siekti prasmingo atlyginimo už padarytą žalą. Skaidrumas neturėtų būti naudojamas sistemai įteisinti ar atsakomybės perkėlimui kitoms šalims.
  • „Kai sistemos poveikis yra didelis, geriau paaiškinti sistemą. Daugeliu atvejų paaiškinamumo ir tikslumo nėra kompromiso. Tačiau kai kuriais atvejais neteisingas paaiškinimas gali būti dar blogesnis už nepaaiškinimą (pvz., sveikatos sistemose simptomas gali atitikti daugybę galimų ligų, o ne vieną).

Tie, kurie kuria ar naudoja AI, gali nesuvokti kompromisų, su kuriais susiduria. Aukščiausi įmonės vadovai gali naiviai manyti, kad dirbtinis intelektas atitinka visus AI etikos principus. Jie arba tiki tuo, nes nežino dirbtinio intelekto, arba nori tuo tikėti ir galbūt mirkteli, kad lengvai pritaikytų dirbtinį intelektą.

Tikėtina, kad nesugebėjimas iš esmės ir atvirai susidoroti su kompromisais baigsis dirbtinio intelekto, kuris pridarys žalos. Tokia žala savo ruožtu greičiausiai atvers įmonei potencialiai didelio masto įsipareigojimus. Be to, už galimas nusikalstamas veikas, susijusias su dirbtiniu intelektu, gali būti taikomi įprasti įstatymai, taip pat naujesni į dirbtinį intelektą skirti įstatymai. Daugybė plytų laukia virš galvų tų, kurie mano, kad gali išspręsti kompromisus arba kurie visiškai nežino, kad kompromisai egzistuoja (juos neišvengiamai užklups triuškinantis supratimas).

Šiuo metu duosiu paskutinį žodį šia tema baigiamajam ACM pareiškimo aspektui, nes manau, kad jis atlieka tvirtą darbą paaiškindamas, ką makroskopiškai siekiama atskleisti šiais etiniais AI nurodymais:

  • „Anksčiau pateiktose rekomendacijose daugiausia dėmesio skiriama atsakingam algoritminių sistemų projektavimui, kūrimui ir naudojimui; atsakomybę turi nustatyti įstatymai ir viešoji tvarka. Didėjanti algoritminių sistemų galia ir jų naudojimas gyvybiškai svarbiose ir reikšmingose ​​programose reiškia, kad jas reikia naudoti labai atsargiai. Šie devyni pagrindiniai principai turi įkvėpti pradėti diskusijas, inicijuoti tyrimus ir plėtoti valdymo metodus, kurie būtų naudingi daugeliui vartotojų, kartu skatinant patikimumą, saugą ir atsakomybę. Galų gale, tai yra konkretus kontekstas, kuris apibrėžia teisingą algoritminės sistemos dizainą ir naudojimą bendradarbiaujant su visų paveiktų suinteresuotųjų šalių atstovais“ (cituota iš oficialaus dokumento).

Išminties žodžiai įžvalgiai byloja, tūkstančio mylių kelionė prasideda nuo pirmo žingsnio.

Maldauju susipažinti su AI etika ir dirbtinio intelekto įstatymais, žengti bet kokį pirmąjį žingsnį, kuris paskatins jus pradėti, o tada padėti tęsti šias gyvybiškai svarbias pastangas. Gražu yra tai, kad mes vis dar tik pradedame išsiaiškinti, kaip valdyti dirbtinį intelektą ir visuomenei susidoroti su juo, todėl jūs patenkate į pirmąjį aukštą ir jūsų pastangos gali akivaizdžiai formuoti jūsų ir mūsų visų ateitį.

AI kelionė dar tik prasidėjo, o svarbūs pirmieji žingsniai vis dar vyksta.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- profesija-asociacija-acm/