AI etika ir dirbtinio intelekto įstatymas, paaiškinantis, kas iš tikrųjų yra patikimas AI

Pasitikėjimas yra viskas, taip sakoma.

Žymus filosofas Lao Tzu sakė, kad tais, kurie nepakankamai pasitiki, nepasitikės. Ernestas Hemingvėjus, gerbiamas romanistas, teigė, kad geriausias būdas sužinoti, ar galite kuo nors pasitikėti, yra juo pasitikėti.

Tuo tarpu atrodo, kad pasitikėjimas yra ir brangus, ir trapus. Pasitikėjimas, kurį žmogus turi, gali žlugti kaip kortų namelis arba staiga sprogti kaip iššokęs balionas.

Senovės graikų tragedikas Sofoklis tvirtino, kad pasitikėjimas miršta, bet nepasitikėjimas žydi. Prancūzų filosofas ir matematikas Dekartas tvirtino, kad protinga niekada visiškai nepasitikėti tais, kurie mus apgavo nors kartą. Milijardierius verslo investuotojas, nepaprastas Warrenas Buffettas paragino, kad reikia dvidešimties metų sukurti patikimą reputaciją ir penkių minučių ją sugriauti.

Galbūt nustebsite sužinoję, kad visos šios įvairios nuomonės ir provokuojančios nuomonės apie pasitikėjimą yra labai svarbios dirbtinio intelekto (DI) atsiradimui.

Taip, yra kažkas, kas įžūliai vadinama patikimas AI į tai šiomis dienomis vis sulaukiama daug dėmesio, įskaitant verčiančius skambučius iš AI srities ir triukšmingus žmonių, nepriklausančių dirbtinio intelekto sričiai, protrūkius. Bendra sąvoka reiškia, ar visuomenė norės pasitikėti tokiomis DI sistemomis, kaip.

Tikėtina, kad jei visuomenė nepasitikės arba negalės pasitikėti DI, yra tikimybė, kad AI sistemos nesugebės pritraukti. Šiuo metu žinomas AI bus nustumtas į šalį ir tik rinks dulkes. Stebėtina, kad dirbtinis intelektas gali atsidurti šiukšlių krūvoje, istoriškai nukritęs į beviltiškai išbandytą, bet įspūdingai žlugusią aukštųjų technologijų eksperimentą. Bet kokios pastangos atgaivinti dirbtinį intelektą gali susidurti su didžiuliu mūšiu į kalną ir jas sustabdys įvairūs prieštaravimai ir atviri protestai. Matyt, dėl nepasitikėjimo AI.

Kas bus, ar pasitikėti DI, ar nepasitikėti DI?

Iš esmės, ar tikrai turėsime patikimą AI?

Tai seni ir neišspręsti klausimai. Išpakuosim.

AI etika ir kova už patikimą AI

Daugelis dirbtinio intelekto žmonių tiki, kad AI sistemų kūrėjai gali įgyti pasitikėjimą dirbtiniu intelektu, tinkamai sukūrę patikimą AI. Esmė ta, kad negalite tikėtis įgyti pasitikėjimo, jei dirbtinis intelektas iš pirmo žvilgsnio nėra patikimas. Kuriant dirbtinio intelekto sistemas tokiu būdu, kuris laikomas patikimu, yra didelė tikimybė, kad žmonės priims dirbtinį intelektą ir pradės naudoti AI.

Viena nuogąstaujama dėl šio patikimo AI teiginio, kad galbūt jau esame a visuomenės pasitikėjimo deficitas kai kalbama apie AI. Galima sakyti, kad AI, kurį jau matėme, iškasė duobę ir didžiuliais kiekiais sugriovė pasitikėjimą. Taigi, užuot pradėjęs nuo pakankamo patikimumo pagrindo, dirbtinis intelektas turės stulbinamai išlipti iš deficito, gaudydamas kiekvieną norimą papildomo pasitikėjimo unciją, kurios prireiks norint įtikinti žmones, kad AI iš tikrųjų yra patikimas.

Į šį iššūkį ateina AI etika ir AI įstatymas.

AI etika ir AI įstatymas labai stengiasi išsiaiškinti, ko reikės, kad dirbtinis intelektas būtų patikimas. Kai kurie teigia, kad yra formulė arba geležiniai dėsniai, kurie paves AI į patikimą dangų. Kiti nurodo, kad norint įgyti didžiulį visuomenės pasitikėjimą, prireiks sunkaus darbo ir nuoseklaus bei nepaliaujamo dirbtinio intelekto etikos ir AI įstatymo principų laikymosi.

Šiuolaikinė mįslė, susijusi su pasitikėjimu dirbtiniu intelektu, per se nėra ypač nauja.

Galite lengvai grįžti į 1990-ųjų pabaigą ir atsekti, kaip nuo tų dienų atsirado ieškomas „patikimo skaičiavimo“ troškimas. Tai buvo didelio masto technologijų pramonės pastangos išsiaiškinti, ar kompiuteriai gali būti pagaminti taip, kad visuomenė juos suprastų kaip patikimus.

Pagrindinius klausimus sudarė:

  • Ar galima padaryti tokią kompiuterio aparatinę įrangą, kad ji būtų patikima?
  • Ar galima būtų sukurti tokią programinę įrangą, kuri būtų patikima?
  • Ar galėtume įdiegti pasaulinio tinklo kompiuterius, kurie būtų patikimi?
  • Ir taip toliau.

Tuomet ir iki šiol vyrauja nuomonė, kad patikimi skaičiavimai tebėra šventojo gralio rūšis, kuri, deja, vis dar nėra mums pasiekiama (kaip pažymima dokumente „Patikimas AI“ ACM ryšiai). Galite įtikinamai teigti, kad dirbtinis intelektas yra dar vienas skaičiavimo patikimumo komponentas, tačiau dirbtinis intelektas pasitikėjimo siekimą daro dar sudėtingesnį ir netikresnį. Dirbtinis intelektas tapo potencialiu kovotoju už patikimą skaičiavimą. Galbūt silpniausia grandinės grandis.

Trumpai pažvelkime, kodėl dirbtinis intelektas supyko dėl to, kad jis nėra toks patikimas. Be to, išnagrinėsime AI etikos principus, kurie, tikimasi, padės sustiprinti jau pusiau povandeninį suvokiamą pasitikėjimą (arba burbuliuojantį nepasitikėjimą) šiandienos AI. Dėl mano nuolatinės ir išsamios AI etikos aprėpties žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Vienas konkretus dirbtinio intelekto etikos segmentas arba dalis, sulaukianti daug žiniasklaidos dėmesio, yra dirbtinis intelektas, pasižymintis nepageidaujamu šališkumu ir nelygybe. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Netrukus pasidalinsiu su jumis kai kuriais pagrindiniais AI etikos principais. Šen bei ten sklando daugybė tokių sąrašų. Galima sakyti, kad dar nėra vienintelio visuotinio patrauklumo ir sutapimo sąrašo. Tai liūdna žinia. Geros naujienos yra tai, kad bent jau yra lengvai prieinami AI etikos sąrašai ir jie paprastai yra gana panašūs. Apskritai tai rodo, kad tam tikra pagrįsto konvergencijos forma randame kelią link bendro AI etikos bendrumo.

Pirma, trumpai apžvelgsime kai kuriuos bendrus etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam AI.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veikimo metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai yra svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti dirbtinio intelekto etikos nuostatas ir jų laikytis.

Taip pat įsitikinkime, kad esame tame pačiame puslapyje apie šiandienos AI prigimtį.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Susiekime tai su klausimu apie patikimą AI

Tikrai nenorėtume pasitikėti dirbtiniu intelektu, kuris demonstruoja neigiamą šališkumą ir diskriminuojančius veiksmus. Tokiu atveju manome, kad toks AI tikrai nėra patikimas, todėl linkę aktyviai nepasitikėti AI. Neperžengiant antropomorfinio palyginimo (apie AI antropomorfizavimą trumpai papasakosiu daugiau), žmogus, kuris pasižymėjo nepalankiu šališkumu, taip pat būtų įvertintas kaip nelabai patikimas.

Gilinimasis į pasitikėjimą ir patikimumą

Galbūt turėtume pažvelgti į tai, ką turime omenyje tvirtindami, kad kažkuo ar kažkuo pasitikime arba nepasitikime. Pirmiausia apsvarstykite keletą kasdienių pasitikėjimo žodynų apibrėžimų.

Pavyzdžiai, ką reiškia pasitikėjimas, yra šie:

  • Užtikrintas pasitikėjimas kieno nors ar kažko charakteriu, sugebėjimais, jėga ar tiesa („Merriam-Webster“ internetinis žodynas).
  • Pasitikėjimas asmens ar daikto vientisumu, jėga, gebėjimais, laidavimu ir pan (Dictionary.com)
  • Tvirtas tikėjimas kažkieno ar kažko patikimumu, tiesa, sugebėjimais ar stiprybe (Oxford Languages ​​internetinis žodynas).

Norėčiau atkreipti dėmesį į tai, kad visi šie apibrėžimai nurodo „kažkas“ ir taip pat nurodo „kažką“ kaip potencialiai patikimą. Tai pastebima, nes kai kurie gali tvirtinti, kad pasitikime tik žmonėmis ir kad pasitikėjimo aktas yra skirtas tik žmonijai kaip mūsų patikimumo taikiniui. Ne taip. Galite pasitikėti savo virtuvės skrudintuvu. Jei atrodo, kad skrudintuvas gamina patikimai ir reguliariai tai daro, galite neabejotinai pasitikėti, ar skrudintuvas iš tikrųjų yra patikimas.

Pagal tą patį mąstymą AI taip pat gali būti mūsų pasitikėjimo požiūrio objektas. Tikėtina, kad pasitikėjimas, susijęs su dirbtiniu intelektu, bus daug sudėtingesnis nei, tarkime, kasdienis skrudintuvas. Skrudintuvas paprastai gali atlikti tik keletą veiksmų. Tikėtina, kad dirbtinio intelekto sistema bus daug sudėtingesnė ir veikia mažiau skaidriai. Mūsų gebėjimas įvertinti ir įsitikinti, ar dirbtinis intelektas yra patikimas, yra daug sunkesnis ir kelia tam tikrų iššūkių.

Sakoma, kad tipinė AI sistema yra ne tik sudėtingesnė, bet ir nedeterministinė ir potencialiai reguliuojasi arba prisitaiko. Galime trumpai panagrinėti šią sąvoką.

Deterministinė mašina linkusi daryti tuos pačius dalykus vėl ir vėl, nuspėjamai ir aiškiai pastebimai, kaip ji veikia. Galima sakyti, kad įprastas skrudintuvas skrudina maždaug taip pat ir turi skrudinimo valdiklius, reguliuojančius skrudinimą, o skrudintuvą besinaudojantis asmuo paprastai gali nuspėti. Priešingai, sudėtingos AI sistemos dažnai kuriamos kaip nedeterministinės, o tai reiškia, kad jos gali atlikti visiškai skirtingus dalykus, nei tikėjotės kitaip. Tai iš dalies taip pat gali būti dar labiau sustiprinta, jei dirbtinis intelektas yra parašytas taip, kad pats susireguliuotų, o tai gali leisti AI patobulinti ML/DL atveju, tačiau taip pat gali sukelti nerimą, kad AI susvyruos arba įsitrauktų į gretas. AI blogumo. Galbūt nežinote, kas jus užklupo, nes buvote visiškai neapsaugotas dirbtinio intelekto veiksmų.

Ką galėtume padaryti, kad AI priartintų prie patikimumo?

Vienas iš būdų yra bandymas užtikrinti, kad tie, kurie kuria ir kuria DI, laikytųsi AI etikos nuostatų. Kaip minėjo šie dirbtinio intelekto tyrinėtojai: „Pasitikėjimas yra požiūris, kad agentas elgsis taip, kaip tikimasi, ir juo galima pasitikėti, kad pasieks savo tikslą. Pasitikėjimas nutrūksta po klaidos ar nesusipratimo tarp agento ir pasitikinčio asmens. Psichologinė pasitikėjimo dirbtiniu intelektu būsena yra sudėtingos sistemos, kuri paprastai apima daugybę projektavimo, mokymo, diegimo, našumo matavimo, reguliavimo, pertvarkymo ir perkvalifikavimo ciklų, savybė“ (nurodyta ACM ryšiaiStuarto Middletono, Emmanuelio Letouze'o, Ali Hossaini ir Adriane'o Chapmano „Pasitikėjimas, reguliavimas ir žmogiškasis dirbtinis intelektas Europos regione“, 2022 m. balandis).

Esmė ta, kad jei sugebėsime priversti dirbtinio intelekto kūrėjus laikytis etiško AI, jie, tikimės, sukurs patikimą AI. Visa tai yra gerai ir gerai, tačiau realiame pasaulyje tai atrodo šiek tiek nepraktiška, nors tai tikrai vertas kelias.

Štai ką aš suprantu.

Tarkime, dirbtinio intelekto kūrėjai imasi stropių pastangų, tam tikram tikslui kurdami AI sistemą, kurią paprastai vadiname X. Jie atidžiai užtikrina, kad AI laikytųsi AI etikos skaidrumo nuostatų. Jie labai rūpinasi, kad privatumas būtų tinkamai integruotas į AI. Laikydamiesi beveik visų įprastų AI etikos principų, AI kūrėjai visapusiškai užtikrina, kad AI atitiktų pateiktą priesaką.

Ar dabar turėtumėte pasitikėti tuo AI?

Leiskite man padėti išsiaiškinti jūsų mintis šiuo atviru klausimu.

Paaiškėjo, kad kibernetiniams sukčiams pavyko įsiskverbti į AI ir slapta priversti dirbtinį intelektą atlikti X, o kartu pateikti kibernetiniams įsilaužėliams visus AI renkamus duomenis. Taip elgdamiesi šie piktadariai klastingai pažeidžia privatumo įsakymą. Jūs palaimingai nežinote, kad tai vyksta po AI gaubtu.

Turėdamas šią pridėtą informaciją, vėl užduosiu tą patį klausimą.

Ar pasitikite tuo AI?

Drįstu teigti, kad dauguma žmonių iš karto pareišktų, kad tikrai taip ne pasitikėk šiuo konkrečiu AI. Jie galėjo tuo patikėti anksčiau. Dabar jie nusprendžia nebelaikyti AI patikimu.

Keletas pagrindinių įžvalgų, pagrįstų šiuo paprastu pavyzdžiu, vertos apmąstymo:

  • Pasitikėjimo dinamika. Net ir geriausi ketinimai aprėpti visus pagrindus, užtikrinančius, kad dirbtinio intelekto etika būtų integruota į AI sistemą, negarantuoja, koks AI gali pasirodyti ar tapti. Pradėjus naudoti dirbtinį intelektą, pašaliniai asmenys gali pakenkti etiškam AI kaupimui.
  • Pasitikėjimo mažinimas iš vidaus. Patikimumo sumažinimo veiksmas nebūtinai turi būti pašaliniai asmenys. Viešai neatskleista informacija, kuri reguliariai prižiūri AI sistemą, gali suklysti ir susilpninti AI, kad ji taptų mažiau patikima. Šis AI kūrėjas gali nežinoti, ką padarė.
  • Netyčiniai pasitikėjimo kompromisai. Savaime besireguliuojantis arba savireguliuojantis AI tam tikru momentu gali prisitaikyti ir pereiti į nepatikimą teritoriją. Galbūt dirbtinis intelektas bando sustiprinti AI skaidrumą ir tuo pačiu metu netinkamai pažeidžia privatumo aspektus.
  • Pasitikėjimo sklaida. Bandymas įgyvendinti visus dirbtinio intelekto etikos principus iki didžiausio patikimumo laipsnio paprastai nėra lengvas, nes dažnai jie yra skirti įvairiems tikslams arba turi kitų galimų konfliktų. Gana idealizuota perspektyva manyti, kad visi etiniai AI nuostatai yra svajingai suderinti ir visi pasiekiami tam tikru lygiu maksimaliai.
  • Pasitikėjimas gali būti brangus. Išbandyti ir pasiekti aukščiausio lygio patikimo dirbtinio intelekto įvaizdį, atliekant įvairius išsamius ir išsamius veiksmus bei laikantis DI etikos principų, bus gana didelės. Galite nesunkiai teigti, kad kai kurių AI sistemų, kurios kitu atveju turi didelę vertę visuomenei, naudojimo išlaidos būtų pernelyg didelės, net jei dirbtinis intelektas būtų, sakykime, mažiau nei idealus dėl patikimumo troškimo.
  • Ir taip toliau.

Negalima klaidingai interpretuoti ankstesnių pastabų ir manyti, kad turėtume kažkaip išvengti pastangų kruopščiai sukurti ir sukurti patikimą AI. Tarsi išmestumėte kūdikį su vonios vandeniu. Tinkamas aiškinimas yra toks, kad turime atlikti tokias pasitikėjimo veiklas, kad dirbtinis intelektas būtų patikimai vertinamas, tačiau vien tai nėra vaistas nuo visko ar sidabro kulka.

Daugiašakiai keliai į patikimą AI

Yra svarbių papildomų daugialypių būdų, kaip siekti patikimo AI.

Pavyzdžiui, kaip jau rašiau savo stulpeliuose, daugybė naujų įstatymų ir reglamentų, susijusių su DI, siekia paskatinti AI kūrėjus kurti patikimą DI, žr. nuoroda čia ir nuoroda čia.

Šie teisiniai apsauginiai turėklai yra labai svarbūs kaip visapusė priemonė, užtikrinanti, kad tie, kurie kuria AI, būtų visiškai atsakingi už savo AI. Neturint tokių galimų teisinių priemonių ir teisėtų nuobaudų, tie, kurie neabejotinai skuba dirbtinį intelektą į rinką, greičiausiai ir toliau tai darys neturėdami rimto dėmesio, kad būtų pasiektas patikimas AI. Norėčiau ypač pridurti, kad jei tie įstatymai ir taisyklės yra prastai parengti arba netinkamai įgyvendinami, jie, deja, gali sumažinti patikimo AI siekimą, galbūt ironiškai ir keistai skatinant nepatikimą DI, o ne patikimą AI (daugiau paaiškinimų žr. mano skilties diskusijose).

Taip pat buvau uolus to, ką aš karštai vadinu, šalininkas AI angelų sargų robotai (žr. mano aprėptį adresu nuoroda čia). Tai būsimas metodas arba būdas bandyti gesinti ugnį ugnimi, būtent dirbtinio intelekto naudojimas, kad padėtų mums susidoroti su kitais AI, kurie gali būti arba nepatikimi.

Pirma, tam tikras foninis kontekstas bus naudingas.

Tarkime, kad pasirenkate pasikliauti AI sistema, kurios patikimumu nesate tikri. Pagrindinis susirūpinimas gali būti tai, kad jūs vieni bandote išsiaiškinti, ar dirbtiniu intelektu reikia pasitikėti, ar ne. AI potencialiai yra greitesnis už jus ir gali jumis pasinaudoti. Jums reikia, kad kažkas ar kažkas iš jūsų pusės padėtų.

Viena iš perspektyvų yra ta, kad visada turėtų būti žmogus, kuris jums padės, kai naudojatės AI sistema. Tačiau tai yra problemiškas sprendimas. Jei dirbtinis intelektas veikia realiuoju laiku, apie kurį trumpai kalbėsime, kai kalbėsime apie dirbtinio intelekto pagrindu veikiančių savarankiškai važiuojančių automobilių atsiradimą, gali nepakakti žmogaus. Dirbtinis intelektas gali veikti realiuoju laiku, o tuo metu, kai į paveikslą pateks paskirtas žmogus cikle, kad išsiaiškintų, ar AI veikia tinkamai, gali būti, kad jau įvyko katastrofiškas rezultatas.

Be to, tai iškelia dar vieną pasitikėjimo veiksnį. Pasitikėjimo lygį paprastai priskiriame atsižvelgdami į kontekstą ar aplinkybes, su kuriomis susiduriame. Galite visiškai pasitikėti savo mažyliu sūnumi ar dukra, kad jis bus jums ištikimas, bet jei išvykstate į žygį ir nuspręsite pasikliauti tuo, kad vaikas pasakys, ar saugu lipti ant uolos krašto, manau, elgtumėtės išmintingi. apsvarstyti, ar mažylis gali duoti tokius patarimus dėl gyvybės ar mirties. Vaikas gali tai daryti nuoširdžiai ir nuoširdžiai, tačiau vis tiek nesugebės tinkamai duoti tokio patarimo.

Ta pati sąvoka siejama su pasitikėjimu, kai kalbama apie AI. AI sistema, kurią naudojate žaisti šaškėmis ar šachmatais, tikriausiai nedalyvauja jokiuose svarstymuose dėl gyvybės ar mirties. Galite lengviau atlikti pasitikėjimo pavedimą. Dirbtinio intelekto pagrindu veikiančiam savarankiškai vairuojančiam automobiliui, kuris dideliu greičiu važiuoja greitkeliu, reikia daug didesnio pasitikėjimo. Mažiausias AI vairavimo sistemos smūgis gali tiesiogiai lemti jūsų ir kitų mirtį.

Paskelbtame interviu Beena Ammanath, Global Deloitte AI instituto vykdomoji direktorė ir knygos autorė Patikimas AI, panašus dėmesys skiriamas atsižvelgiant į kontekstinius aspektus, kai AI patikimas: „Jei kuriate DI sprendimą, kuris atlieka paciento diagnozę, sąžiningumas ir šališkumas yra labai svarbūs. Bet jei kuriate algoritmą, numatantį reaktyvinio variklio gedimą, sąžiningumas ir šališkumas nėra tokie svarbūs. Patikimas AI iš tikrųjų yra struktūra, padedanti pradėti galvoti apie pasitikėjimo savo organizacijoje dimensijas“ (VentureBeat, 22 m. kovo 2022 d.).

Kalbėdami apie patikimą AI, šią temą galite interpretuoti įvairiais būdais.

Pavyzdžiui, patikimas AI yra kažkas, ką mes visi laikome pageidaujamu ir siekiamu tikslu, būtent, kad turėtume trokšti sukurti ir skelbti patikimą AI. Egzistuoja ir kitas posakio panaudojimas. Šiek tiek alternatyvus naudojimas yra tas patikimas AI yra būklės arba matavimo būsena, kad kas nors galėtų tvirtinti, kad sukūrė AI sistemą, kuri yra patikimo AI pavyzdys. Taip pat galite naudoti frazę patikimas AI pasiūlyti metodą ar metodą, kurį būtų galima naudoti norint pasiekti AI patikimumą. ir kt.

Kalbant apie susijusią pastabą, tikiuosi, kad suprantate, kad ne visi AI yra vienodi ir kad turime nepamiršti nepateikti bendrų teiginių apie visą AI. Tikėtina, kad tam tikra AI sistema labai skirsis nuo kitos AI sistemos. Viena iš tų AI sistemų gali būti labai patikima, o kita gali būti labai patikima. Būkite atsargūs darydami prielaidą, kad AI yra monolitas, kuris yra arba visiškai patikimas, arba visiškai nepatikimas.

Taip tiesiog nėra.

Toliau norėčiau trumpai apžvelgti kai kuriuos savo vykdomus tyrimus apie patikimą dirbtinį intelektą, kuris jums gali būti įdomus, ir apžvelgti kylantį AI angelų sargų robotai.

Štai kaip viskas vyksta.

Būtumėte apsiginklavę AI sistema (angelo sargo robotu AI), kuri yra sukurta siekiant įvertinti kitos AI sistemos patikimumą. AI botas angelas sargas yra svarbiausias jūsų saugumas. Pagalvokite apie tai taip, lyg turėtumėte priemonių stebėti dirbtinį intelektą, kuriuo pasitikite, turėdami kitokią AI sistemą savo tikroje kišenėje, galbūt veikiančią jūsų išmaniajame telefone ar kituose panašiuose įrenginiuose. Jūsų patarlė AI sergėtojas gali apskaičiuoti remdamasis tuo, kaip daro ir AI, kuriuo pasitikite, dirbdamas dideliu greičiu ir realiuoju laiku apskaičiuodamas esamą situaciją, daug greičiau, nei galėtų tai padaryti žmogus.

Iš pirmo žvilgsnio galite pagalvoti, kad dirbtinis intelektas, kuriuo jau pasitikite, turėtų turėti tam tikrų vidaus AI apsauginiai turėklai, kurie daro tą patį, kaip šis atskirai skaičiuojantis AI angelo sargo botas. Taip, to tikrai norėtųsi. Viena abejonė yra ta, kad dirbtinio intelekto apsauginiai turėklai, įmontuoti į AI sistemą, gali būti visiškai ir žalingai suderinti su AI per se, todėl tariamas AI apsauginis turėklas tam tikra prasme nebegali savarankiškai patikrinti ar patvirtinti AI.

Priešinga idėja yra ta, kad jūsų AI angelo sargo robotas yra nepriklausomas arba trečiosios šalies AI mechanizmas, kuris skiriasi nuo AI, kuriuo pasitikite. Jis yra už kito DI ribų ir yra skirtas jums, o ne stebimam ar vertinamam AI.

Paprastas būdas apie tai galvoti gali būti išreikštas šiais supaprastintais į lygtį panašiais teiginiais. Galime sakyti, kad „P“ nori potencialiai pasitikėti „R“, kad atliktų tam tikrą užduotį „X“:

Tai būtų taip, kai dalyvauja tik žmonės:

  • Asmuo P pasitiki asmeniu R atlikti X užduotį.

Kai pasirenkame pasikliauti AI, teiginys pakeičiamas taip:

  • Asmuo P pasitiki AI egzemplioriumi-R atlikdamas X užduotį.

Galime pridėti AI angelo sargą sakydami taip:

  • Asmuo P pasitiki AI egzemplioriumi-R, kad atliks X užduotį, nes jį stebi AI angelo sargo boto egzempliorius-Z

AI angelo sargo robotas nenuilstamai ir negailestingai vertina AI, kuriuo pasitikite. Taigi jūsų patogus DI globėjas gali jus įspėti, kad pasitikėjimas šiuo kitu AI yra nepagrįstas. Arba AI globėjas gali elektroniniu būdu bendrauti su kitu dirbtiniu intelektu, siekdamas užtikrinti, kad bet koks nukrypimas nuo patikimumo būtų greitai ištaisytas ir pan. (žr. mano aprėptį apie tokią informaciją adresu nuoroda čia).

Patikimo pasitikėjimo rezervuaro metafora

Kadangi kalbame apie skirtingus pasitikėjimo lygius, galite rasti patogią metaforą apie patikimumą, suvokdami pasitikėjimą kaip rezervuarą.

Jūs turite tam tikrą pasitikėjimą konkrečiu asmeniu ar daiktu tam tikromis aplinkybėmis tam tikru momentu. Pasitikėjimo lygis kils arba kris, priklausomai nuo to, kas dar atsitiks, susiję su tuo konkrečiu asmeniu ar daiktu. Pasitikėjimas gali būti nulinis, kai jūs visiškai nepasitikite asmeniu ar daiktu. Pasitikėjimas gali būti neigiamas, kai imatės nepasitikėti tuo asmeniu ar daiktu.

Dirbtinio intelekto sistemų atveju jūsų pasitikėjimas konkrečia AI, kuria pasitikite tam tikromis aplinkybėmis, padidės arba sumažės, priklausomai nuo to, ar įvertinsite AI patikimumą. Kartais galite gerai žinoti apie šį skirtingą pasitikėjimo dirbtiniu intelektu lygį, o kitais atvejais galite būti mažiau sąmoningi ir labiau nujaučiate apie patikimumą.

Čia aptariami būdai, kaip padidinti pasitikėjimo AI lygį, yra šie:

  • AI etikos laikymasis. Jei dirbtinis intelektas, kuriuo pasitikite, buvo sukurtas bandant laikytis tinkamų dirbtinio intelekto etikos nuostatų, tikriausiai pasinaudotumėte šiuo supratimu, kad padidintumėte savo pasitikėjimo tos konkrečios AI sistemos lygį. Be to, gali būti, kad taip pat galite apibendrinti kitas AI sistemas dėl jų patikimumo, nors kartais tai gali būti klaidinanti to, ką aš vadinu, forma. AI pasitikėjimo aura plinta (būkite atsargūs tai darydami!).
  • Naudokite „Žmogus kilpoje“. Jei dirbtinis intelektas turi žmogiškąjį ryšį, galite teigiamai padidinti savo suvokiamą pasitikėjimą dirbtiniu intelektu.
  • Sukurti įstatymus ir reglamentus. Jei yra įstatymai ir teisės aktai, susiję su šiuo konkrečiu AI tipu, taip pat galite padidinti savo pasitikėjimo lygį.
  • Įdarbinkite AI angelą sargą botą. Jei turite paruoštą AI angelo sargo botą, tai taip pat dar labiau padidins jūsų pasitikėjimo lygį.

Kaip minėta anksčiau, pasitikėjimas gali būti gana trapus ir akimirksniu subyrėti (ty pasitikėjimo rezervuaras greitai ir staiga išmeta visą susikurtą pasitikėjimą).

Įsivaizduokite, kad esate dirbtinio intelekto pagrindu veikiančiame savarankiškai vairuojančiame automobilyje, o vairuotojas AI staiga padaro radikalų posūkį į dešinę, sukeldamas ratų girgždėjimą ir beveik priversdamas autonominę transporto priemonę apvirsti. Kas nutiktų jūsų pasitikėjimo lygiui? Atrodytų, kad net jei anksčiau palaikytumėte AI padidintą pasitikėjimo lygį, jūs dramatiškai ir staigiai sumažintumėte savo pasitikėjimo lygį, protingai.

Šioje svarios diskusijos vietoje galiu lažintis, kad jums reikia papildomų iliustruojančių pavyzdžių, kurie galėtų parodyti patikimo AI pobūdį ir apimtį. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realius pavyzdžius, atskleidžiančius DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI keblumą, yra dirbtinio intelekto pagrindu sukurtų tikrų savarankiškai vairuojančių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar AI pagrįstų tikrų savarankiškai vairuojančių automobilių atsiradimas ką nors parodo apie patikimo dirbtinio intelekto siekimą, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiški automobiliai ir patikimas dirbtinis intelektas

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Aš tikiu, kad tai suteikia pakankamai litanijos įspėjimų, kuriais grindžiamas tai, ką ketinu pasakyti.

Dabar esame pasiruošę giliai pasinerti į savarankiškai važiuojančius automobilius ir patikimą dirbtinį intelektą.

Pasitikėjimas yra viskas, ypač AI pagrindu veikiančių savarankiškai vairuojančių automobilių atveju.

Atrodo, kad visuomenė atsargiai žiūri į savaeigių automobilių atsiradimą. Viena vertus, yra didelė viltis, kad tikrų savaeigių automobilių atsiradimas akivaizdžiai sumažins kasmet su automobiliais susijusių mirčių skaičių. Vien Jungtinėse Amerikos Valstijose per automobilių avarijas miršta apie 40,000 2.5 žmonių ir sužeidžiama apie XNUMX mln., žr. mano statistikos rinkinį adresu nuoroda čia. Žmonės geria ir vairuoja. Žmonės vairuoja išsiblaškę. Atrodo, kad automobilio vairavimo užduotis susideda iš gebėjimo nuolat ir neklystamai sutelkti dėmesį į vairavimą ir išvengti automobilio avarijų. Taigi galime svajingai tikėtis, kad dirbtinio intelekto sistemos leis savarankiškai vairuoti automobilius nuolat ir neklystamai. Savarankiškus automobilius galite suprasti kaip dviprasmybę, kurią sudaro žuvusiųjų ir sužeistųjų automobilių avarijose skaičiaus mažinimas, taip pat potencialus mobilumo prieinamumas daug platesniu ir prieinamesniu pagrindu.

Tačiau tuo tarpu susirūpinimas kyla dėl visuomenės supratimo, ar savaeigiai automobiliai bus pakankamai saugūs, kad galėtų važiuoti mūsų viešuosiuose keliuose.

Jei nors vienas savarankiškai važiuojantis automobilis pateks į avariją ar susidūrimą, dėl kurio žmogus miršta arba sunkiai sužalojami, galite tikėtis, kad šiandien šiek tiek sustiprėjęs pasitikėjimas tais AI pagrįstais automobiliais be vairuotojo smarkiai sumažės. Matėme, kad tai atsitiko, kai Arizonoje įvyko liūdnai pagarsėjęs incidentas, kurio metu šiek tiek (ne tikrai) savarankiškai važiuojantis automobilis įvažiavo ir žuvo pėsčiasis (žr. mano reportažą adresu šią nuorodą čia).

Kai kurie ekspertai atkreipia dėmesį į tai, kad nesąžininga ir nedera grįsti pasitikėjimą dirbtinio intelekto savarankiškai važiuojančiais automobiliais tuo, kad tik viena tokia kita mirtį pritraukianti avarija ar susidūrimas gali pakenkti bandymams viešuosiuose keliuose, kurių jau gana neįvyksta. Be to, remiantis dar nesąžiningu pagrindu, yra tikimybė, kad nesvarbu, kuri konkreti AI savarankiškai vairuojančių automobilių markė ar modelis pateko į liūdną incidentą, visuomenė neabejotinai kaltins visas savarankiškai vairuojančių automobilių markes.

Visa savaeigių automobilių visuma gali būti sutepta, o visa pramonė gali patirti didžiulį atsaką, dėl kurio gali būti nutraukti visi bandymai viešuosiuose keliuose.

Prie tokio smūgio prisideda beprasmiai atvirų savarankiškai vairuojančių automobilių šalininkų pareiškimai, kad visi automobiliai be vairuotojo bus nesudužtini. Ši idėja būti nesugriaunamam yra ne tik visiškai klaidinga (žr nuoroda čia), jis klastingai kuria savarankiškai vairuojančių automobilių pramonę, kad atitiktų visiškai nepatenkintus lūkesčius. Šie nepaprasti ir neįgyvendinami pareiškimai, kad dėl savarankiškai važiuojančių automobilių žūčių nebus, kursto klaidingą nuomonę, kad bet kokios automobilio avarijos be vairuotojo yra tikras ženklas, kad visas komplektas ir kaboodle yra niekis.

Neabejotinai liūdna suvokti, kad pažanga link savaeigių automobilių ir kartkartėmis besikaupiantis visuomenės pasitikėjimas gali būti akimirksniu numuštas. Tai bus tikra vitrina apie pasitikėjimo trapumą.

Išvada

Daugelis automobilių gamintojų ir savarankiškai vairuojančių technologijų įmonių paprastai laikosi dirbtinio intelekto etikos principų, bandydami sukurti ir sukurti patikimą dirbtinį intelektą saugių ir patikimų dirbtinio intelekto pagrindu veikiančių savarankiškai vairuojančių automobilių požiūriu. Atminkite, kad kai kurios iš šių įmonių yra stipresnės ir labiau atsidavusios etiškoms AI priesakoms nei kitos. Retkarčiais pasitaiko ir su savarankiškai vairuojančiais automobiliais susijusių paleidėjų ar naujokų, kurie, atrodo, atmeta daugumą AI etikos kertinių akmenų (žr. mano apžvalgą adresu nuoroda čia).

Kitose srityse nauji įstatymai ir reglamentai, reglamentuojantys savarankiškai važiuojančius automobilius, pamažu įtraukiami į teisinę knygą. Ar jie turi reikiamų dantų, kad juos paremtų, yra kitas dalykas, taip pat ar į tų įstatymų vykdymą žiūrima rimtai, ar nepaisoma (žr. mano stulpelius, kuriuose pateikiama analizė apie tai).

Čia taip pat yra aukštųjų technologijų kampas. Prognozavau, kad pamažu pamatysime AI robotų angelų sargų variantus, kurie išryškės autonominių transporto priemonių ir savaeigių automobilių arenoje. Mes dar nesame. Tai taps labiau paplitusi, kai labiau išpopuliarės savaeigiai automobiliai.

Šis paskutinis punktas iškelia garsiąją eilutę apie pasitikėjimą, kurią, be abejo, jau žinote mintinai.

Tikėk, bet pasitikrink.

Galime leisti sau išplėsti savo pasitikėjimą, galbūt dosniai. Tuo tarpu mes taip pat turėtume žiūrėti kaip vanagas, kad įsitikintume, jog mūsų kuriamas pasitikėjimas yra patvirtintas ir žodžiais, ir darbais. Pasitikėkime dirbtiniu intelektu, bet be galo patikrinkime, ar pasitikime tinkamai ir plačiai atmerktomis akimis.

Galite manimi tuo pasitikėti.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/