AI etika kovoja su neišvengiamais dirbtinio intelekto nelaimingais atsitikimais, kurie taip pat kyla dėl autonominių savarankiškai važiuojančių automobilių

Ar tikriausiai pažįstate žmogų, kuris, atrodo, yra ypač linkęs į nelaimingus atsitikimus?

Atrodo, kad mes visi.

Galbūt tas žmogus yra toks, kuris yra linkęs paslysti ant banano žievelės ar nuversti brangią vazą jūsų svetainėje. Jie yra žmogaus magnetas vienokioms ar kitokioms avarijoms. Tai gali būti taip blogai, kad kartais net nesinori būti šalia jų. Galite patirti grėsmingą perpildymą arba patirti šlovingų vieno iš jų nemalonių nelaimingų atsitikimų padarinius.

Tačiau galbūt pernelyg griežtai sakome, kad kas nors yra labiau linkęs į nelaimingus atsitikimus nei kiti. Galima ginčytis, kad nelaimingi atsitikimai gali nutikti bet kuriam iš mūsų. Mes visi susiduriame su galimybe įvykti ar patekti į avariją. Įskaitant geriausius iš mūsų.

Į šią diskusiją įkelkime dar vieną erzinantį klausimą.

Ar avarijos neišvengiamos?

Kitaip tariant, kad ir kaip stengtumėmės užkirsti kelią nelaimingiems atsitikimams, gali būti, kad vis tiek yra tikimybė, kad nelaimingi atsitikimai įvyks, ir visiškas tikrumas. Galite siekti apsaugoti pasaulį nuo nelaimingų atsitikimų. Tai atrodo neabejotinai protinga. Tačiau vienaip ar kitaip nelaimingi atsitikimai vis tiek pakels bjaurią galvą.

Kaip sakoma, nelaimės laukia.

Gali būti naudinga paaiškinti, ką reiškia tam tikras įvykis, tinkamai paženklintas kaip nelaimingas atsitikimas. Įprastas žodyno apibrėžimas yra toks, kad nelaimingas atsitikimas yra netikėtai ir netyčia įvykęs incidentas, kurio rezultatas yra apgailėtinas, panašus į žalą ar sužalojimą.

Atsargiai išpakuokite šį apibrėžimą.

Minėtas įvykis netikėtas. Tai reiškia, kad mes, atrodo, nesuvokėme, kad įvyks pati avarija.

Minėtas įvykis yra netyčinis. Tai rodo, kad turėtume atmesti aplinkybes, kai kas nors tyčia siekė, kad incidentas įvyktų. Jei pokštininkas padėtų banano žievelę ant grindų, kur žino, kad žengs nelaimingas ir nieko neįtariantis nekaltas žmogus, jums būtų sunku teigti, kad užkliuvęs asmuo patyrė nelaimingą atsitikimą. Vietoj to jie buvo apgauti ir klastingai įvesti į spąstus.

Apibrėžimas taip pat apima kriterijų, kad rezultatas yra apgailėtinas. Nelaimingas atsitikimas tokioje šviesoje turi lemti apgailėtiną rezultatą. Asmuo, netyčia nuvertęs vazą, įskilęs ir galbūt nepataisomai sugadino patikusį daiktą. Vazos savininkas nukenčia dėl vertės praradimo. Asmuo, įbėgęs į vazą, dabar gali būti skolingas savininkui už nuostolius. Neduok dangus, kad sudužus vazai kas nors būtų nupjautas ar nulaužtas.

Siekdami vienodos pusiausvyros, turėtume atkreipti dėmesį į tai, kad pasitaiko ir vadinamųjų „gerųjų“ nelaimingų atsitikimų. Dėl nelaimingo atsitikimo žmogus gali patirti didelį turtą ar sukaupti kokią nors kitą gyvybiškai svarbią naudą. Vienas iš dažniausiai cituojamų pavyzdžių yra seras Aleksandras Flemingas ir jo pripažintas penicilino atradimas. Pasakojama, kad jis buvo kiek neatsargus savo laboratorijoje ir grįžęs iš dviejų savaičių atostogų vienoje iš savo kultūrinių lėkščių aptiko pelėsį. Pranešama, kad apie tai jis pasakė taip: „Kartais randama tai, ko neieško. Kai 28 m. rugsėjo 1928 d. prabudau išaušus, tikrai neplanavau daryti revoliucijos visoje medicinoje, atradęs pirmąjį pasaulyje antibiotiką arba bakterijų žudiklį. Bet manau, kad tai buvo būtent tai, ką aš padariau“.

Mes paliksime į šalį palankias avarijas ir sutelksime dėmesį į liūdnas avarijas. Nelaimingų atsitikimų atveju, kai tie neigiami padariniai gali būti ypač pavojingi gyvybei arba turėti sunkių padarinių, surauktas veidas. Kiek įmanoma, neigiamų nelaimingų atsitikimų, kuriuos norime sumažinti (ir, žinoma, neigiamų nelaimingų atsitikimų, kurių norėtume maksimaliai padidinti, jei tai įmanoma padaryti, nors šį šypsenėlių variantą aptarsiu vėlesniame stulpelyje).

Norėčiau šiek tiek pakeisti ankstesnį klausimą apie nelaimingų atsitikimų neišvengiamumą. Iki šiol atkreipėme dėmesį į nelaimingus atsitikimus, įvykusius konkrečiu pavienio asmens atveju. Neabejotina, kad nelaimingi atsitikimai gali iš karto paveikti daugybę žmonių. Su tuo ypač gali susidurti, kai žmonės yra panirę į sudėtingą vienokią ar kitokią sistemą.

Pasiruoškite anksčiau pateikto klausimo variantui.

Ar sistemos avarijos neišvengiamos?

Turėtume tai apsvarstyti.

Tarkime, gamyklos grindys išklotos automobilių detalėms gaminti. Tarkime, tie, kurie suprojektavo gamyklą, yra labai susirūpinę dėl galimų nelaimingų atsitikimų darbe. Gamyklos darbuotojai visada privalo dėvėti šalmus. Gamykloje esantys ženklai ragina saugotis nelaimingų atsitikimų ir būti atidiems savo darbe. Imamasi visų atsargumo priemonių, kad būtų išvengta nelaimingų atsitikimų.

Šioje sistemoje galime tikėtis, kad niekas nepatirs avarijos. Ar tikite, kad nelaimės tikimybė yra nulinė? Drįsčiau teigti, kad joks protingas mąstytojas nesilažintų, kad avarijos tikimybė šiuo atveju lygi nuliui. Tikimybė, kad įvyks nelaimingas atsitikimas, gali būti labai maža, tačiau vis tiek žinome ir manome, kad nepaisant visų atsargumo priemonių, vis dar yra nedidelė nelaimės rizika.

Visa tai rodo mintį, kad pakankamai sudėtingoje sistemoje privalome tikėti, kad avarijų vis tiek įvyks, nepaisant to, kaip stengiamės joms užkirsti kelią. Mes nenoriai pritariame nuostatai, kad sistemos avarijos iš tiesų yra neišvengiamos. Grandiozinis tokio kalibro pareiškimas gali turėti įspėjimą, kad sistema turi būti tokio sudėtingumo slenksčio, kad iš esmės neįmanoma aprėpti visų pagrindų, kad būtų visiškai išvengta nelaimingų atsitikimų.

Dabar jūs buvote tvarkingai žingsnis po žingsnio supažindintas su plačiai išdėstyta teorija apie nelaimingus atsitikimus, kurie gali būti pažymėti kaip įprasti nelaimingi atsitikimai arba normalių avarijų teorija (NAT). Čia yra patogus apibūdinimas tyrėjų, kurie išnagrinėjo šią sąvoką: „Pakankamai dideliu mastu bet kuri sistema sukels „įprastas avarijas“. Tai neišvengiamos avarijos, kurias sukelia sudėtingumo, komponentų sujungimo ir galimos žalos derinys. Įprasta avarija skiriasi nuo įprastų komponentų gedimo nelaimingų atsitikimų tuo, kad įvykiai ir sąveika, sukelianti įprastą avariją, yra nesuprantami sistemos operatoriams“ (kaip teigiama Roberto Williamso ir „Supratimo ir išvengti AI gedimų: praktinis vadovas“. Romanas Jampolskis, Filosofijos žurnalas).

Priežastis, kodėl aš atvedžiau tave į vadinamąją žemę įprastos avarijos yra tai, kad mums gali tekti atidžiai pritaikyti šią teoriją tam, kas palaipsniui ir neišvengiamai tampa visur mūsų visuomenėje, ty dirbtinio intelekto (DI) atsiradimui.

Pasigilinkim į tai.

Kai kurie žmonės klaidingai mano, kad AI bus tobulas. Spėliojama, kad dirbtinio intelekto sistemos nedarys klaidų ir neįtrauks mūsų į bėdą. Viskas, ką jums reikia padaryti, tai įsitikinti, kad tie AI kūrėjai atlieka pakankamai gerą darbą, ir voila, AI niekada nedarys nieko, kas galėtų būti suprantama kaip atsitiktinė ar sukelianti nelaimingą atsitikimą.

Ne taip greitai dėl to hipotetinio tikėjimo. Jei esate pasirengęs pirkti į teoriją įprastos avarijos, bet koks bet kokio sudėtingumo AI neišvengiamai sukels nelaimingą atsitikimą. Nepriklausomai nuo to, kiek dirbtinio intelekto kūrėjai vėlyvą vakarą triūsia, kad išvengtų nelaimingo atsitikimo, AI tikrai tam tikru momentu pateks į avariją. Taip sausainis byra. Ir nėra atokvėpio verkiant dėl ​​to išsiliejusiame piene.

Apsvarstykite AI mišinį ir konceptualius principus įprastos avarijos.

Įsivaizduokite, kad turime AI sistemą, kuri kontroliuoja branduolinius ginklus. AI buvo kruopščiai sukurtas. Kiekvienas įmanomas patikrinimas ir balansas buvo užkoduoti AI sistemoje. Ar esame apsaugoti nuo AI pagrįstos avarijos, kuri gali įvykti? Tie, kurie palaiko įprastą nelaimingų atsitikimų požiūrį, pasakytų, kad nesame tokie saugūs, kaip būtų galima manyti. Atsižvelgiant į tai, kad dirbtinis intelektas greičiausiai bus ypač sudėtingas, įprasta avarija tyliai laukia, kol kada nors atsiras, galbūt pačiu blogiausiu momentu.

Šių sudėtingų klausimų ir nuogąstavimų esmė ta, kad turime būti įsitikinę, kad dirbtinis intelektas gali būti pakrautas nelaimingų atsitikimų, o žmonija turi imtis kokių nors protingų ir iniciatyvių veiksmų, kad išvengtų galimų pavojų. Kaip pamatysite po akimirkos ar dviejų, tai yra grėsmingas svarstymas, kai kalbama apie AI naudojimą, o dirbtinio intelekto etikos ir etikos AI srityse gana daug grumiasi, ką daryti. Daugiau informacijos apie AI etiką ir etišką DI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Prieš eidami į triušio duobę, įsitikinkime, kad esame tame pačiame puslapyje apie AI prigimtį. Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis atitikmuo žmogui, duodančiam jums patarimus. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia). Visiems pasakyta, kad šie scenarijai paspartins šaltinio vertinimą.

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai buvo naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Apskritai tikimasi, kad sukūrę dirbtinio intelekto etikos nuostatų pojūtį, bent jau galėsime padidinti visuomenės supratimą apie tai, ką dirbtinis intelektas gali ir naudingai, ir neigiamai sukelti. Aš plačiai aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Mums gali tekti įtraukti į išliaupsintus AI etikos sąrašus, kuriuos turime aiškiai apsvarstyti ir imtis atvirų veiksmų, kad užkirstume kelią dirbtiniu intelektu pagrįstam poveikiui arba bent jau smarkiai jį sumažintume. įprastos avarijos kad gali atsirasti. Tie, kurie kuria dirbtinį intelektą, turi padaryti viską, ką gali. Tie, kurie diegia AI, turi daryti tą patį. Tie, kurie naudoja dirbtinį intelektą arba yra jai kažkaip taikomi, turėtų būti atsargūs ir saugotis, kad gali įvykti DI nelaimingi atsitikimai.

Gali kilti pagunda manyti, kad į AI gali būti įtraukta pakankamai atsargumo priemonių, kad avarijos tikimybė sumažėtų iki nulio. Tiems, kurie yra technikos specialistai, įprastas pasipiktinimas yra tas, kad jei tam tikra technika gali sukelti problemą, kita technika tikrai gali ją išspręsti. Tiesiog mėtykite vis daugiau technologijų, kol problema išnyks.

Tie, kurie ištyrė į sistemas nukreiptas avarijas, būtų linkę nesutikti ir mandagiai atsikirsti į numanomą technikos pompastiškumą, pateikdami požiūrį, žinomą kaip Šveicarijos sūrio modelis (SCM): „SCM saugos sluoksniai modeliuojami kaip gabalėliai. sūris su skylutėmis, atspindinčiais silpnąsias kiekvieno saugos sluoksnio vietas. Laikui bėgant skylės keičia formą ir juda. Galų gale, nesvarbu, kiek sūrio griežinėlių (saugumo sluoksnių) yra, skylės susilygins, kad būtų galima tiesiai peršauti visas sūrio riekeles (įvyksta nelaimingas atsitikimas)“ (pagal anksčiau cituotą Roberto Williamso ir Romano Yampolskio dokumentą ).

Nenoriu įklimpti į šią šoninę liestinę, ar yra garantuotas būdas suprogramuoti AI visiškai ir visada išvengti bet kokios nelaimingo atsitikimo. Yra bandomi įvairūs matematiniai ir skaičiavimo įrodinėjimo metodai. Manau, yra pagrįsta ir teisinga pareikšti, kad šiandien neturime keičiamo darbo metodo ar technologijų, kurios galėtų garantuoti tokią nulinę galimybę, be to, mes tikrai esame apkrauti daugybe tonų dirbtinio intelekto, kuris yra gaminamas beprotiškai. tikrai žinau, kad nesiekė laikytis tokios praktikos. Pastarasis dalykas yra labai svarbus, nes net jei galime ką nors sugalvoti dirbtinio intelekto laboratorijoje, tai padaryti iki daugybės laukinių ir nerūpestingų dirbtinio intelekto pastangų, kurios ir toliau kils, yra sudėtinga problema ir greičiausiai nebus išspręsta, net jei skaičiavimo įrodinėjimo mašina bus sidabrinė. kulka egzistavo.

Kitas dalykas, kurį, manau, verta trumpai paminėti, yra dirbtinis intelektas, kuris dėl piktavališkų žmogaus veiksmų paverčiamas nepageidaujamais veiksmais. Aš neketinu priskirti šių atvejų AI nelaimingų atsitikimų sričiai. Atminkite, kad įžanginėje diskusijoje buvo teigiama, kad žodyno nelaimingo atsitikimo apibrėžimas yra įvykis netyčia gamta. Jei žmogaus kibernetiniam sukčiui pavyksta priversti dirbtinio intelekto sistemą daryti blogus dalykus, aš nepriskiriu to AI patyrusiems avariją. Tikiu, kad sutiksite su šia prielaida.

Kyla įdomus klausimas, kiek įvairių nepageidaujamų dirbtinio intelekto veiksmų galima priskirti grynai AI avarijai, palyginti su kibernetinio nusikaltėlio gudrumu. Remiantis kai kuriomis esamomis AI incidentų ataskaitų duomenų bazėmis, atrodo, kad dirbtinio intelekto nelaimingų atsitikimų įvyksta dažniau nei piktybiškai paskatintų incidentų, nors į tai reikia atsižvelgti su didele druskos doze. Sakau tai, nes yra didelė pagunda nepranešti, kada AI sistema buvo užpulta, ir galbūt būti labiau pasiruošusiam pranešti, kai įvyksta DI avarija.

Turime aptarti labai svarbų įspėjimą dėl AI nelaimingų atsitikimų.

Posakio „AI nelaimingi atsitikimai“ vartojimas paprastai yra nepageidautinas ir sukels nemažą netvarką mums visiems, o tai reiškia visai visuomenei. Kai žmogus atsitiktinai patenka į nelaimingą atsitikimą, mes dažnai gūžčiojame pečiais ir užjaučiame žmogų, patyrusį avariją. Atrodo, kad žodį „nelaimingas atsitikimas“ traktuojame taip, lyg jis reiškia, kad niekas nėra atsakingas už tai, kas nutiko.

Paimkime patekimo į autoavariją pavyzdį. Vienas automobilis dešiniajame posūkyje plačiai siūbuoja ir netyčia atsitrenkia į kitą tiesiai važiavusį automobilį. Shucks, tai buvo tik nelaimingas atsitikimas ir atsitiktinai. Tie, kurie nedalyvavo įvykyje, galbūt leis šiam reikalui nuslysti, jei įvykis apibūdinamas tik kaip nelaimingas atsitikimas.

Tačiau turiu jausmą, kad jei būtum partrenktame automobilyje, nelabai užjaustum per platų posūkį padariusiam vairuotojui. Jūsų nuomonė neabejotinai būtų tokia, kad kitas vairuotojas buvo nevykęs vairuotojas ir dėl tariamai neteisėto arba neprotingo vairavimo poelgio įvyko automobilio avarija. Pažymėjus įvykį kaip „nelaimingą atsitikimą“, įkliuvęs vairuotojas dabar atsiduria šiek tiek nepalankioje padėtyje, nes atrodo, kad viskas įvyko vien dėl atsitiktinumo, o ne dėl suklydusio vairuotojo rankų.

Tiesą sakant, žodis „nelaimingas atsitikimas“ yra toks kupinas įvairių konotacijų, kad iš esmės vyriausybės statistikoje apie automobilių avarijas šis reikalas vadinamas automobilių susidūrimais ar automobilių avarijomis, o ne vartojamas posakis „autoįvykiai“. Atrodo, kad automobilio susidūrimas ar automobilio avarija neturi jokios reikšmės, kaip įvyko incidentas. Tuo tarpu „autoavarijos“ frazė beveik verčia manyti, kad tai buvo likimo keistenybė ar kažkaip už žmonijos rankų.

Galite puikiai matyti, kaip šis konotacinis svarstymas atsiranda kalbant apie AI nelaimingus atsitikimus. Nenorime, kad dirbtinio intelekto kūrėjai slėptųsi už konotacijos skydo, kad AI tiesiog netyčia kam nors pakenkė. Tas pats pasakytina apie tuos, kurie diegia AI. Galite ginčytis, kad „AI nelaimingų atsitikimų“ formuluotė yra beveik AI antropomorfizmas, kuris suklaidins visuomenę ir leis žmonėms, kurie buvo dirbtinio intelekto užkulisiuose, išvengti atsakomybės. Mano diskusija apie didėjančią svarbą laikyti žmones atsakingais už savo AI, žr. mano diskusiją adresu šią nuorodą čia ir šią nuorodą čia.

Nuo šiol naudosiu AI nelaimingų atsitikimų posakį, bet tai darau nenoriai ir tik todėl, kad tai yra įprastas būdas nurodyti šį reiškinį. Deja, bandymai tai suformuluoti kitaip būna labiau išpūsti ir ne taip lengvai skaitomi. Įsitikinkite, kad posakį interpretuojate taip, kad nereikėtų pažvelgti į kitą pusę ir nesuvokti, kad dirbtinio intelekto žmonės yra kalti, kai AI suklysta.

Norėdami parodyti galimą painiavą ar klaidinančius aspektus, susijusius su DI kaip nelaimingų atsitikimų atveju, galime grįžti prie mano pastabų apie vazos nuvertimą. Apsvarstykite šį DI pavyzdį: „Ši problema susijusi su dalykais, kuriuos DI daro atsitiktinai arba abejingai. Valymo robotas, numušantis vazą, yra vienas iš pavyzdžių. Sudėtingose ​​aplinkose yra tiek daug „vazų“, kad vargu ar sugebėsime užprogramuoti bausmę už visus šalutinius poveikius“ (pagal Roberto Williamso ir Romano Yampolskio straipsnį).

Namų ūkyje pradėta naudoti dirbtinio intelekto sistema, o paskui „netyčia“ nuverčianti vazą, rodo, kad niekas neturėtų būti kaltintas dėl šio neigiamo AI veiksmų. Tai buvo tik nelaimingas atsitikimas, galima apgailestauti. Kita vertus, turėtume pagrįstai paklausti, kodėl AI sistema nebuvo užprogramuota taip, kad tvarkytų vazos situaciją apskritai. Net jei dirbtinio intelekto kūrėjai nenumatė, kad vaza per se patenka į objektų, su kuriais galima susidurti, sritį, mes tikrai galime suabejoti, kodėl nebuvo tam tikro objekto vengimo, kuris neleistų AI sistemai nuversti vaza (taigi, dirbtinis intelektas gali nepriskirti vazos prie vazos, bet vis tiek galėjo išvengti jos kaip aptinkamo objekto, kurio reikia vengti).

Prognozavau ir tebeprognozuoju, kad palaipsniui judame link didžiulės teisinės kovos dėl dirbtinio intelekto sistemų, kurios patenka į „AI nelaimingus atsitikimus“ ir sukelia tam tikros formos žalos, atsiradimo. Iki šiol visuomenė niekaip nereagavo į teisėtą dirbtinio intelekto atmetimą, kuris išstumiamas į rinką ir sukelia neigiamų pasekmių tyčia ar netyčia. Šiandieniniam AI modeliui, tapusiam neapgalvotų dirbtinio intelekto kūrėjų ir tų, kurie skubotai diegti dirbtinį intelektą, pasisekimas šiuo metu pasiseka ir jis lieka santykinai nepaliestas civilinių ieškinių ir baudžiamojo persekiojimo.

AI sukeltas teisinis atsakas anksčiau ar vėliau ateis.

Kaip turėtume susidoroti su vadinamųjų AI avarijų neišvengiamumu?

Vienas dalykas, kurį galime padaryti iš karto, yra pabandyti numatyti, kaip gali įvykti AI nelaimingi atsitikimai. Numatydami dirbtinio intelekto nelaimingus atsitikimus, galime bent jau ieškoti būdų, kaip jas sumažinti arba sumažinti jų tikimybę. Be to, galime pabandyti įrengti apsauginius turėklus, kad AI avarijai įvykus sumažėtų akivaizdžios žalos tikimybė.

Naudingas veiksnių rinkinys, aprašytas anksčiau minėtame tyrimo straipsnyje AI gedimų supratimas ir jų išvengimas: praktinis vadovas apima šias savybes (kaip cituojama iš tyrimo straipsnio):

  • Sistema, kuriai daro įtaką AI išėjimai.
  • Laiko delsa tarp AI išėjimų ir didesnės sistemos, sistemos stebimumas, žmogaus dėmesio lygis ir operatorių gebėjimas ištaisyti DI veikimo sutrikimus.
  • Didžiausia žala, kurią galima padaryti dėl piktavališko AI valdomų sistemų naudojimo.
  • Komponentų sujungimas arti AI ir sąveikos sudėtingumas.
  • Žinių apie AI ir kitas naudojamas technologijas bei sistemos energijos lygį spraga.

Šioje didelės diskusijos vietoje galiu lažintis, kad norite pateikti keletą iliustruojančių pavyzdžių, kurie galėtų dar labiau paaiškinti AI nelaimingų atsitikimų temą. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar AI pagrįstų tikrų savarankiškai vairuojančių automobilių atsiradimas ką nors parodo apie vadinamųjų AI avarijų atsiradimą ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir AI incidentai

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Aš tikiu, kad tai suteikia pakankamai litanijos įspėjimų, kuriais grindžiamas tai, ką ketinu pasakyti.

Dabar esame pasiruošę giliai pasinerti į savarankiškai važiuojančius automobilius ir etiškas AI galimybes, susijusias su vadinamųjų AI avarijų atsiradimu.

Įsivaizduokite, kad jūsų kaimynystės gatvėse važinėja dirbtinio intelekto pagrindu veikiantis automobilis ir atrodo, kad jis važiuoja saugiai. Iš pradžių skyrėte ypatingą dėmesį kiekvieną kartą, kai pavykdavo užmesti akį į savaeigį automobilį. Autonominė transporto priemonė išsiskyrė savo elektroninių jutiklių stovu, kuriame buvo vaizdo kameros, radarai, LIDAR įrenginiai ir panašiai. Po daugelio savaičių savaeigio automobilio važinėjimo po jūsų bendruomenę dabar vos pastebite. Jūsų nuomone, tai tik dar vienas automobilis jau judriuose viešuosiuose keliuose.

Kad nepagalvotumėte, kad neįmanoma ar neįtikėtina susipažinti su savaeigiais automobiliais, aš dažnai rašiau apie tai, kaip vietos, kurios patenka į savarankiško automobilio bandymus, pamažu priprato prie išpuoselėtų transporto priemonių. Daugelis vietinių ilgainiui perėjo nuo burna žiojančio pasižavėjusio žvilgčiojimo į dabar skleidžiantį platų nuobodulio žiovumą, kad pamatytų tuos vingiuojančius savarankiškai važiuojančius automobilius.

Tikriausiai pagrindinė priežastis, kodėl jie gali pastebėti autonomines transporto priemones, yra susierzinimo ir susierzinimo veiksnys. AI vairavimo sistemos užtikrina, kad automobiliai laikytųsi visų greičio apribojimų ir kelių eismo taisyklių. Įspūdingi vairuotojai, važinėjantys tradiciniais žmonių varomais automobiliais, kartais erzina, kai užstrigo už griežtai įstatymų paisančių dirbtinio intelekto savarankiškų automobilių.

Prie to mums visiems gali tekti priprasti, teisingai ar neteisingai.

Grįžkime prie mūsų pasakos.

Vieną dieną savarankiškai važiuojantis automobilis patenka į avariją.

Darant posūkį į dešinę AI vairavimo sistema plačiai pasuko autonominę transporto priemonę ir atsitrenkė į žmogaus vairuojamą automobilį. Žmogaus vairuojamas automobilis važiavo tiesiai į priekį tinkama eismo juosta. Vairuotojui žmogui nebuvo jokios ypatingos galimybės nuvažiuoti ar išvengti smūgio. Be to, savarankiškai važiuojantis automobilis nebuvo perspėjęs ar nurodęs, kad jis ketina plačiai sukti į dešinę.

Ar tai nelaimingas atsitikimas?

Tikrai galime pasakyti, kad tai įtraukta į AI nelaimingo atsitikimo rubriką. Tokio tvirtinimo pagrindas yra tai, kad prie savaeigio automobilio vairo buvo AI vairavimo sistema. Kažkodėl dėl kokių nors priežasčių dirbtinis intelektas pasirinko plačiai svyruoti sukdamas į dešinę. Dėl to savarankiškai važiuojantis automobilis atsitrenkė į žmogaus vairuojamą automobilį.

Prisiminkite ankstesnę diskusiją apie konotacijas, susijusias su žodžiu „nelaimingas atsitikimas“, ir pažiūrėkite, kaip tokia potekstė atsiranda šiame scenarijuje. Taip pat atminkite, kad aptarėme atvejį, kai žmogus vairuotojas padarė platų posūkį į dešinę ir įsuko į kito žmogaus vairuojamą automobilį. Supratome, kad toks poelgis kaip „nelaimingas atsitikimas“ yra klaidinantis ir klaidinantis. Žmogus vairuotojas, kuris padarė platų siūbavimą, galėjo pasislėpti už minties, kad nelaimė įvyko tik dėl atsitiktinumo ar likimo užgaidų.

Užuot pavadinę scenarijų „AI nelaimingu atsitikimu“, kai dirbtinio intelekto pagrindu važiuojantis automobilis važiuoja plačiai ir atsitrenkė į žmogaus vairuojamą automobilį, galbūt turėtume sakyti, kad tai buvo automobilio avarija arba automobilio susidūrimas, susijęs su savimi vairuojamas automobilis ir žmogaus vairuojamas automobilis. Tada galime apsieiti be tuščios painiavos, kad tai yra nežinomų priemonių atsitiktinumas.

Kaip manote, kokia būtų visuomenės reakcija į įvykį?

Na, o jei automobilių gamintojas ar savarankiškai vairuojančių technologijų įmonė gali laikytis įvykio įvardijimo kaip nelaimingo atsitikimo, jie gali apsisaugoti nuo galimos bendruomenės reakcijos. Užuojautos jausmas dėl nelaimingų atsitikimų, apie kuriuos kalbama, gali persikelti į konkrečias aplinkybes. Norėdami sužinoti daugiau apie tai, kaip miestai, apskritys ir valstijų vadovai gali reaguoti į AI autonominių transporto priemonių incidentus, skaitykite Harvardo tyrimo, kuriam aš vadovavau ir kaip aprašyta nuoroda čia.

Jei situacija aiškiai apibūdinama kaip automobilio avarija ar automobilio susidūrimas, galbūt tai leistų suprasti, kad kažkas ar kažkas yra kaltas dėl įvykio. Gali būti, kad dirbtinis intelektas bus laikomas atsakingas. Reikalas tas, kad kol nuspręsime arba kada nors nuspręsime AI priskirti kaip turintį juridinio asmens statusą, jūs negalėsite priskirti atsakomybės pačiam DI (žr. mano diskusiją apie AI ir juridinio asmens statusą adresu nuoroda čia).

Galime apžiūrėti dirbtinio intelekto vairavimo sistemą, kad išsiaiškintume, kas lėmė, atrodo, netinkamą vairavimą ir vėlesnę automobilio avariją. Tačiau tai nereiškia, kad dirbtinis intelektas bus atsakingas. Atsakingos šalys yra AI kūrėjai, savaeigių automobilių parko operatorius ir kt. Pridedu ir kitus, nes yra tikimybė, kad miestas gali būti iš dalies atsakingas už kampo, kuriame įvyko posūkis, projektavimą. Be to, tarkime, kad pėsčiasis lėkė iš posūkio, o AI vairavimo sistema pasirinko vengti asmens ir vis dėlto pateko į automobilio avariją.

Ir taip toliau.

Išvada

Norėtume sužinoti, ką AI skaičiuoja ir ką jis buvo užprogramuotas. Ar AI padarė taip, kaip buvo užkoduota? Galbūt dirbtinis intelektas susidūrė su programavimo klaida ar klaida, kuri neatleidžia veiksmų, bet suteikia daugiau informacijos apie tai, kaip įvyko avarija.

Kokie AI apsauginiai turėklai buvo užprogramuoti AI vairavimo sistemoje? Jei būtų apsauginiai turėklai, norėtume išsiaiškinti, kodėl atrodė, kad jie neužkerta kelio automobilio avarijai. Galbūt AI vairavimo sistema galėjo sustoti, o ne pasukti. Norėtume sužinoti, kokias alternatyvas AI skaičiavimais įvertino per incidentą.

Be konkretaus incidento esmės, dar viena teisėta abejonė yra tai, ar dirbtinio intelekto vairavimo sistemoje yra trūkumų ar kito įterpto aspekto, kuris atliks panašius neigiamus veiksmus. Iš esmės šis incidentas gali būti signalas, kad ateityje bus daugiau. Kaip kompiuterinis vairavimo situacijų modeliavimas buvo naudojamas bandant numatyti tokio tipo AI vairavimo sistemos raginimą? Ar buvo pakankamai vairavimo kelyje egzaminų, kad būtų išaiškintos AI problemos, dėl kurių galėjo įvykti automobilio avarija?

Šis scenarijus išryškina ginčytiną mįslę, kuri kyla dėl dirbtinio intelekto pagrindu veikiančių savarankiškai vairuojančių automobilių.

Tai vyksta taip.

Viena vertus, yra visuomenės noras greitai priimti savarankiškai vairuojančius automobilius, nes tikimasi, kad dirbtinio intelekto vairavimo sistemos bus tokios pat saugios arba galbūt saugesnės nei vairuotojai. Vien Jungtinėse Valstijose šiuo metu kasmet miršta beveik 40,000 2.5 žmonių dėl automobilių avarijų ir apie XNUMX mln. Analizės rodo, kad didelė dalis tų automobilių avarijų yra priskiriamos žmogiškoms klaidoms, tokioms kaip vairavimas neblaivus, vairavimas išsiblaškius ir pan. (žr. mano tokios statistikos vertinimą adresu nuoroda čia).

AI vairavimo sistemos nevairuoja išgėrus. Jiems nereikės poilsio ir jie nenusidės sėdėdami prie vairo. Daroma prielaida, kad nustatę savarankiškai vairuojančius automobilius kaip perspektyvią transporto priemonę, galime sumažinti vairuotojų skaičių. Tai savo ruožtu turėtų reikšti, kad bendrai sumažinsime kasmet žuvusių ir sužeistų automobilių avarijose skaičių.

Kai kurie žinovai sakė, kad mes baigsime nuliu žuvusiųjų ir sužeistųjų, o tie savaeigiai automobiliai, kaip manoma, bus nesudužti, tačiau tai yra visiškai absurdiškas ir visiškai klaidingas lūkesčių rinkinys. Aš paaiškinau, kodėl tai taip nesąžininga nuoroda čia.

Bet kokiu atveju, manykite, kad mes turėsime tam tikrą skaičių automobilių avarijų, į kurias pateks savarankiškai važiuojantys automobiliai. Taip pat manykite, kad tose automobilių avarijose bus žuvusių ir sužeistų. Kyla kankinantis klausimas, ar mes, kaip visuomenė, iš viso norime toleruoti tokius atvejus. Kai kas sako, kad jei dėl tikrų savarankiškai važiuojančių automobilių įvyksta nors vienas mirtis ar sužalojimas, reikia uždaryti visą komplektą ir kaboodle.

Priešingas požiūris yra tas, kad jei išgelbėtų gyvybių skaičius mažina metinį skaičių, turėtume ir toliau skatinti savaeigių automobilių atsiradimą ir nereaguoti taip nelogiškai. Turėsime susitaikyti su prielaida, kad žuvusiųjų ir sužeistųjų skaičius vis dar išliks, net ir naudojant savarankiškai važiuojančius automobilius, ir vis dėlto suvokti, kad metinis skaičius, jei jis bus sumažintas, rodo, kad einame teisingu keliu.

Žinoma, kai kurie teigia, kad viešuosiuose keliuose neturėtume turėti savaeigių automobilių, kol jie nebus leisti naudoti tokiam naudojimui atlikus platų ir išsamų kompiuterinį modeliavimą arba atlikus privačius uždarus bandymus. Kontrargumentas yra tas, kad vienintelis perspektyvus ir greičiausias būdas priversti važiuoti savavaldžiais automobiliais yra važiuoti viešaisiais keliais ir kad bet koks delsimas priimti savarankiškai važiuojančius automobilius lems siaubingų žmonių vairuojamų automobilių avarijų skaičių. Šias diskusijas savo skiltyse aprašiau plačiau ir raginu skaitytojus pažvelgti į šias diskusijas, kad suprastų šio prieštaringo klausimo perspektyvas.

Užbaikime reikalus kol kas.

AI nelaimingi atsitikimai įvyks. Turime atsispirti impulsui AI nelaimingą atsitikimą suprasti kaip iš pažiūros netyčia ir todėl klaidingai leiskite kūrėjams ir tiems, kurie diegia AI, kategoriškai nusileisti.

Yra dar vienas posūkis, kurį palieku jums kaip paskutinę intriguojančią jūsų dienos mintį.

Pranešama, kad komikas Dane'as Cookas pajuokavo apie automobilių avarijas: „Prieš porą dienų patekau į automobilio avariją. Ne mano kaltė. Net jei tai ne tavo kaltė, kitas žmogus išlipa iš savo automobilio ir žiūri į tave taip, lyg tai būtų tavo kaltė: Kodėl tu sustojai prie raudono šviesoforo ir leidai man tave partrenkti važiuodamas 80!

Išryškėja galimybė, kad dirbtinio intelekto sistema gali reikalauti, kad AI nelaimingas atsitikimas, susijęs su konkrečiu dirbtiniu intelektu, AI skelbia, kad dėl incidento kaltas žmogus, o ne DI. Beje, tai gali būti visiškai tiesa ir žmogus gali bandyti padaryti AI atpirkimo ožiu teigdamas, kad tai buvo DI kaltė.

O gal dirbtinis intelektas bando paversti žmogų atpirkimo ožiu.

Matote, mūsų sukurtas AI gali būti sudėtingas, atsitiktinai ar ne.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-invitably-of-ai-accidents-which-looms-over-autonomous-self- vairuoti-automobilius-taip pat/