Dirbtinio intelekto etikos ir autonominių sistemų pamokos, gautos iš pastarojo „Alaska Airlines“ skrydžio, kai pilotas ir antrasis pilotas nesutarė prieš pakildami ir staiga pasirinko taksi grįžti į terminalą ir keliauti skirtingais keliais

Avialinijos pastaruoju metu buvo gana populiarios.

Esame vasaros skrydžio spūstyje. Pavargę ir nusivylę keleiviai susiduria su įvairiausiais skrydžių sutrikimais ir oro linijų tvarkaraščių iškraipymais. Skrydžiai atšaukiami netikėtai. Skrydžiai vėluoja. Keleivių dūmai. Deja, buvo daug atvejų, kai keleiviai leido prasiveržti šiam nerimui, ir mes matėme, kaip apgailėtina, per daug virusinių vaizdo įrašų, kuriuose užfiksuoti susidūrimai ir kartais mušami kumščiai.

Rečiau sužinome apie ginčus tarp piloto ir antrinio piloto, kurie gali kilti būnant kabinoje.

Tai nemaža staigmena.

Iš tiesų, mes natūraliai stebimės galvodami, kad bet kuriuo skrydžio etapu pilotas ir antrasis pilotas gali turėti rimtų nesutarimų. Jei nesutariama dėl to, kurios kavos prekės ženklas yra geriausias, darome prielaidą, kad tai netrukdys skraidyti lėktuvu. Jiedu tiesiog gūžtelėtų pečiais, nes jiems netrūksta akis į akį, atrodo, skrydžiui nereikšminga tema. Jų profesionalus elgesys ir ilgametis pilotų mokymas įsibėgėtų ir jie vėl sutelktų dėmesį į skrydžio duomenis.

Tačiau pagalvokite, kada a profesinis nesutarimas įsikiša.

Trumpai pasidalinsiu su jumis plačiai paskelbta naujiena apie neseniai įvykusį atvejį skrydžio JAV metu, susijusį su tariamu profesiniu nesutarimu kabinoje.

Tai daugiausia cituojama čia, kad galėtume ištirti susijusią temą, kuri yra labai svarbi dirbtinio intelekto (DI) atsiradimui. Sakytume, gali kilti tam tikra profesinių nesutarimų forma tarp žmonių ne tik žmonių tarpusavio nesutarimų atveju, bet ir kažkas panašaus, kai priimamas dirbtinis intelektas ir dėl to kyla nesutarimų tarp žmogaus ir dirbtinio intelekto. . Kyla visokių AI etikos svarstymų. Išsamią ir nuolatinę AI etikos ir etikos AI klausimų aprėptį žr nuoroda čia ir nuoroda čia, tik pavadinimas kelias.

Pasiruoškite žaviai pasakai.

Kaip neseniai buvo pranešta naujienose, „profesinių nesutarimų“ atvejis, matyt, kilo per Alaska Airlines skrydį, skridusį iš Vašingtono į San Franciską. Remiantis naujienų pranešimais, skrydis buvo nutolęs nuo vartų ir laukė ant asfalto leidimo riedėti ir skristi. Kilo audra, dėl kurios skrydis buvo atidėtas daugiau nei pusantros valandos. Paaiškėjo, kad lėktuvas galiausiai apsisuko ir grįžo prie vartų, o kai kurie keleiviai paprastai galėjo manyti, kad tai buvo tik su audra susijusi atsargumo priemonė.

Iš įvairių „tweets“ žinučių atrodo, kad pilotas ir antrasis pilotas per savo laiką, praleistą kabinoje, susikivirčijo ir kažkodėl priėjo prie išvados, kad protingiausias būdas būtų nušveisti skrydį ir grįžti į terminalą. . Tviteryje buvo teigiama, kad kapitonas ir pirmasis karininkas, matyt, negalėjo sutarti vienas su kitu. Vėliau aviakompanija paskelbė pareiškimą, kad situacija buvo apgailėtina (situacija nebuvo aiškiai nurodyta ar paaiškinta per se), vadovybė įvertino du skrydžio pareigūnus ir pripažino, kad jie tinkami skraidyti, buvo pakeistos įgulos ir skrydis baigėsi. ir vėliau pasiekė San Franciską.

Tam tikra prasme, jei iš tikrųjų pilotas ir antrasis pilotas iš tikrųjų nesutarė dėl profesinių nesutarimų, pavyzdžiui, ar lėktuvas buvo tinkamai paruoštas skrydžiui, ar pavojus skristi per audrą yra tinkamo saugumo ribose, tiems keleiviams turėtų būti suteikta lengvata ir dėkingas, kad lėktuvas buvo grąžintas prie vartų. Geriau saugotis nei gailėtis. Papildomas vėlavimas yra vertas numanomo rizikos, susijusios su sudėtinga ar nepalankiu skrydžio kelione, sumažinimo.

Kai kurie žmonės gali nustebti, kad gali kilti toks profesinis nesutarimas.

Galbūt susidaro klaidingas įspūdis, kad viskas, kas vyksta kabinoje, yra visiškai tikslu ir gerai surašyta. Atrodo, kad iš proceso buvo išstumta bet kokia žmogaus diskrecija. Remiantis tiksliomis ir kruopščiai apskaičiuotomis diagramomis, skrydį galima tęsti arba ne. Negali būti jokių nesutarimų, kai manoma, kad visas rinkinys ir siužetas yra pagrįsti nepaneigiamu faktų ir skaičių skaičiavimu.

Tai nėra visa reikalo tiesa. Žinoma, yra daugybė protokolų ir visokių patikrinimų bei atsvarų, tačiau tai neatima viso žmogaus sprendimo. Pilotai ir antrieji pilotai vis dar naudojasi žmogišku sprendimu. Laimei, šį žmogaus sprendimą patobulina ilgus metus trukęs skrydis. Tikėtina, kad komercinio keleivinio lėktuvo pilotas ir antrasis pilotas turi daug ankstesnės skrydžio patirties ir lengvai panaudoja savo ilgamečius nuodugnius samprotavimus ir sprendimus, susijusius su skrydžio valdymo pultu.

Atsižvelgdami į didelį žmogaus sprendimo vaidmenį, galime logiškai numatyti, kad pilotas ir antrasis pilotas kartais turės profesinių nesutarimų. Dažniausiai tokių nesutarimų būna labai mažai. Tikėtina, kad kasdienių skrydžių pilotas ir antrasis pilotas bus gerai suderinti tuo metu. Tik tada, kai skrydžio scenarijus gali išeiti už įprastinių ribų, tikėtume, kad atsiras įtempta trintis.

Jei tarp jų labai skiriasi nuomonės, drįsčiau teigti, kad norime, kad jie tai pašalintų.

Įsivaizduokite situaciją, kai pilotas staigiai nori tęsti, bet antrasis pilotas suvokia, kad rizika yra per didelė. Atrodytų, kad nepageidautina vien turėti antrąjį pilotą. Antrasis pilotas yra patikrinimas ir pusiausvyra, ką pilotas gali galvoti. Tiems, kurie nori, kad antrasis pilotas užsičiauptų ir elgtųsi tik be proto, kad ir ką pilotas įsakytų, tai nėra didelis užtikrinimas. Antrasis pilotas nėra tiesiog atsarginis „pilotas“, kuris patenka į vaizdą tik tada, kai pilotas yra visiškai nedarbingas. Tai klaidingas supratimas apie piloto ir antrojo piloto kabinoje vertę.

Yra ir kitas kampas.

Apsvarstykite atvejį, kai pilotas netiki, kad skrydis turėtų tęstis, o antrasis pilotas nerimauja dėl pakilimo į orą. Kas tada? Pagal numatytą hierarchiją pilotas paprastai turi viršenybę prieš antrąjį pilotą. Nurodytas vaidmuo būti pagrindiniu vadovu daro pilotą didesnį už tai, kas kitu atveju yra šiek tiek lygus. Paprastai pilotas turi daugiau bendro skrydžio laiko nei antrasis pilotas, todėl antrasis pilotas pagal hierarchiją turėtų paklusti piloto norams (kai protingumo ribose).

Bet kuriuo atveju, manau, visi galime sutikti, kad pasirinkimas neskraidyti yra tikrai mažiau rizikingas pasirinkimas nei apsisprendimas skristi. Lėktuvui pakilus į orą, rizikos lygis tampa milžiniškas, palyginti su buvimu ant bet kokios įprastos stabilios žemės. Įprastas komercinis skrydis, kuris tiesiog taksi grįžta į terminalą nepakilus į orą, būtų gana draugiškas sprendimas bet kokioms karštoms įnirtingoms diskusijoms dėl skrydžio.

Perjungkime pavaras ir panaudokime šią nuotaikingą naujieną visai kitam, bet susijusiam tikslui.

Palaipsniui tarp mūsų vyrauja AI pagrįstos autonominės sistemos. Kartais AI tarsi paleidžia šou. AI daro viską nuo A iki Z, ir mes galime tai suprasti kaip visiškai arba beveik savarankišką AI. Kitais atvejais galime turėti dirbtinį intelektą, kuris sąveikauja su ir tam tikru mastu yra užprogramuotas priklausyti nuo žmogaus ciklo.

Norėčiau sutelkti dėmesį į AI pagrįstą autonominę arba pusiau autonominę sistemą, kurioje nuo pat pradžių yra žmogus. Dirbtinis intelektas ir žmogus yra sąmoningai sujungti kartu ir turėtų dirbti kartu vienas su kitu. Jie yra grupės, atliekančios tam tikrą užduotį. Vien tik dirbtinis intelektas neturi atlikti užduoties. AI turi sąveikauti su nurodytu žmogumi cikle.

Pateikiu šį apibūdinimą, kad atskirčiau nuo situacijų, kai žmogus cikle laikomas pasirenkamu aspektu. Iš esmės AI suteikiama laisvė. Jei AI nusprendžia pasinaudoti žmogumi, tebūnie taip. Nėra reikalavimo, kad dirbtinis intelektas turėtų liesti pagrindą su nurodytu žmogumi arba dirbti kartu su juo. Analizė, kurią ruošiuosi papasakoti, tikrai tinka tokiai rūšiai neprivalomas sąveikos susitarimą, bet aš ne tai konkrečiai šioje diskusijoje.

Gerai, mes turime tam tikrą užduotį, kurią žmogus ir AI dirbs kartu, neatsiejamai vienas nuo kito. Abstrakčia prasme vienoje sėdynėje sėdi žmogus, o kitoje – AI sistema. Sakau tai įžūliai, nes šios diskusijos neapsiribojame, pavyzdžiui, robotu, kuris iš tikrųjų gali sėdėti vietoje. Aš metaforiškai užsimenu apie mintį, kad dirbtinis intelektas kažkur dalyvauja atliekant užduotį, o taip pat ir žmogus. Fiziškai jų buvimo vieta nėra ypač svarbi diskusijai.

Galbūt nesate tikri, kada tokia aplinkybė gali atsirasti.

Lengvas žirnis.

Vėliau aptarsiu autonominių transporto priemonių ir savaeigių automobilių atsiradimą. Tam tikruose autonomijos lygiuose AI ir žmogus turėtų dirbti kartu. AI gali vairuoti automobilį ir paprašyti, kad žmogus perimtų vairavimo valdiklius. Žmogus gali vairuoti automobilį ir suaktyvinti AI, kad perimtų valdymą. Jie paeiliui keičia vairavimo valdiklius.

Be to, kai kuriuose modeliuose dirbtinis intelektas yra iš esmės aktyvus visą laiką (arba, nebent jis išjungtas), kad dirbtinis intelektas visada būtų pasiruošęs. Be to, dirbtinis intelektas gali tiesiogiai įsikišti, net žmogui neprašant, priklausomai nuo susiklosčiusios situacijos. Tarkime, pavyzdžiui, atrodo, kad žmogus užmigo prie vairo. Kadangi atrodo, kad žmogus negali suaktyvinti AI (nes žmogus miega), AI gali būti užprogramuota perimti valdymą iš žmogaus.

Kai kuriuose modeliuose dirbtinis intelektas ir žmonės veikia dvigubai. AI vairuoja, o žmogus vairuoja. Arba, jei norite, vairuoja žmogus, o dirbtinis intelektas taip pat vairuoja. Kiekvienas iš jų vairuoja transporto priemonę. Lyginu tai su tais specialiai sumontuotais automobiliais, kuriuos galbūt naudojote mokydamiesi vairuotojų, o transporto priemonėje buvo du vairavimo valdiklių rinkiniai – vienas vairuotojui mokiniui, kitas – vairavimo instruktoriui.

Tai tik vienas iš pavyzdžių, kai dirbtinis intelektas ir žmonės gali kartu atlikti užduotį. Egzistuoja visokios galimybės. Panašiai gali būti sukurtos ir kitos autonominės transporto priemonės, pavyzdžiui, lėktuvai, dronai, povandeniniai laivai, antvandeniniai laivai, traukiniai ir pan. Turime atsižvelgti ne tik į transporto priemonių ir transporto parametrus. Įsivaizduokite medicinos sritį ir operacijas, kurias kartu atlieka gydytojas ir AI sistema. Sąrašas yra begalinis.

Beveik jaučiuosi taip, lyg turėčiau omenyje klasikinį triukšmingą pokštą apie žmogų ir dirbtinį intelektą, kurie kartu įeina į barą. Tai gana juokas tiems, kurie užsiima dirbtiniu intelektu.

Jei rimtai, grįžkime prie žmogaus ir AI sistemos, kuri kartu atlieka tam tikrą užduotį, dėmesio. Pirma, noriu išvengti AI antropomorfizavimo, o tai akcentuosiu. AI nėra jautrus. Turėkite tai omenyje.

Čia yra apie ką pamąstyti: Ar paskirtas žmogus cikle visada visiškai sutars su bendradarbiaujančiu AI?

Atrodo mažai tikėtina, kad atliekant bet kokią sudėtingą užduotį žmogus ir dirbtinis intelektas bus visiškai ir visada visiškai suderinti. Žmogus kartais gali nesutikti su AI. Šią prielaidą galime remtis iki pat banko.

Norėčiau, kad jūs taip pat apsvarstytumėte šią galbūt netikėtą galimybę: Ar AI visada visiškai sutars su paskirtu žmogumi?

Vėlgi, atliekant bet kokią sudėtingą užduotį, atrodo visiškai įmanoma, kad dirbtinis intelektas kai kuriais atvejais nesutiks su žmonėmis. Jei jau linkstate į idėją, kad dirbtinis intelektas visada turi klysti, o žmonės visada turi būti teisūs, būtų protinga permąstyti šią skubotą išvadą. Įsivaizduokite automobilį, kuriame žmogus ir dirbtinis intelektas kartu vairuoja pusiau autonominę transporto priemonę. Žmogus krypsta link mūrinės sienos. Kodėl? Nežinome, galbūt žmogus yra apsvaigęs ar užmigo, bet žinome, kad trenktis į mūrinę sieną nėra gera idėja, nes visa kita yra lygi. AI gali aptikti artėjančią nelaimę ir siekti nusisukti nuo artėjančio barjero.

Viską pasakius, turėsime aiškią galimybę, kad dirbtinis intelektas ir žmogus nesutars vienas su kitu. Kitas būdas pasakyti tą patį yra žmonės ir AI nesutaria vienas su kitu. Atkreipkite dėmesį, kad nenoriu, kad AI ir žmogus, palyginti su žmogumi ir DI, seka rodytų ką nors apie nesutarimo kryptį ar tikimybę.

Du darbuotojai, vienas žmogus ir vienas dirbtinis intelektas, nesutaria vienas su kitu.

Iš anksto galėtume pareikšti, kad kai tik kyla nesutarimų tarp tam tikro AI ir konkretaus žmogaus, mes iš anksto paskelbiame, kad žmogus pirmauja prieš AI. Tai pasakius, mano iliustratyvus pavyzdys apie automobilį, kuris važiuoja į plytų sieną, tarsi atgrasytų mus, kad žmogus visada bus teisus.

Priešingai, galėtume pasirinkti iš anksto pareikšti, kad kilus nesutarimui mes iš anksto įsitikinsime, kad dirbtinis intelektas yra teisingas, o žmogus klysta. Tai taip pat nėra protingai apibendrinama nuostata. Įsivaizduokite automobilį, kuriame dirbtinis intelektas turi įterptosios programinės įrangos klaidą arba klaidą, o dirbtinis intelektas bando nukreipti transporto priemonę nuo kelio ir į griovį. Darant prielaidą, kad visa kita yra lygi, žmogus turėtų sugebėti įveikti šį AI vairavimo veiksmą ir neleisti transporto priemonei nusileisti į griovį.

Padarykime trumpą to santrauką:

  • Ar nuolatinis žmogus visada visiškai sutiks su AI? Atsakymas: Ne.
  • Ar DI visada visiškai sutars su žmogumi cikle? Atsakymas: Ne.
  • Ar nuolatinis žmogus, palyginti su AI, visada bus teisus? Atsakymas: Nebūtinai.
  • Ar dirbtinis intelektas visada bus teisus, palyginti su žmogumi? Atsakymas: nebūtinai.

Jūs tikrai galite nustatyti, kad dirbtinis intelektas pagal numatytuosius nustatymus būtų laikomas „neteisinga“ arba silpnesne šalimi, todėl kilus nesutarimams visada atidėkite žmogui. Taip pat galite nustatyti AI taip, kad AI būtų laikoma „teisinga“, kai žmogus nesutinka su AI. Noriu paaiškinti, kad galime tai padaryti programiškai, jei norime. Tačiau aš tvirtinu, kad apskritai taip bus ne visada. Neabejotinai yra nustatymų, kuriuose iš anksto nežinome, ar dirbtinis intelektas yra „teisus“, ar žmogus yra „teisus“, kalbant apie vieną ar kitą variantą, kai nesutariama dėl tam tikros užduoties.

Aš nukreipiau jus į labai svarbų ir labai sudėtingą klausimą.

Ką turėtume daryti, kai kyla profesinių nesutarimų tarp žmogaus ciklo ir dirbtinio intelekto (arba, lygiaverčiai, galime tai suformuluoti kaip tarp AI ir žmogaus kilpoje)?

Nemėginkite išsisukti nuo klausimo.

Kai kas gali ginčytis, kad tai niekada neįvyks, bet, kaip aprašiau savo pavyzdyje apie automobilį, tai tikrai gali atsitikti. Kai kas gali ginčytis, kad žmogus yra akivaizdžiai pranašesnis ir turi būti bet kokių nesutarimų nugalėtojas. Mano pavyzdys apie automobilį ir mūrinę sieną jį numuša. Kai kurie dirbtinio intelekto šalininkai gali reikalauti, kad dirbtinis intelektas būtų nugalėtojas dėl tariamai įveikiamų žmonių emocijų ir tų atsitiktinai neaiškiai mąstančių žmonių mąstymo. Dar kartą kitas mano pavyzdys, kai automobilis važiuoja į griovį, paneigia šį teiginį.

Realiame pasaulyje dirbtinis intelektas ir žmonės nesutars, net jei jie abu yra sąmoningai suburti į komandinę situaciją, kad galėtų atlikti bendrai numatytą užduotį. Tai nutiks. Negalime kišti galvos į smėlį ir apsimesti, kad taip neatsitiks.

Matėme, kad lėktuvą pilotavę žmonės akivaizdžiai nesutarė. Laimei, jie sutiko nesutikti, todėl atrodo. Jie grąžino lėktuvą į terminalą. Jie rado būdų, kaip išspręsti nesutarimą. Nesutarimų sprendimas pasiteisino, palyginti su tuo, jei galbūt jie būtų susimušę kabinoje, o gal pakilę į orą ir toliau kovojo vienas su kitu. Tai liūdnas scenarijus, kurio negalima pagrįsti, ir galime būti dėkingi, kad neįvyko.

Leiskite man pateikti sąrašą įvairių būdų, kaip galima išspręsti AI ir žmogaus ciklo (arba žmogaus ciklo ir AI) nesutarimus:

  • AI ir kartu dirbantis žmogus viską išsprendžia (draugiškai ar ne)
  • Pagal numatytuosius nustatymus žmogus pirmauja prieš AI
  • DI pagal nutylėjimą vyrauja prieš žmogų
  • Pagal numatytuosius nustatymus vyrauja kita iš anksto nustatyta fiksuota skiriamoji geba
  • Trečiosios šalies žmogus yra įtrauktas į kilpą ir jų nurodymas viršija šalis
  • Trečiųjų šalių dirbtinis intelektas yra įtrauktas į kilpą ir jo nurodymai viršija šalis
  • Trečiosios šalies žmogus pakeičia esamą žmogų, viskas vyksta iš naujo
  • Trečiosios šalies AI pakeičia esamą AI, viskas vyksta iš naujo
  • Trečiosios šalies žmogus pakeičia esamą AI, viskas vyksta iš naujo (dabar – žmogus žmogui)
  • Trečiosios šalies AI pakeičia esamą žmogų, viskas vyksta iš naujo (dabar AI į AI)
  • kitas

Jie yra verti išpakuoti.

Prieš pradėdami daugiau kalbėti apie laukinius ir neviltiškus svarstymus, kaip spręsti AI ir žmonių nesutarimus, pateikime keletą papildomų esminių dalykų. Turime trumpai pasinerti į AI etiką ir ypač mašininio mokymosi (ML) ir giluminio mokymosi (DL) atsiradimą.

Galbūt miglotai žinote, kad vienas garsiausių balsų šiais laikais dirbtinio intelekto srityje ir net už AI ribų yra reikalavimas siekti didesnio etiško AI panašumo. Pažiūrėkime, ką reiškia AI etika ir etiška AI. Be to, išnagrinėsime, ką turiu omenyje kalbėdamas apie mašininį mokymąsi ir gilųjį mokymąsi.

Vienas konkretus dirbtinio intelekto etikos segmentas arba dalis, sulaukianti daug žiniasklaidos dėmesio, yra dirbtinis intelektas, pasižymintis nepageidaujamu šališkumu ir nelygybe. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Netrukus pasidalinsiu su jumis kai kuriais pagrindiniais AI etikos principais. Šen bei ten sklando daugybė tokių sąrašų. Galima sakyti, kad dar nėra vienintelio visuotinio patrauklumo ir sutapimo sąrašo. Tai liūdna žinia. Geros naujienos yra tai, kad bent jau yra lengvai prieinami AI etikos sąrašai ir jie paprastai yra gana panašūs. Apskritai tai rodo, kad tam tikra pagrįsto konvergencijos forma randame kelią link bendro AI etikos bendrumo.

Pirma, trumpai apžvelgsime kai kuriuos bendrus etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam AI.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veikimo metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo dirbtinio intelekto kūrimo pastangas, ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai yra svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti dirbtinio intelekto etikos nuostatas ir jų laikytis.

Taip pat įsitikinkime, kad esame tame pačiame puslapyje apie šiandienos AI prigimtį.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Be to, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks DI gali būti protingesnis už žmones (dėl mano, kaip galimo itin intelektualaus DI, tyrinėjimo žr. aprėptis čia).

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Grįžkime prie nesutarimų tarp AI ir žmogaus.

Anksčiau nurodžiau, kad tai yra keletas nesutarimų sprendimo strategijų:

  • AI ir kartu dirbantis žmogus viską išsprendžia (draugiškai ar ne)
  • Pagal numatytuosius nustatymus žmogus pirmauja prieš AI
  • DI pagal nutylėjimą vyrauja prieš žmogų
  • Pagal numatytuosius nustatymus vyrauja kita iš anksto nustatyta fiksuota skiriamoji geba
  • Trečiosios šalies žmogus yra įtrauktas į kilpą ir jų nurodymas viršija šalis
  • Trečiųjų šalių dirbtinis intelektas yra įtrauktas į kilpą ir jo nurodymai viršija šalis
  • Trečiosios šalies žmogus pakeičia esamą žmogų, viskas vyksta iš naujo
  • Trečiosios šalies AI pakeičia esamą AI, viskas vyksta iš naujo
  • Trečiosios šalies žmogus pakeičia esamą AI, viskas vyksta iš naujo (dabar – žmogus žmogui)
  • Trečiosios šalies AI pakeičia esamą žmogų, viskas vyksta iš naujo (dabar AI į AI)
  • kitas

Laikas juos išpakuoti.

Pirma, pagalvokite, kad visa tai yra apie tik profesionaliems nesutarimų.

Profesinis nesutarimas yra laisvai apibrėžiamas kaip nesutarimas, susijęs su darbu susijusia užduotimi.

Pavyzdžiui, nesutarimas, kylantis tarp piloto ir antrojo piloto dėl to, ar tęsti skrydį, kai kyla audra, gali būti pagrįstai pažymėtas kaip profesinis nesutarimas. Priešingai, aršūs nesutarimai dėl to, kurį kavos prekės ženklą pasisako pilotas, palyginti su prekės ženklu, kuriam pirmenybę teikia antrasis pilotas, šiame konkrečiame kontekste yra lengvai priskiriamas neprofesionaliems nesutarimams.

Žinoma, jei neprofesionalus nesutarimas perauga į profesinį nesutarimą, galiausiai mus sudomins neprofesionalus nesutarimas kaip tariamas šaltinis ar kibirkštis profesiniam. Įsivaizduokite, kad pilotas ir antrasis pilotas aršiai ginčijasi dėl to, kuri kavos markė yra geriausia, o tai, deja, persimeta į su skrydžiu susijusias problemas (kalbamumas!), pavyzdžiui, ar pakilti, ar ne.

Antra, turime turėti omenyje profesinių nesutarimų mastą.

Galbūt pilotas ir antrasis pilotas arba šiek tiek nesutaria dėl tolesnio skrydžio. Jie nesiginčija ir tik svarsto, ar kilti, privalumus ir trūkumus. Tai nėra profesionalių nesutarimų, apie kuriuos mes čia paprastai svarstome, kalibras ar mastas. Reikalas tas, kad gali būti, kad profesinis nesutarimas yra laikinas ir abi šalys nuoširdžiai arba bent jau laiku sprendžia sprendimą. Paprastai profesinių nesutarimų dėmesio centre yra tie, kurie atrodo sunkiai išsprendžiami, ir abi šalys nuolat nesutaria.

Trečia, paprastai turi būti kažkas rimto, kad šios gairės pradėtų veikti.

Pasirinkimas skristi ar neskristi yra neabejotinai gyvybės ar mirties sprendimas, jei skrydžiui kyla pavojus dėl audros arba jei lėktuvas nėra visiškai pasirengęs tokiai kelionei. Tai rimtas verslas. Mes vis tiek galime taikyti gaires mažiau įtakingiems profesiniams nesutarimams, nors tai gali būti labiau varginanti, nei verta.

Gerai, mes manome, kad:

  • Nesutarimai iš esmės yra orientuoti į profesinę, o ne dėl kažko neprofesionalaus
  • Nesutarimas yra ilgalaikio pobūdžio, o ne tik laikinas ar kitaip lengvai išsprendžiamas
  • Nesutarimas išpranašauja rimtas pasekmes ir dažniausiai turi įtakos
  • Šalys nesutaria ir atrodo sunkiai įveikiamos

Dabar atidžiau pažvelkime į kiekvieną mano siūlomą gairę ar požiūrį, kaip susidoroti su tokiais profesiniais nesutarimais.

AI ir kartu dirbantis žmogus viską išsprendžia (draugiškai ar ne)

Sąrašą pradedu nuo tiesioginės galimybės, kad dirbtinis intelektas ir žmogus gali išspręsti profesinius nesutarimus tarpusavyje. Atrodo, kad galbūt dviejų žmonių, piloto ir antrinio piloto, pavyzdys iliustruoja tokią aplinkybę. Jie kažkaip nusprendė grįžti į terminalą ir eiti skirtingais keliais. Gali būti, kad dirbtinio intelekto sistema ir žmogus sugeba išsiaiškinti sprendimo būdą, kuris paprastai tenkina abi šalis, todėl klausimas yra patenkinamai išspręstas.

Pagal numatytuosius nustatymus žmogus pirmauja prieš AI

Kurdami dirbtinį intelektą galime užprogramuoti taisyklę, kuri sako, kad kilus profesiniams nesutarimams visada turi viršų „žmogus kilpoje“. Tai būtų aiškiai užkoduotas numatytasis nustatymas. Taip pat galime leisti tam tikrą nepaisymą bet kuriuo atveju, nors galiojanti taisyklė bus ta, kad vyrauja žmogus.

DI pagal nutylėjimą vyrauja prieš žmogų

Kurdami dirbtinį intelektą galime užprogramuoti taisyklę, kuri sako, kad AI visada turi viršenybę prieš žmogų, kilusį profesinių nesutarimų. Tai yra aiškiai užkoduotas numatytasis nustatymas. Taip pat galime leisti tam tikrą nepaisymą, bet galiojanti taisyklė bus tokia, kad vyrauja dirbtinis intelektas.

Pagal numatytuosius nustatymus vyrauja kita iš anksto nustatyta fiksuota skiriamoji geba

Nustatydami dirbtinį intelektą galime užprogramuoti taisyklę, pagal kurią būtų vyrauja kita iš anksto nustatyta fiksuota skiriamoji geba, kai tik kils profesinis nesutarimas su žmogumi. Pagal nutylėjimą nevyrauja „žmogus cikle“. AI pagal nutylėjimą nevyrauja. Yra ir kita iš anksto nustatyta rezoliucija. Pavyzdžiui, galbūt mesti monetą, kuri bus naudojama sprendžiant, kuri iš dviejų šalių yra laikoma teisingu keliu. Akivaizdu, kad tai atrodytų gana savavališka; taigi, kitas pavyzdys būtų toks, kad įsigalios specializuota taisyklė, apskaičiuojanti vertę pagal abiejų šalių įvestis ir gaunamas rezultatas kaip pertrauka.

Trečiosios šalies žmogus yra įtrauktas į kilpą ir jų nurodymas viršija šalis

Kilus profesiniams nesutarimams, gali būti taikoma taisyklė, kad trečioji šalis, kuri yra žmogus, yra iškviečiama ir įtraukiama į aplinką, kad būtų priimtas sprendimas dėl nesutarimo sprendimo. AI yra užprogramuota taip, kad atsižvelgtų į tai, ką nusprendžia trečiosios šalies žmogus. Žmogus, kuris jau yra „žmogaus kilpoje“, buvo iš anksto instruktuotas, kad jei susiklostys tokia situacija, jie taip pat turi pasiduoti trečiajai šaliai. Be to, tikriausiai galite numatyti, kad žmogus kilpoje gali nerimauti dėl prisijungimo prie to, ką nusprendžia trečiosios šalies žmogus, jei sprendimas nesutampa su žmogaus ciklo poza.

Trečiųjų šalių dirbtinis intelektas yra įtrauktas į kilpą ir jo nurodymai viršija šalis

Kilus profesiniams nesutarimams, gali būti taikoma taisyklė, kad trečioji šalis, kuri yra kita AI sistema, yra iškviečiama ir įtraukiama į nustatymą, kad būtų priimtas sprendimas dėl nesutarimo sprendimo. Originalus AI užprogramuotas taip, kad būtų atidėta trečiosios šalies AI sprendimui. Žmogus, jau esantis „žmogaus ciklo“ sistemoje, buvo iš anksto instruktuotas, kad jei susiklostys tokia situacija, jie taip pat turėtų kreiptis į trečiosios šalies AI. Be to, galite numatyti, kad žmogus kilpoje gali jausti nerimą dėl prisijungimo prie to, ką nusprendžia trečiosios šalies AI, jei sprendimas nesutampa su žmogaus ciklo poza.

Trečiosios šalies žmogus pakeičia esamą žmogų, viskas vyksta iš naujo

Kilus profesiniams nesutarimams, žmogus kilpoje pakeičiamas trečiąja šalimi, kuri yra žmogus ir nuo šiol tampa žmogumi kilpoje. Žmogus, kuris buvo pradinis žmogus, atliekantis užduotį, nebelaikomas atliekamos užduoties dalimi. Tai atviras aspektas, kaip kitaip atsitiks su dabar pakeistu žmogumi kilpoje, bet mes tikrai sakome, kad jie nebeturi jokio nuolatinio vaidmens atliekant darbo užduotį.

Trečiosios šalies AI pakeičia esamą AI, viskas vyksta iš naujo

Kilus profesiniams nesutarimams, dirbtinis intelektas pakeičiamas trečiosios šalies dirbtiniu intelektu ir nuo šiol tampa dirbtiniu intelektu, naudojamu atliekamai darbo užduočiai. AI, kuri iš pradžių buvo naudojama užduočiai atlikti, nebėra laikoma atliekamos užduoties dalimi. Tai yra atviras aspektas, kas atsitiks su dabar pakeistu AI, bet mes sakome, kad AI tikrai nebeturi jokio nuolatinio vaidmens atliekant darbo užduotį.

Trečiosios šalies žmogus pakeičia esamą AI, viskas vyksta iš naujo (dabar – žmogus žmogui)

Kilus profesiniams nesutarimams, dirbtinis intelektas pakeičiamas trečiosios šalies žmogumi, kuriam tas asmuo dabar tampa laikoma bendra komandos šalimi, kuri bus naudojama atliekamai darbo užduočiai atlikti. AI, kuri iš pradžių buvo naudojama užduočiai atlikti, nebėra laikoma atliekamos užduoties dalimi. Tai atviras aspektas, kas atsitiks su dabar pakeistu AI, bet mes sakome, kad AI tikrai nebeturi jokio nuolatinio vaidmens atliekant darbo užduotį. Trumpai tariant, tai dabar tampa dviejų šalių užduotimi, atliekama tarp žmonių.

Trečiosios šalies AI pakeičia esamą žmogų, viskas vyksta iš naujo (dabar AI į AI)

Kilus profesiniams nesutarimams, žmogus kilpoje pakeičiamas trečiosios šalies AI ir nuo šiol šis AI tampa ankstesnio žmogaus ciklo užpildu. Žmogus, kuris buvo pradinis žmogus, atliekantis užduotį, nebelaikomas atliekamos užduoties dalimi. Tai atviras aspektas, kaip kitaip atsitiks su dabar pakeistu žmogumi kilpoje, tačiau mes tikrai sakome, kad jie nebeturi jokio nuolatinio vaidmens atliekant darbo užduotį. Trumpai tariant, tai dabar tampa dviejų šalių AI-to-AI, kad atliktų užduotį.

kitas

Gali būti sugalvoti ir kiti variantai, siekiant susidoroti su profesiniais nesutarimais, tačiau čia aptarėme kai kuriuos esminius dalykus.

Kaip nuspręsti, kuris iš šių metodų tam tikroje situacijoje bus tinkamas?

Renkantis tokį pasirinkimą kyla daug įvairių problemų. Yra technologinių sumetimų. Yra verslo sumetimai. Yra teisinių ir etinių sumetimų.

Tam tikru mastu AI etika ir etinis AI yra tokia svarbi tema. Dirbtinio intelekto etikos nuostatos verčia mus išlikti budriems. AI technologai kartais gali būti susirūpinę technologijomis, ypač aukštųjų technologijų optimizavimu. Jie nebūtinai atsižvelgia į didesnius visuomenės padarinius. Kad būtų sukurtas tinkamas dirbtinis intelektas, įskaitant (galbūt stebėtinai ar ironiškai) vertinimą, kaip įmonės įgyvendina dirbtinio intelekto etiką, labai svarbu turėti DI etikos mąstymą ir tai daryti neatsiejamai su DI plėtra ir veikla.

Be AI etikos nuostatų taikymo apskritai, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimą. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau apsvarstyta priemonė ir beveik neabejotinai tam tikru mastu bus tiesiogiai įtraukta į tuos naujus įstatymus.

Žinokite, kad kai kurie tvirtai tvirtina, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Tiesą sakant, jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami DI pažangą, teikiančią didžiulių socialinių pranašumų.

Šioje svarbioje diskusijoje aš galiu lažintis, kad norite pateikti keletą iliustruojančių pavyzdžių, kurie galėtų parodyti šią temą. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savarankiškai vairuojančių automobilių atsiradimas ką nors parodo AI ir žmogaus nesutarimų sprendimus, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai vairuojantys automobiliai ir AI ir žmogaus nesutarimai

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Tikiuosi, kad tai suteikia pakankamai įspėjimų, kad pagrįstų tai, ką ketinu pasakyti.

Dėl visiškai autonominių transporto priemonių gali nebūti jokių profesinių nesutarimų tarp žmogaus ir dirbtinio intelekto tikimybės, nes gali būti, kad nėra jokio žmogaus ciklo pradžioje. Daugelis šiuolaikinių savarankiškai vairuojančių automobilių gamintojų siekia visiškai pašalinti vairuotoją nuo vairavimo užduoties. Transporto priemonėje net nebus žmogui prieinamų vairavimo valdiklių. Tokiu atveju žmogus, vairuotojas, jei yra, negalės dalyvauti vairavimo užduotyje, nes neturi prieigos prie jokių vairavimo valdiklių.

Kai kuriose visiškai autonominėse transporto priemonėse kai kurios konstrukcijos vis tiek leidžia žmogui būti judėjimui, nors žmogus visai neturi būti pasiekiamas ar dalyvauti vairavimo procese. Taigi žmogus gali dalyvauti vairuojant, jei jis to nori. Tačiau dirbtinis intelektas jokiu būdu nėra priklausomas nuo žmogaus, kad jis atliktų vairavimo užduotis.

Pusiau autonominių transporto priemonių atveju yra glaudus ryšys tarp žmogaus vairuotojo ir dirbtinio intelekto. Vairuotojas žmogus gali visiškai perimti vairavimo valdymą ir iš esmės sustabdyti AI nuo vairavimo. Jei žmogus vairuotojas nori grąžinti dirbtinį intelektą į vairuotojo vaidmenį, jis gali tai padaryti, tačiau kartais tai priverčia žmogų atsisakyti vairavimo valdiklių.

Kita pusiau autonominio veikimo forma reikštų, kad žmogus vairuotojas ir dirbtinis intelektas dirbtų kartu komandiniu būdu. AI vairuoja, o žmogus vairuoja. Jie važiuoja kartu. AI gali pasiduoti žmogui. Žmogus gali pasiduoti AI.

Tam tikru momentu AI vairavimo sistema ir žmogaus vairuotojas gali pasiekti „profesinio nesutarimo“ dėl atliekamos vairavimo užduoties sandūrą.

Norėdami parodyti, kaip gali būti sudėtinga įgyvendinti kai kurias iš pirmiau minėtų profesinių nesutarimų sprendimo taisyklių, apsvarstykite galimybę pasitelkti trečiosios šalies asmenį, kad jis įsitrauktų į klausimą ir pasiūlytų sprendimą išspręsti neišspręstą problemą.

Tarkime, automobilių gamintojas arba savarankiškai vairuojančių technologijų įmonė pasirūpino, kad nuotoliniai operatoriai galėtų pasiekti savo transporto priemonių parko vairavimo valdiklius. Žmogus operatorius sėdi kokiame nors tolimame biure ar panašioje aplinkoje. Per kompiuterinę sistemą jie gali matyti vairavimo sceną, naudodamiesi kameromis ir kitais jutikliais, įkeltais į savarankiškai vairuojantį automobilį. Jiems tai beveik kaip žaisti internetinį vaizdo žaidimą, nors, žinoma, realios aplinkybės gali turėti baisių pasekmių.

Dirbtinio intelekto sistema ir žmogus, esantis automobilyje, vairuoja pusiau autonominę transporto priemonę ilgu greitkeliu. Staiga AI nori nusukti į griovį. Vairuotojas nenori to daryti. Jiedu mušiasi dėl vairavimo valdiklių.

Kaip tai bus išspręsta?

Galbūt iš anksto galėjome nustatyti, kad žmogus visada laimi. Tarkime, kad mes nusprendėme to nedaryti.

Galėjome iš anksto nustatyti, kad dirbtinis intelektas visada laimi. Tarkime, kad nusprendėme to nedaryti. Apskritai, mes nepriėmėme jokių tų taisyklių, išskyrus tai, kad nusprendėme leisti trečiajai šaliai įsikišti ir išspręsti bet kokio esminio pobūdžio profesinį nesutarimą.

Šiuo atveju dirbtinis intelektas ir žmogus, sėdintis prie vairo, kovoja dėl vairavimo valdiklių. Tai, tarkime, perduodama nuotolinio žmogaus operatoriui (mūsų trečiosios šalies žmogui). Nuotolinis žmogus-operatorius tiria, kas vyksta, ir nusprendžia nukrypti nuo griovio, tarytum išvengdamas to, ką AI bandė padaryti. Tuo pačiu metu, tarkime, nuotolinis žmogus operatorius nukreipia į priešpriešinį eismą, ko galbūt nenorėjo nei dirbtinis intelektas, nei vairuotojas automobilyje.

Esmė ta, kad ši taisyklė buvo įgyvendinta taip, kad trečiosios šalies operatorius gali visiškai nepaisyti AI ir žmogaus ciklo. Ar tai duos gerų rezultatų, tikrai nėra užtikrinta.

Naudosiu šį pavyzdį norėdamas pabrėžti kai kurias papildomas įžvalgas šiais klausimais.

Negalite daryti įžūlios prielaidos, kad vien dėl to, kad buvo įgyvendinta viena iš šių taisyklių, išspręsto nesutarimo rezultatas būtinai yra geras rezultatas. Gali ir nebūti. Nėra jokios geležinės visada tinkamos taisyklės, kurią būtų galima pasirinkti.

Be to, kai kurios iš šių taisyklių gali būti neįgyvendinamos.

Apsvarstykite nuotolinio žmogaus operatoriaus įsikišimo pavyzdį, kai dirbtinis intelektas ir vairuotojas barasi dėl vairavimo valdiklių. Gali prireikti daug sekundžių, kol nuotolinis operatorius supras, kas vyksta. Iki to laiko transporto priemonė jau galėjo atsidurti griovyje arba turėti kitų neigiamų padarinių. Be to, tarkime, kad transporto priemonės vieta neleidžia pasiekti nuotolinės prieigos, pvz., būti tokioje vietoje, kur nėra jokio tinklo elektroninio ryšio. O gal transporto priemonės tinklo funkcijos tuo konkrečiu momentu neveikia.

Kaip matote, popieriuje taisyklė gali atrodyti nepriekaištinga, tačiau realiai taikyti taisyklę gali būti labai sunku arba labai atsitiktinis būdas. Žiūrėkite mano kritikos apžvalgą apie nuotolinį autonominių transporto priemonių ir savaeigių automobilių operatorių adresu nuoroda čia.

Norėčiau trumpai apžvelgti kitą susijusią temą, kurią išsamiau apžvelgsiu būsimoje analizėje.

Vienas iš kylančių rūpesčių dėl autonominių transporto priemonių ir savarankiškai važiuojančių automobilių, kurie yra pusiau autonominiai, yra vadinamasis. Karštos bulvės sindromas.

Čia yra sandoris.

Dirbtinio intelekto vairavimo sistema ir žmogus vairuoja kartu. Iškyla kebli padėtis. Dirbtinis intelektas buvo užprogramuotas atsisakyti vairavimo užduoties ir perduoti reikalus žmogui, kai ištinka baisus momentas. Tai galbūt atrodo „protinga“, nes atrodo, kad vadovaujamės taisykle, kad žmogus yra numatytasis „laimėtojas“ bet kokio galimo profesinio nesutarimo atveju.

Tačiau dirbtinio intelekto atsisakymas gali būti susijęs su niekšiškesniais arba klastingesniais tikslais. Gali būti, kad automobilių gamintojas ar savarankiškai vairuojančių technologijų įmonė nenori, kad jų dirbtinis intelektas būtų laikomas „kaltininke“, kai įvyksta automobilio avarija. Kad, atrodo, išvengtų tokio prispaudimo, AI staiga perduoda valdiklius žmogui. Voila, žmogus dabar tikriausiai yra visiškai atsakingas už transporto priemonę.

Svarbiausia yra tai, kad tarkime, kad dirbtinis intelektas atlieka šį perdavimą likus vienai sekundei iki avarijos.

Ar žmogus tikrai turėtų laiko išvengti avarijos?

Tikriausiai ne.

Tarkime, kad dirbtinis intelektas perdavimą atlieka likus kelioms milisekundėms ar nanosekundėms. Drįstu teigti, kad žmogus iš esmės neturi jokios galimybės ką nors padaryti, kad išvengtų katastrofos.

Žvelgiant iš automobilių gamintojo ar savarankiškai vairuojančių automobilių įmonės perspektyvos, jie gali pasistengti elgtis taip, tarsi jų rankos būtų švarios, kai įvyksta tokia automobilio avarija. Automobilį vairavo žmogus. AI nevairavo automobilio. Atrodytų, kad vienintelė „logiška“ išvada yra ta, kad žmogus turi būti kaltas, o AI turi būti visiškai nepriekaištinga.

Tai indas.

Apie tai išsamiau aptarsiu būsimame stulpelyje.

Išvada

Iškils profesiniai nesutarimai.

Sunku įsivaizduoti sudėtingą užduotį, kurią kartu atliktų dvi šalys ir dėl kurios niekada nekiltų jokių profesinių nesutarimų. Tai atrodo kaip fantazijų šalis ar bent jau didžiulė retenybė.

Šiandien mes turime daugybę žmonių tarpusavio nesutarimų dėl profesinių nesutarimų, dėl kurių kasdien taikiai ir protingai vienaip ar kitaip išsprendžiami sprendimai. Tiesą sakant, mes dažnai tyčia nustatome situacijas, kad paskatintume ir atskleistume profesinius nesutarimus. Galite ginčytis, kad tai rodo garsiąją išmintį, kad kartais dvi galvos yra geriau nei viena.

Kadangi dirbtinis intelektas vis labiau plinta, turėsime daug dirbtinis intelektas žmogui arba žmogus su DI dviejų šalių užduočių vykdytojų ir bus profesinių nesutarimų kad atsitiks. Tingus požiūris yra visada atsiduoti žmogui. Tai gali būti ne pats tinkamiausias būdas. AI gali būti geresnis pasirinkimas. Arba viena iš kitų pirmiau minėtų taisyklių gali būti patikimesnis požiūris.

Dažnai kartojama išmintinga eilutė, kad mes visi paprastai turėtume sutikti, kad nesutiktume, nors kai kalbama apie laidą, kartais nesutarimas turi būti vienareikšmiškai išspręstas, nes priešingu atveju nagrinėjamas klausimas sukels neapsakomą nelaimę. Negalime leisti, kad nesutarimai nuslūgtų ant vynmedžio. Laikas gali būti labai svarbus, o gyvybė gali būti pavojinga.

Egzistuoja aiškus reikalavimas tam tikromis protingomis priemonėmis, padedančiomis išspręsti nesutarimus, net jei tai nebūtinai priimtina, įskaitant atvejus, kai dirbtinis intelektas ir žmogus cikle nemato nei akis į akį, nei baitas į baitą.

Tikiu, kad nesutiksite su šiuo visiškai priimtinu teiginiu.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lesssons-gleaned-from-that-recent-alaska-airlines-flight-where- pilotas ir antrasis pilotas prieš pakilimą nesutiko ir staiga pasirinko taksi atgal į terminalą ir eiti atskirais keliais/