Dirbtinio intelekto etika labai abejoja žmogaus, pavyzdžiui, jūsų mirusių giminaičių, balso klonavimu, skirtu naudoti AI autonominėse sistemose

Oi, iš pažiūros daili naujos technologijos dalis pati ir jos kūrėjas įsitraukė į karštą vandenį.

Aš kalbu apie AI pagrįsto žmogaus balso klonavimo atsiradimą kaip apie naują technologiją, kuri sugebėjo patekti į pastarojo meto naujienas. Šiuo atveju įmonė yra „Amazon“ ir jos nuolat tobulėjanti „Alexa“.

Mano skilties skaitytojai gali prisiminti, kad jau anksčiau rašiau apie nepadorų bučą, kuris įvyko, kai buvo pranešta, kad Alexa paskatino jaunuolį įkišti centą į elektros lizdą (nedarykite to!), žr. nuoroda čia. Laimei, tokiomis aplinkybėmis niekas nenukentėjo, o pasekmė buvo ta, kad Alexa AI sistema, matyt, užfiksavo ankstesnę viruso tendenciją ir be jokio sveiko proto vertinimo tik pakartojo beprotišką pasiūlymą, kai paprašė ką nors įdomaus nuveikti. vaikas bendrauja su Alexa. Tai išryškina AI etikos susirūpinimą, kad mus užplūdo dirbtinis intelektas, kuriam visiškai trūksta sveiko proto samprotavimų, ypač sudėtinga problema, su kuria susiduria DI, kuri ir toliau nepaiso pastangų įkūnyti dirbtinį intelektą (mano analizei apie DI pagrįstą sveiko proto kilmę). pastangos, žr nuoroda čia).

Naujausias „dulkinimas“ apima balso klonavimą, dar žinomą kaip balso replikacija. Naujausios tokios technologijos ir dirbtinis intelektas kelia neatidėliotinus AI etikos ir etikos AI klausimus. Daugiau informacijos apie AI etiką ir etinį AI žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

AI pagrįstas balso klonavimas yra paprasta koncepcija.

Dirbtinio intelekto sistema yra užprogramuota įrašyti kai kuriuos jūsų ištartus žodžius. Tada AI bando apskaičiuoti jūsų kalbos modelius. Remdamasis aptiktais kalbos modeliais, dirbtinis intelektas bando skleisti garsinę kalbą, kuri skamba kaip jūs. Sudėtinga yra tai, kad kalba apima žodžius, kurių anksčiau nepateikėte kaip garso pavyzdžių AI. Kitaip tariant, AI turi matematiškai įvertinti, kaip jūs galite ištarti žodžius. Tai apima visas kalbos ypatybes, tokias kaip tonas, balso pakilimas ir nuleidimas, kalbėjimo tempas ar greitis ir pan.

Kai girdite, kaip žmogus bando apsimesti kitu žmogumi, paprastai galite suprasti, kad pastangos yra apsimetimas. Trumpalaikėje perspektyvoje, pavyzdžiui, jei apsimetinėtojas vartoja tik kelis žodžius, gali būti sunku suprasti, kad balsas nėra originalus kalbėtojas. Be to, jei apsimetinėja mėgdžioja žodžius, kuriuos iš tikrųjų kalbėjo pradinis kalbėtojas, yra tikimybė, kad jis gali suderinti savo balsą su kito asmens balsu, labiau tinka tam konkrečiam posakiui.

Trumpumas ir lygiai tų pačių žodžių girdėjimas gali leisti kam nors beveik prilygti apsimetinėjimui.

Iššūkis tampa uždengti žodžiais, kurių kitas asmuo nekalbėjo arba kuriuos apsimetinėjantis asmuo niekada negirdėjo, kad šis asmuo pasakytų tuos konkrečius žodžius. Jūs šiek tiek nežinote, kaip išsiaiškinti, kaip pamėgdžiotas asmuo būtų pasakęs tuos žodžius. Geros naujienos yra tai, kad jei kas nors kitas, besiklausantis apsimetinėtojo, taip pat nežino, kaip pirminis asmuo būtų pasakęs žodžius, apsimetinėtojas gali būti gana toli nuo tikrojo balso, tačiau vis tiek atrodo niūrus ir tikslingas.

Taip pat norėčiau trumpam pašalinti iš lygties apsimetinėjimo manieras ir fizinį judėjimą. Pamatę asmenį, kuris apsimetinėja, galite susiraukšlėti, jei jis gali susiraukšlinti veidą arba glostyti rankomis tokiu būdu, kuris taip pat imituoja asmenį, kuriuo apsimetinėjama. Papildomos kūno ir veido užuominos privers jūsų protą manyti, kad balsas taip pat yra užgesęs, nors gali ir nebūti. Balso apsimetinėjimo specialistas primygtinai reikalautų, kad tik balsas būtų naudojamas kaip kriterijus nustatant, ar balsas tinkamai imituoja asmenį, kuriuo apsimetinėjama.

Jūs tikrai matėte įvairius „deepfake“ vaizdo įrašus, kurie šiomis dienomis vyksta socialinėje žiniasklaidoje. Kažkas sumaniai pakeičia vaizdo įrašą, kad vaizdo įraše būtų rodomas kažkieno veidas, perdengdamas veidą, kuris buvo kieno nors kito pradiniame įraše. Paprastai tai taip pat lydi balso padirbinėjimas. Gaunate dvigubą nesėkmę, kai vaizdo įrašas yra vizualiai pakeistas naudojant „deepfake AI“, o garsas keičiamas naudojant „deepfake AI“.

Diskusijos sumetimais čia aš sutelkiu dėmesį tik į dirbtinio intelekto pagrindu sukurtus giliojo padirbto garso aspektus, kurie, kaip minėta anksčiau, paprastai vadinami balso klonavimu arba balso replikacija. Kai kurie įžūliai tai vadina balsu skardinėje.

Esu tikras, kad kai kurie iš jūsų šiuo metu ragina, kad mes jau seniai galėjome naudoti kompiuterines programas balsams klonuoti. Tai per se nieko naujo. Aš sutinku. Tuo pačiu metu turime pripažinti, kad šis aukštųjų technologijų pajėgumas vis gerėja. Na, sakau vis geriau ir geriau, bet galbūt, kaip po akimirkos pamatysite, turėčiau pasakyti, kad tai darosi vis labiau ir labiau nerimą kelianti.

Laikykitės šios minties.

Technologinis meistriškumas neabejotinai tobulėja atliekant balso klonavimą. Pavyzdžiui, anksčiau turėjote „išmokyti“ AI garso replikacijos programą, pasakydami visą mišrių žodžių istoriją. Panašiai į garsiąją ar liūdnai pagarsėjusią greitosios rudosios lapės, peršokusios per tingų šunį, eilutę (eilutė, skirta priversti ką nors uždengti visas abėcėlės raides), yra specialiai sukurtų trumpų istorijų, kuriose yra žodžių mišinys, skirtas kad galėtumėte pasakyti pakankamai žodžių ir daug įvairių žodžių, kad dirbtinio intelekto modelio atitikimas būtų daug lengvesnis.

Jums gali tekti perskaityti kelis puslapius žodžių, dažnai įskaitant žodžius, kuriuos sunkiai ištariate ir net nesate tikri, ką jie reiškia, kad pakankamai įgalintumėte AI modelio atitikimą. Tai gali užtrukti daug minučių, o kartais ir valandų pokalbio, kad dirbtinis intelektas gautų pakankamai garso, kad jis galėtų rasti skirtingus jūsų balso modelius. Jei pakeistumėte šią mokymo veiklą, yra tikimybė, kad gautą balso replikaciją lengvai numuštų jūsų draugai, kurie gerai žino jūsų balsą.

Gerai, tada AI kūrėjai domėjosi, kaip optimizuoti garso atkūrimo aspektus. AI kūrėjai mėgsta iššūkius. Sakoma, kad jie širdyje optimizuoja. Suteikite jiems problemą ir jie bus linkę optimizuoti, neatsižvelgiant į tai, kur tai gali nuvesti (aš paminėsiu tai kaip išankstinį atvaizdą, kuris netrukus taps aiškesnis).

Atsakykite man tai:

  • Koks yra mažiausias garso pavyzdžio kiekis, kurio reikėtų norint maksimaliai klonuoti žmogaus balsą ir kurio garso pavyzdžiu gali būti beveik bet koks atsitiktinai leistinas žodžių rinkinys, tačiau vis tiek leisti balso klonavimui sukurti beveik bet kokius žodžius, kurie kada nors gali būti ištarti pagal tikslinį balsą ir garsą, iš esmės identišką to asmens balsui pokalbio ar kitokioje pasirinktoje konteksto aplinkoje?

Ten yra daug ką išpakuoti.

Atminkite, kad norite minimalaus garso pavyzdžio, kuris maksimaliai klonuotų balsą, kad AI ištarimai šiuo dabar automatizuotu atkartojamu balsu atrodytų visiškai neatskiriami nuo tikrojo asmens. Tai sudėtingiau, nei jūs manote.

Tai beveik kaip tas žaidimų šou, kai jūs turite pabandyti pavadinti dainą pagal mažiausią išgirstų natų skaičių. Kuo mažiau grojama natų, tuo sunkiau atspėti, kuri daina tai. Jei jūsų spėjimas neteisingas, pralaimite taškus arba pralaimite žaidimą. Prasideda ginčas, ar neturėtumėte naudoti tik vienos natos, kuo mažiau užuominos, bet tada jūsų tikimybė atspėti dainą tikriausiai labai sumažėja. Kuo daugiau natų išgirsite, tuo didesnė tikimybė atspėti teisingą dainą, bet jūs taip pat leidžiate kitiems dalyviams turėti didesnę galimybę spėti.

Atminkite, kad balso klonavimo atveju kalbame ir apie nurodytų žodžių sąvoką, o ne bet kokius žodžius. Jei žmogus sako žodžius „Tu negali susitvarkyti su tiesa“ ir norime, kad dirbtinis intelektas mėgdžiotų asmenį arba jį apsimetinėtų, AI greičiausiai lengvai įsisavins modelį. Kita vertus, tarkime, kad mes turime tik tuos žodžius, kuriuos pasakė tas asmuo: „Ar tai viskas, ko tu turi manęs paklausti“, ir mes norime panaudoti šiuos žodžius, kad dirbtinis intelektas pasakytų: „Tu negali susitvarkyti su tiesa“. Manau, kad jūs galite pastebėti, kaip sunku lavinti vieną žodžių rinkinį ir ekstrapoliuoti į visiškai kitokį žodžių rinkinį.

Kitas sunkus elementas yra ištartų žodžių kontekstas. Tarkime, kad mes leidžiame jums įrašyti garsą sakinį, kai esate ramus ir atsipalaidavęs. AI modeliuoja šiuos žodžius. Tai taip pat gali atspindėti jūsų balso ramybę. Įsivaizduokite, kad mes norime, kad dirbtinis intelektas apsimetų, jog tai jūs, kai rėkiate išprotėjęs ir piktas kaip širšė. Gali būti bauginantis, kad dirbtinis intelektas iškraipo pradinį modelį ir virsta tiksliai supykdyta jūsų balso versija.

Kokius minimumus žiūrime?

Šiuo metu tikslas yra sulaužyti minutės ribą.

Paimkite įrašytą balsą, kuriam užtenka mažiau nei minutės garso, ir paprašykite dirbtinio intelekto atlikti nuostabų balso klonavimą vien iš to mažo pavyzdžio. Noriu paaiškinti, kad beveik kiekvienas gali sukurti AI, galintis tai padaryti paprastai mažiau nei per minutę, nors gautas balso klonas yra neryškus ir lengvai aptinkamas kaip neišsamus. Vėlgi, aš aiškiai ir tvirtai sakau, kad mėginių ėmimo laikas yra minimalus ir tuo tarpu balso klonavimas yra maksimalus. Dolt gali pasiekti minimalų atranką, jei balso klonavimo metu jiems taip pat leidžiama būti labai submaksimaliai.

Tai įdomus ir įdomus technologinis iššūkis. Tačiau jums gali kilti klausimas, kokia vertė ar privalumai tai padaryti. Kokio tikslo mes siekiame? Kokios naudos žmonijai galime tikėtis galėdami taip efektyviai ir efektyviai atlikti AI pagrįstą balso replikaciją?

Noriu, kad apmąstytumėte šį sudėtingą klausimą.

Neteisingas atsakymas gali netyčia patekti į košės krūvą.

Štai kažkas, kas atrodo optimistiška ir visiškai teigiama.

Tarkime, kad galėjome turėti senų garsių žmonių, tokių kaip Abrahamas Linkolnas, įrašus ir galėjome panaudoti tuos dulkėtus garso fragmentus kurdami AI pagrįstą balso kloną. Tada galėjome išgirsti Linkolną kalbant Getisburgo kreipimąsi taip, lyg būtume ten tą dieną, kai jis pasakė keturias balas ir prieš septynerius metus įsimintiną kalbą. Deja, mes neturime Linkolno balso garso įrašų (technologija dar neegzistavo), tačiau turime prezidento Benjamino Harrisono (pirmojo iš JAV prezidentų, turinčių balso įrašą iš ) ir kiti prezidentai vėliau.

Tikiu, kad visi tikriausiai pagrįstai sutiktume, kad šis konkretus AI pagrįsto balso klonavimo naudojimas yra visiškai tinkamas. Tiesą sakant, mes tikriausiai to norėtume labiau nei tuo atveju, jei aktorius šiandien bandytų apsimesti, kad jie kalba kaip Linkolnas. Tikėtina, kad aktorius sugalvos, kaip, jų manymu, skamba tikrasis Linkolno balsas. Tai būtų prasimanymas, galbūt toli nuo Linkolno balso. Vietoj to, naudojant gerai kvalifikuotą AI balso klonavimo sistemą, būtų mažai ginčų dėl to, kaip iš tikrųjų skambėjo Linkolno balsas. AI būtų faktiškai teisinga, bent jau tiek, kiek AI sugeba atkartoti tikslinį balsą.

Gerumo kategorijoje apie AI balso klonavimą galime laimėti naudodami tokį naudojimo atvejį.

Nenoriu būti niūrus, tačiau net ir toks, matyt, visapusiškas naudojimas turi neigiamą pusę.

Kažkas naudoja dirbtinio intelekto balso klonavimo sistemą, kad išsiaiškintų Theodore'o Roosevelto („Teddy“), mūsų brangiojo 26, balsą.th Jungtinių Valstijų prezidentas, gamtininkas, gamtosaugininkas, valstybės veikėjas, rašytojas, istorikas ir beveik visuotinai laikomas gerbiamu asmeniu. Kalbos, kurias jis pasakė ir kurioms neturime istoriškai išsaugotų garso versijų, dabar gali būti „kalbėtos“ taip, tarsi jis asmeniškai kalbėtų šiandien. Pagirtinas postūmis studijuojant istoriją.

Paverskime tai bjauriai, tiesiog norėdami atskleisti neigiamas puses.

Mes naudojame Teddy AI pagrįstą balso kloną, kad perskaitytume kalbą, kurią pasakė piktasis diktatorius. DI nesirūpina tuo, ką jis kalba, nes AI nerodo jausmingumo. Žodžiai yra tiesiog žodžiai arba, tiksliau, tik garso dvelksmai.

Galite bijoti, kad kas nors pasielgs taip nesąžiningai. Kodėl, po velnių, dirbtinio intelekto pagrindu sukurtas klonuotas garsaus ir gerbiamo Theodore'o Roosevelto balsas turėtų būti panaudotas kalbai, kurios ne tik Teddy nepasakė iš pradžių, bet ir kalba apie temą, vaizduojančią tam tikrą niekingą blogybę. diktatorius?

Piktina, galite sušukti.

Lengvai padaryta, ateina atsakymas.

Iš esmės vienas labai svarbus susirūpinimas dėl AI pagrįsto balso atkartojimo yra tas, kad staiga atsidursime suklastotų ar sakysime melagingų kalbų ir posakių, kurie neturi nieko bendra su jokiais istoriniais faktais ar tikslumu. Jei jų bus padaryta ir paskelbta pakankamai, galime susipainioti dėl to, kas yra faktas, o ne prasmė.

Galite pamatyti, kaip tai gali atsirasti. Naudodamas AI pagrįstą balso kloną, kažkas padaro garso įrašą, kaip Woodrow Wilson sako kalbą, kurios jis niekada nesakė. Tai paskelbta internete. Kažkas kitas girdi įrašą ir mano, kad tai tikras dalykas. Jie skelbia jį kitur, paminėdami, kad rado šį puikų istorinį Woodrow Wilson įrašą. Netrukus istorijos pamokų mokiniai naudoja garso įrašą, o ne skaito rašytinę kalbos versiją.

Niekas nežino, ar kalbą pasakė Woodrow Wilson, ar ne. Galbūt taip buvo, o gal ne, ir visi mano, kad tai visai nesvarbu (na, tie, kurie nėra orientuoti į istorinį tikslumą ir faktus). Žinoma, jei kalba yra niekšiška, tai sukuria klaidingą įspūdį arba dezinformacijos vaizdavimą apie tą istorinę asmenybę. Istorija ir fantastika susilieja į vieną.

Tikiuosi, kad esate įsitikinęs, kad tai yra neigiamas aspektas, susijęs su AI pagrįstu balso klonavimu.

Vėlgi, mes jau galime daryti tokius dalykus be naujesnio ir patobulinto AI pagrįsto balso atkartojimo, tačiau tai padaryti bus lengviau, o gautą garsą bus labai sunku atskirti tikrą ir netikrą. Šiais laikais, naudodami įprastas garso kūrimo programas, paprastai galite klausytis išvesties ir dažnai nesunkiai įsitikinsite, kad garsas yra suklastotas. Tobulėjant dirbtiniam intelektui, greitai nebegalėsite patikėti savo ausimis, taip sakant.

Kad ir kaip blogai būtų istorinių asmenybių balso klonavimas, turime pagalvoti apie galbūt ypač baisius šių dienų žmonių panaudojimo būdus.

Pirma, ar kada nors girdėjote apie šiek tiek populiarų sukčiavimą, kai kas nors apsimeta viršininku ar jam lygiaverčiu? Prieš keletą metų buvo nerimą kelianti mada skambinti į restoraną ar parduotuvę ir apsimesti įstaigos vadovu. Suklastojimas būtų susijęs su darbuotojo liepimu daryti juokingus dalykus, kuriuos jie dažnai pareigingai darydavo, klaidingai manydami, kad kalbasi su savo viršininku.

Nenoriu įklimpti į tokius piktinančius nusikaltimus, bet kitas tinkamas veiksmas – tai skambinti kam nors, kuris gali būti sunkiai girdimas, ir apsimesti savo anūku ar anūke. Apsimetinėtojas bando įtikinti senelį, kad jis duotų pinigų, kad padėtų, o gal kaip nors išgelbėtų. Remiantis apsimetu balsu, senelis apgaunamas taip elgdamasis. Niekingas. gėdinga. Liūdnas.

Netrukus įžengsime į erą, kurioje AI pagrįstas balso klonavimas leis naudoti steroidus, jei taip būtų, su balsu susijusių sukčių ir sukčių atsiradimą. Dirbtinis intelektas atliks tokį puikų balso replikavimo darbą, kad tas, kuris išgirs balsą, prisiekia, kad kalbėjo tikrasis asmuo.

Kiek tai gali nueiti?

Kai kurie nerimauja, kad atominės ginkluotės paleidimas ir karinės atakos gali įvykti naudojant dirbtinio intelekto balso kloną, kuris verčia kitus patikėti, kad aukščiausio lygio karininkas duoda tiesioginę komandą. Tą patį būtų galima pasakyti apie bet kurį bet kurį iškilią postą. Naudokite nepaprastai tikslų dirbtinio intelekto balso kloną, kad banko vadovas išleistų milijonus dolerių lėšų, nes apsigauna manydamas, kad kalbasi su banko klientu.

Ankstesniais metais tai daryti naudojant AI nebūtinai būtų buvę įtikinama. Tą akimirką, kai kitame telefono gale esantis žmogus pradeda klausinėti, AI turėtų nukrypti nuo parengto scenarijaus. Tokiu atveju balso klonavimas pablogėtų, kartais radikaliai. Vienintelė priemonė išlaikyti sukčiavimą buvo priversti pokalbį grąžinti į scenarijų.

Naudodami šiandieninį AI tipą, įskaitant natūralios kalbos apdorojimo (NLP) pažangą, galite atsisakyti scenarijaus ir gali atrodyti, kad AI balso klonas kalba natūraliu pokalbio būdu (tai ne visada būna, ir vis dar yra būdų, kaip sugadinti AI).

Prieš pradėdami daugiau kalbėti apie laukinius ir neviltiškus argumentus, susijusius su AI pagrindu veikiančiu balso klonavimu, nustatykime keletą papildomų esminių dalykų. Turime trumpai pasinerti į AI etiką ir ypač mašininio mokymosi (ML) ir giluminio mokymosi (DL) atsiradimą.

Galbūt miglotai žinote, kad vienas garsiausių balsų šiais laikais dirbtinio intelekto srityje ir net už AI ribų yra reikalavimas siekti didesnio etiško AI panašumo. Pažiūrėkime, ką reiškia AI etika ir etiška AI. Be to, išnagrinėsime, ką turiu omenyje kalbėdamas apie mašininį mokymąsi ir gilųjį mokymąsi.

Vienas konkretus dirbtinio intelekto etikos segmentas arba dalis, sulaukianti daug žiniasklaidos dėmesio, yra dirbtinis intelektas, pasižymintis nepageidaujamu šališkumu ir nelygybe. Galbūt žinote, kad prasidėjus naujausiai AI erai, buvo didžiulis entuziazmo pliūpsnis dėl to, ką kai kas dabar vadina. AI for Good. Deja, ant kulnų to trykštančio jaudulio pradėjome liudyti AI For Bad. Pavyzdžiui, buvo atskleista, kad įvairios dirbtiniu intelektu pagrįstos veido atpažinimo sistemos turi rasinių ir lyčių tendencijų, kurias aptariau nuoroda čia.

Pastangos atsispirti AI For Bad aktyviai vyksta. Be garsaus juridinis Siekdami suvaldyti neteisėtus veiksmus, taip pat yra esminis postūmis priimti dirbtinio intelekto etiką, siekiant ištaisyti DI niekšybę. Manoma, kad turėtume priimti ir patvirtinti pagrindinius etinio AI principus, skirtus dirbtinio intelekto vystymui ir plėtrai, taip siekdami sumažinti AI For Bad ir tuo pat metu skelbti ir reklamuoti tai, kas geriausia AI for Good.

Kalbant apie tai, aš pasisakau už bandymą panaudoti AI kaip AI bėdų sprendimo dalį, tokiu būdu kovojant su ugnimi ugnimi. Pavyzdžiui, galime įterpti etiškus AI komponentus į AI sistemą, kuri stebės, kaip veikia likusi AI dalis, ir taip realiuoju laiku gali užfiksuoti bet kokias diskriminacines pastangas, žr. mano diskusiją adresu nuoroda čia. Taip pat galėtume turėti atskirą AI sistemą, kuri veiktų kaip AI etikos monitorius. AI sistema tarnauja kaip prižiūrėtojas sekti ir aptikti, kada kitas DI patenka į neetišką bedugnę (žr. mano tokių galimybių analizę adresu nuoroda čia).

Netrukus pasidalinsiu su jumis kai kuriais pagrindiniais AI etikos principais. Šen bei ten sklando daugybė tokių sąrašų. Galima sakyti, kad dar nėra vienintelio visuotinio patrauklumo ir sutapimo sąrašo. Tai liūdna žinia. Geros naujienos yra tai, kad bent jau yra lengvai prieinami AI etikos sąrašai ir jie paprastai yra gana panašūs. Apskritai tai rodo, kad tam tikra pagrįsto konvergencijos forma randame kelią link bendro AI etikos bendrumo.

Pirma, trumpai apžvelgsime kai kuriuos bendrus etinio AI nurodymus, kad parodytume, kas turėtų būti gyvybiškai svarbi kiekvienam, kuriančiam, besikuriančiam ar naudojančiam AI.

Pavyzdžiui, kaip teigia Vatikanas Roma ragina dirbtinio intelekto etiką ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Skaidrumas: Iš esmės AI sistemos turi būti paaiškinamos
  • Įtraukimas: Turi būti atsižvelgta į visų žmonių poreikius, kad visi galėtų gauti naudos, o visiems būtų sudarytos geriausios sąlygos išreikšti save ir tobulėti.
  • Atsakomybė: Tie, kurie kuria ir diegia dirbtinio intelekto naudojimą, turi elgtis atsakingai ir skaidriai
  • Nešališkumas: Nekurkite ir nesielkite pagal šališkumą, taip saugodami sąžiningumą ir žmogaus orumą
  • Patikimumas: AI sistemos turi veikti patikimai
  • Saugumas ir privatumas: AI sistemos turi veikti saugiai ir gerbti vartotojų privatumą.

Kaip teigia JAV gynybos departamentas (DoD) savo Dirbtinio intelekto naudojimo etiniai principai ir kaip aš išsamiai aprašiau nuoroda čia, tai yra šeši pagrindiniai AI etikos principai:

  • Atsakingas: DoD darbuotojai laikysis tinkamo lygio sprendimo ir rūpestingumo, likdami atsakingi už AI galimybių kūrimą, diegimą ir naudojimą.
  • Teisingas: Departamentas imsis apgalvotų veiksmų, kad sumažintų nenumatytą AI galimybių paklaidą.
  • Atsekama: Departamento dirbtinio intelekto pajėgumai bus plėtojami ir naudojami taip, kad atitinkami darbuotojai tinkamai išmanytų technologijas, kūrimo procesus ir veikimo metodus, taikomus dirbtinio intelekto pajėgumams, įskaitant skaidrias ir audituojamas metodikas, duomenų šaltinius ir projektavimo procedūras bei dokumentus.
  • patikimas: Departamento dirbtinio intelekto pajėgumai bus aiškiai ir tiksliai apibrėžti, o tokių galimybių sauga, saugumas ir veiksmingumas bus tikrinamas ir užtikrinamas pagal nustatytus naudojimo būdus per visą jų gyvavimo ciklą.
  • Valdomas: Departamentas suprojektuos ir suprojektuos dirbtinio intelekto pajėgumus, kad jie galėtų atlikti numatytas funkcijas, tuo pat metu turėdami galimybę aptikti ir išvengti nenumatytų pasekmių bei išjungti arba išjungti įdiegtas sistemas, kurios demonstruoja nenumatytą elgesį.

Taip pat aptariau įvairias kolektyvines dirbtinio intelekto etikos principų analizes, įskaitant tyrėjų parengtą rinkinį, kuris išnagrinėjo ir apibendrino daugelio nacionalinių ir tarptautinių AI etikos principų esmę straipsnyje „Pasaulinis AI etikos gairių kraštovaizdis“ (paskelbtas). in Gamta), ir kad mano aprėptis nagrinėjama adresu nuoroda čia, dėl kurio atsirado šis kertinių akmenų sąrašas:

  • Skaidrumas
  • Teisingumas ir sąžiningumas
  • Nepiktybiškumas
  • atsakomybė
  • Privatumo politika
  • Gerumas
  • Laisvė ir autonomija
  • Pasitikėkite
  • Tvarumas
  • orumas
  • Solidarumas

Kaip galite tiesiogiai atspėti, gali būti labai sunku nustatyti šių principų ypatumus. Dar daugiau, pastangos tuos plačius principus paversti kažkuo visiškai apčiuopiamu ir pakankamai išsamiu, kad būtų galima panaudoti kuriant AI sistemas, taip pat yra sunkus riešutas. Apskritai lengva pamojuoti rankomis apie tai, kas yra AI etikos nuostatos ir kaip jų apskritai reikėtų laikytis, o daug sudėtingesnė situacija, kai dirbtinio intelekto kodavimas turi būti tikra guma, atitinkanti kelią.

DI etikos principus turi naudoti DI kūrėjai, taip pat tie, kurie valdo DI kūrimo pastangas ir netgi tie, kurie galiausiai kuria ir atlieka AI sistemų priežiūrą. Visos suinteresuotosios šalys per visą DI kūrimo ir naudojimo ciklą laikosi nustatytų etiško AI normų. Tai svarbus akcentas, nes įprasta prielaida, kad „tik koduotojai“ arba tie, kurie programuoja AI, turi laikytis AI etikos sąvokų. Kaip minėta anksčiau, dirbtinio intelekto kūrimui ir įgyvendinimui reikia kaimo, kuriame visas kaimas turi išmanyti ir laikytis AI etikos nuostatų.

Taip pat įsitikinkime, kad esame tame pačiame puslapyje apie šiandienos AI prigimtį.

Šiandien nėra jokio jautraus dirbtinio intelekto. Mes šito neturime. Mes nežinome, ar jautrus AI bus įmanomas. Niekas negali tiksliai nuspėti, ar pasieksime jausmingą AI, nei ar jausmingasis AI kažkaip stebuklingai spontaniškai atsiras kompiuterinės kognityvinės supernovos pavidalu (dažniausiai vadinama singuliarumu, žr. mano aprėptį adresu nuoroda čia).

AI, į kurį daugiausia dėmesio skiriu, tipas susideda iš nejautrio DI, kurį šiandien turime. Jei norėtume pašėlusiai spėlioti apie jautrus AI, ši diskusija gali vykti radikaliai kita kryptimi. Jausmingas AI tariamai būtų žmogiškos kokybės. Turėtumėte atsižvelgti į tai, kad jautrus AI yra pažintinis žmogaus atitikmuo. Dar daugiau, kadangi kai kurie spėja, kad galime turėti itin intelektualų AI, galima įsivaizduoti, kad toks AI gali būti protingesnis už žmones.

Laikykime dalykus žemiškesniems ir apsvarstykime šiandieninį kompiuterinį nejautinį AI.

Supraskite, kad šiandieninis dirbtinis intelektas nesugeba „mąstyti“ niekaip, kaip ir žmogaus mąstymas. Kai bendraujate su „Alexa“ ar „Siri“, pokalbio gebėjimai gali atrodyti panašūs į žmogaus gebėjimus, tačiau realybė yra tokia, kad tai skaičiuojama ir jam trūksta žmogaus pažinimo. Naujausioje AI eroje plačiai naudojamas mašininis mokymasis (ML) ir gilusis mokymasis (DL), kurie naudoja skaičiavimo modelių suderinimą. Tai paskatino dirbtinio intelekto sistemas, kurios atrodo kaip žmogaus polinkiai. Tuo tarpu šiandien nėra nė vieno dirbtinio intelekto, kuris turėtų sveiko proto ir kognityvinio nuostabaus tvirto žmogaus mąstymo.

ML/DL yra skaičiavimo modelių derinimo forma. Įprastas būdas yra rinkti duomenis apie sprendimo priėmimo užduotį. Duomenis tiekiate į ML/DL kompiuterių modelius. Šie modeliai siekia rasti matematinius modelius. Radusi tokius modelius, jei taip bus, AI sistema naudos tuos modelius, kai susidurs su naujais duomenimis. Pateikus naujus duomenis, dabartiniam sprendimui priimti taikomi modeliai, pagrįsti „senais“ arba istoriniais duomenimis.

Manau, galite atspėti, kur tai link. Jei žmonės, priimdami pagrįstus sprendimus, įtraukė nepalankų šališkumą, tikėtina, kad duomenys tai atspindi subtiliai, bet reikšmingai. Mašininio mokymosi arba giluminio mokymosi skaičiavimo modelių derinimas tiesiog bandys atitinkamai matematiškai imituoti duomenis. AI sukurtame modeliavime per se nėra jokio sveiko proto ar kitų jautrių aspektų.

Be to, AI kūrėjai taip pat gali nesuprasti, kas vyksta. Dėl paslaptingos matematikos ML/DL gali būti sunku išsklaidyti dabar paslėptus šališkumus. Jūs pagrįstai tikėtumėte ir tikitės, kad AI kūrėjai išbandys galimai palaidotus šališkumus, nors tai yra sudėtingiau, nei gali atrodyti. Yra didelė tikimybė, kad net ir atlikus gana platų testavimą, ML/DL modelių atitikimo modeliuose vis tiek bus paklaidų.

Galite šiek tiek pasinaudoti garsiuoju ar liūdnai pagarsėjusiu posakiu apie šiukšlių išvežimą. Reikalas tas, kad tai labiau panašu į šališkumą, kuris klastingai įsiskverbia į AI paskendusį šališkumą. AI sprendimų priėmimo algoritmas (ADM) aksiomatiškai apkraunamas nelygybe.

Negerai.

Grįžkime prie AI pagrįsto balso klonavimo dėmesio.

Neseniai vykusioje konferencijoje „Amazon“ pateiktas pranešimas buvo skirtas pademonstruoti pageidaujamus AI pagrįsto balso klonavimo pranašumus ir pabrėžti naujausią pažangiausią AI, naudojamą „Alexa“, siekiant tobulinti jos galimybes. Remiantis naujienų pranešimais, paruoštas pavyzdys, kuris turėjo būti širdžiai mielas ir nuotaikingas, buvo tai, kad vaikas paprašė Alexos, kad močiutė baigtų perskaityti istoriją apie Ozo burtininkas. Susirinkusiems buvo pasakyta, kad močiutė mirė ir kad tai buvo priemonė vaikui iš esmės atkurti ryšį su savo brangiai branginamu seneliu. Visa tai, matyt, buvo dalis vaizdo įrašo, kurį sukūrė „Amazon“, kad padėtų pristatyti naujausius „Alexa“ kūrėjų komandos AI balso klonavimo laimėjimus (apima funkcijas, kurios dar nėra oficialiai pradėtos naudoti viešai).

Viena reakcija į šį pavyzdį yra ta, kad galime būti labai sujaudinti, kad vaikas vėl gali išgirsti savo močiutės balsą. Tikriausiai turime daryti prielaidą, kad močiutė dar neužrašė viso istorijos skaitymo, todėl dirbtinio intelekto klonavimas atliko darbą, kad viskas atrodytų taip, tarsi močiutė dabar skaito visą.

Puikus ir puikus būdas užmegzti ryšį su artimaisiais, kurių nebėra su mumis.

Ne visi žurnalistai ir analitikai (taip pat „Twitter“) buvo taip linkę palankiai interpretuoti šią pažangą. Kai kurie tai pavadino tiesiog baisu. Bandymas atkurti mirusio mylimojo balsą buvo keistas ir šiek tiek keistas reikalas.

Kyla daug klausimų, tokių kaip:

  • Ar vaikas susipainiotų ir patikėtų, kad miręs artimasis vis dar gyvas?
  • Ar dabar vaikas gali būti įtrauktas į kokią nors nemalonią išdaigą ar sukčiavimą, klaidingai tikint, kad močiutė vis dar yra su mumis?
  • Ar vaikas gali nukentėti, išgirdęs apie mirusį mylimąjį ir dabar jau vėl pasiilgęs senelio, tarsi atverdamas jau sutvarkytas emocines žaizdas?
  • Ar vaikas pagalvos, kad velionis gali kalbėti iš kitos pusės, būtent, kad šis mistiškas balsas, atrodantis kaip būtent jo močiutė, kalba jam iš kapo?
  • Ar įmanoma, kad vaikas manys, kad AI kažkaip įkūnijo jo močiutę, antropomorfizuodamas AI taip, kad vaikas užaugs tikėdamas, kad AI gali visiškai atkartoti žmones?
  • Tarkime, kad vaikas taip susižavėjo močiutės AI atkartojamu balsu, kad vaikas tampa apsėstas ir naudoja balsą visokeriopai garso klausymui?
  • Ar pardavėjas, kuris atkartoja balsą, gali pasirinkti naudoti tą balsą kitiems, naudojantiems tą pačią bendrą sistemą, negaudamas aiškaus šeimos leidimo ir taip „gaudamas pelno“ iš sukurto balso?
  • Ir taip toliau.

Svarbu suvokti, kad galite prisišaukti tiek neigiamų dalykų, tiek teigiamų, ar sakysime tiek teigiamų, kiek neigiamų dalykų. Šių AI pažangų pagrindas yra kompromisų. Žvelgiant tik į vieną monetos pusę galbūt atrodo trumparegystė.

Svarbiausia yra įsitikinti, kad nagrinėjame visas šių klausimų puses. Nebūk aptemdęs savo mąstymo. Gali būti lengva ištirti tik teigiamus dalykus. Gali būti lengva ištirti tik neigiamus dalykus. Turime išnagrinėti abu ir išsiaiškinti, ką galima padaryti, kad, tikėkimės, panaudotume teigiamus aspektus ir siektume sumažinti, pašalinti ar bent sušvelninti neigiamus dalykus.

Tam tikru mastu AI etika ir etinis AI yra tokia svarbi tema. Dirbtinio intelekto etikos nuostatos verčia mus išlikti budriems. AI technologai kartais gali būti susirūpinę technologijomis, ypač aukštųjų technologijų optimizavimu. Jie nebūtinai atsižvelgia į didesnius visuomenės padarinius. Norint sukurti tinkamą AI, labai svarbu turėti DI etikos mąstymą ir tai daryti neatsiejamai nuo AI kūrimo ir veiklos.

Be dirbtinio intelekto etikos naudojimo, kyla atitinkamas klausimas, ar turėtume turėti įstatymus, reglamentuojančius įvairius AI naudojimo būdus, pvz., dirbtinio intelekto balso klonavimo funkcijas. Federaliniu, valstijos ir vietiniu lygmenimis rengiami nauji įstatymai, susiję su DI kūrimo įvairove ir pobūdžiu. Pastangos rengti ir priimti tokius įstatymus vyksta laipsniškai. Dirbtinio intelekto etika yra bent jau rimta stabdis.

Be to, kai kurie teigia, kad mums nereikia naujų įstatymų, apimančių AI, ir kad mūsų esamų įstatymų pakanka. Tiesą sakant, jie įspėja, kad jei priimsime kai kuriuos iš šių dirbtinio intelekto įstatymų, užmušime auksinę žąsį, apribodami AI pažangą, teikiančią didžiulių socialinių pranašumų. Pavyzdžiui, žiūrėkite mano aprėptį adresu nuoroda čia ir nuoroda čia.

Šioje svarbioje diskusijoje aš galiu lažintis, kad norite pateikti keletą iliustruojančių pavyzdžių, kurie galėtų parodyti šią temą. Yra ypatingas ir neabejotinai populiarus pavyzdžių rinkinys, kuris man prie širdies. Matote, kaip dirbtinio intelekto, įskaitant etines ir teisines pasekmes, ekspertas, manęs dažnai prašoma pateikti realių pavyzdžių, atskleidžiančių DI etikos dilemas, kad būtų galima lengviau suvokti šiek tiek teorinį temos pobūdį. Viena iš įdomiausių sričių, ryškiai pristatančių šią etišką AI kliūtį, yra dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas. Tai bus patogus naudojimo atvejis arba pavyzdys plačioms diskusijoms šia tema.

Štai vertas dėmesio klausimas, kurį verta apsvarstyti: Ar dirbtinio intelekto pagrindu sukurtų tikrų savaeigių automobilių atsiradimas ką nors parodo apie AI pagrįstą balso klonavimą, ir jei taip, ką tai parodo?

Leiskite man akimirką išpakuoti klausimą.

Pirma, atkreipkite dėmesį, kad tikrai savarankiškai vairuojančiame automobilyje nėra žmogaus vairuotojo. Atminkite, kad tikri savarankiškai važiuojantys automobiliai yra valdomi naudojant AI vairavimo sistemą. Nereikia, kad prie vairo būtų vairuotojas žmogus, taip pat nėra numatyta, kad žmogus galėtų vairuoti transporto priemonę. Išsamią ir nuolatinę informaciją apie autonomines transporto priemones (AV) ir ypač apie savarankiškai važiuojančius automobilius žr. nuoroda čia.

Norėčiau dar labiau paaiškinti, ką turiu omenyje, kai kalbu apie tikrus savarankiškai vairuojančius automobilius.

Suprasti savarankiškų automobilių lygį

Paaiškinkime, kad tikrieji savarankiškai važiuojantys automobiliai yra tie, kuriuose dirbtinis intelektas vairuoja automobilį visiškai savarankiškai ir atliekant vairavimo užduotį nėra jokios žmogaus pagalbos.

Šios transporto priemonės be vairuotojo laikomos 4 ir 5 lygiais (žr. mano paaiškinimą adresu šią nuorodą čia), o automobilis, kurio vairuotojas turi pasidalyti vairavimo pastangomis, paprastai laikomas 2 arba 3 lygiu. Automobiliai, kurie kartu atlieka vairavimo užduotį, apibūdinami kaip pusiau savarankiški ir paprastai juose yra įvairių automatiniai priedai, vadinami ADAS (išplėstinės vairuotojo pagalbos sistemos).

Dar nėra tikro savarankiškai važiuojančio 5 lygio automobilio, ir mes dar net nežinome, ar tai bus įmanoma pasiekti, nei kiek užtruks iki jo pasiekti.

Tuo tarpu 4 lygio pastangos pamažu bando įgyti šiek tiek traukos atlikdami labai siaurus ir selektyvius viešųjų kelių bandymus, nors kyla ginčų dėl to, ar šis bandymas turėtų būti leidžiamas per se (mes visi esame gyvybės ar mirties jūrų kiaulytės eksperimente vyksta mūsų greitkeliuose ir pakelėse, kai kurie tvirtina, žr. mano aprėptį adresu šią nuorodą čia).

Kadangi pusiau autonominiams automobiliams reikalingas žmogiškas vairuotojas, šių tipų automobiliai bus žymiai kitokie nei vairuojant įprastas transporto priemones, todėl apie juos šioje temoje nėra daug naujų, tačiau, kaip pamatysite po akimirkos kiti taškai yra paprastai taikomi).

Dėl pusiau autonominių automobilių svarbu, kad visuomenė būtų perspėta apie nerimą keliantį aspektą, kuris pastaruoju metu iškyla, būtent, kad nepaisant tų vairuotojų, kurie nuolat skelbia vaizdo įrašus apie tai, kaip jie užmiega prie 2 ar 3 lygio automobilių vairo , visi turime vengti klaidinti manydami, kad vairuotojas, vairuodamas pusiau autonominį automobilį, gali atitraukti dėmesį nuo vairavimo užduoties.

Jūs esate atsakingas už transporto priemonės vairavimo veiksmus, nepaisant to, kiek automatikos gali būti išmesta į 2 ar 3 lygį.

Savarankiškai važiuojantys automobiliai ir AI pagrįstas balso klonavimas

Tikrosios 4 ir 5 lygio savarankiškai vairuojančioms transporto priemonėms vairuotojo užduotis nebus skirta žmonėms.

Visi keleiviai bus keleiviai.

AI vairuoja.

Vienas aspektas, kurį reikia nedelsiant aptarti, reiškia, kad dirbtinis intelektas, dalyvaujantis šiandieninėse dirbtinio intelekto vairavimo sistemose, nėra jausmingas. Kitaip tariant, dirbtinis intelektas yra kompiuterinio programavimo ir algoritmų kolektyvas, kuris, be abejo, negali samprotauti taip, kaip gali žmonės.

Kodėl taip pabrėžiama, kad AI nėra jautrus?

Nes noriu pabrėžti, kad aptardamas dirbtinio intelekto vairavimo sistemos vaidmenį, aš AI nepriskiriu žmogaus savybių. Turėkite omenyje, kad šiomis dienomis yra nuolatinis ir pavojingas polinkis antropomorfizuoti AI. Iš esmės žmonės priskiria žmonėms panašų jausmą šiandieniniam dirbtiniam intelektui, nepaisant neginčijamo ir neginčijamo fakto, kad tokio AI dar nėra.

Patikslinę galite įsivaizduoti, kad dirbtinio intelekto vairavimo sistema savaime kažkaip „neišmanys“ vairavimo aspektų. Vairavimą ir visa tai, ką tai reiškia, reikės užprogramuoti kaip savarankiško automobilio techninės ir programinės įrangos dalį.

Pasinerkime į begalę aspektų, kurie yra svarbūs šia tema.

Pirma, svarbu suprasti, kad ne visi dirbtinio intelekto automobiliai yra vienodi. Kiekvienas automobilių gamintojas ir savarankiškai vairuojančių technologijų įmonė laikosi savo požiūrio į savaeigių automobilių kūrimą. Todėl sunku pateikti plačius teiginius apie tai, ką AI vairavimo sistemos darys ar ne.

Be to, kai teigiama, kad dirbtinio intelekto vairavimo sistema neatlieka tam tikro dalyko, vėliau tai gali aplenkti kūrėjai, kurie iš tikrųjų užprogramuoja kompiuterį tai padaryti. Žingsnis po žingsnio AI vairavimo sistemos palaipsniui tobulinamos ir plečiamos. Esamo apribojimo šiandien gali nebelikti būsimoje iteracijoje ar sistemos versijoje.

Tikiuosi, kad tai suteikia pakankamai įspėjimų, kad pagrįstų tai, ką ketinu pasakyti.

Nubraižykime scenarijų, kuris galėtų panaudoti AI pagrįstą balso klonavimą.

Tėvai ir jų vaikas įsėda į dirbtinio intelekto pagrindu veikiantį automobilį. Jie eina į savo vietinę bakalėjos parduotuvę. Manoma, kad tai bus gana neįvykdytas važiavimas. Tereikia kas savaitę nuvažiuoti į parduotuvę, nors vairuotojas yra AI vairavimo sistema, o tėvams nereikia vairuoti.

Tėvams tai yra didelė dovana. Užuot sutelkę dėmesį į vairavimą ir vairavimo veiksmus, tėvai gali skirti savo dėmesį savo vaikui. Jie gali žaisti kartu autonominėje transporto priemonėje ir praleisti vertingą laiką. Nors tėvai paprastai blaškosi vairuodami ir greičiausiai nerimauja ir nerimsta važiuodami judriomis gatvėmis bei bendraudami su kitais blaiviais vairuotojais netoliese, o tėvai palaimingai to nežino ir su savo brangiu vaiku bendrauja tik maloniai.

Tėvai kalba su AI vairavimo sistema ir liepia AI nuvežti juos į bakalėjos parduotuvę. Įprastu atveju AI reaguotų neutraliu garso ištarimu, kurį galite išgirsti per šiandienos „Alexa“ arba „Siri“. AI gali atsakyti nurodydamas, kad iki bakalėjos parduotuvės nuvažiuosite per 15 minučių. Be to, AI gali teigti, kad savarankiškai važiuojantis automobilis juos išmes pačiame parduotuvės priekyje.

Tai gali būti vienintelė su balsu susijusi AI veikla pagal tokį scenarijų. Galbūt, kai savarankiškas automobilis priartėja prie bakalėjos parduotuvės, AI gali ką nors pasakyti apie artėjančią paskirties vietą. Taip pat gali būti garsinis priminimas, kad išlipant iš autonominės transporto priemonės reikia pasiimti su savimi daiktus.

Paaiškinau, kad kai kurios AI vairavimo sistemos bus tarsi plepios katės. Jie bus užprogramuoti sklandžiau ir nuolat bendrauti su žmonėmis. Įsėdus į pasidalijimo transporto priemonę, kurią vairuoja žmogus, kartais norisi, kad vairuotojas būtų plepus. Galbūt norėsite ne tik pasisveikinti, bet ir papasakoti apie vietines oro sąlygas arba nurodyti kitas lankytinas vietas vietinėje vietovėje. Ne visi norės plepios katės, todėl dirbtinis intelektas turėtų būti sukurtas taip, kad į dialogus įsitrauktų tik tada, kai to prašo žmogus, žr. nuoroda čia.

Dabar, kai jau viską nustatiau, pakeiskime dalykus nedideliu, bet reikšmingu būdu.

Apsimeskite, kad AI vairavimo sistema turi AI pagrįstą balso klonavimo funkciją. Taip pat darykime prielaidą, kad tėvai anksčiau pradėjo dirbtinio intelekto balso klonavimą pateikdami vaiko močiutės garso fragmentą. Nustebink, galvoja tėvas, bet aš leisiu dirbtinio intelekto vairavimo sistemai kalbėti taip, lyg tai būtų mirusi vaiko močiutė.

Važiuojant į bakalėjos parduotuvę AI vairavimo sistema sąveikauja su tėvais ir vaiku, visą laiką naudodama tik klonuotą močiutės balsą.

Ką tu apie tai manai?

Baisus ar maloniai įsimintinas?

Aš patobulinsiu dalykus. Pasiruošk. Prisisekite saugos diržą.

Kai kurie mano, kaip ir aš, kad galiausiai leisime vaikams patiems važiuoti dirbtinio intelekto pagrindu veikiančiais automobiliais, žr. mano analizę adresu nuoroda čia.

Šiuolaikiniuose žmonių vairuojamuose automobiliuose visada turi būti suaugęs žmogus, nes įstatymai reikalauja, kad prie vairo sėdėtų suaugęs vairuotojas. Visais praktiniais tikslais niekada negalite turėti vaiko važiuojančiame automobilyje, kuris pats yra transporto priemonėje (taip, aš žinau, kad taip atsitinka, pvz., garsus 10-metis didelės kino žvaigždės sūnus, kuris neseniai pasitraukė atgal). labai brangų automobilį į kitą labai brangų automobilį, bet vis tiek tai yra retenybė).

Šiandieniniai tėvai tikriausiai griežtai prieštarautų, jei leistų savo vaikams važiuoti savaeigiu automobiliu, kuriame nėra suaugusiojo, kuris tarnautų kaip prižiūrėtojas arba prižiūrėtų savo vaikus. Žinau, kad tai beveik neįmanoma įsivaizduoti, bet aš lažinuosi, kad kai savaime važiuojantys automobiliai bus paplitę, neišvengiamai priimsime idėją, kad vaikai, važiuodami savaeigiu automobiliu, liktų be suaugusiųjų.

Apsvarstykite patogumo veiksnį.

Jūs esate darbe, o jūsų viršininkas persekioja jus, kad atliktumėte užduotį. Turite pasiimti vaiką iš mokyklos ir nuvesti į beisbolo treniruotę. Esate įstrigę tarp uolos ir kietos vietos, nes per daug nuraminate savo viršininką arba nevedate vaiko į praktikos lauką. Niekas kitas, kurį pažįstate, negali jūsų vaikui pakelti lifto. Jei ką, jūs tikrai nenorite naudotis dalijimosi pavėžėjimo paslauga, kurią sudaro vairuotojas žmogus, nes jums natūraliai rūpi, ką tas nepažįstamas suaugęs žmogus gali pasakyti ar daryti, veždamas jūsų vaiką.

Jokių problemų, nesijaudinkite, tiesiog naudokite dirbtinio intelekto pagrindu veikiantį automobilį. Nuotoliniu būdu nukreipiate savarankiškai vairuojantį automobilį, kad jis eitų pasiimti jūsų vaiko. Per savaeigio automobilio kameras galite matyti ir stebėti, kaip vaikas įsėda į autonominę transporto priemonę. Be to, yra į vidų nukreiptos kameros ir jūs galite stebėti savo vaiką visą vairavimo kelionę. Tai atrodo saugu, jei ne saugiau, nei prašyti nepažįstamo vairuotojo, kad jis pakeltų jūsų vaiką. Be to, kai kurie yra pagrįstai susirūpinę, kad jei vairavimo veiksmas pasisektų, vaikas paliekamas sau ir joks suaugusysis iš karto neatvyksta, kad padėtų vaikui ar duotų nurodymų.

Atmetus daugybę nuoskaudų, tarkime, kad tas pats tėvas ir vaikas, kuriuos aprašiau ankstesniame scenarijuje, yra gerai, kai vaikas važiuoja pasivažinėti be tėvų. Tiesiog sutikite, kad tai galiausiai yra perspektyvus scenarijus.

Čia yra finalas.

Kiekvieną kartą, kai vaikas važiuoja dirbtinio intelekto pagrindu veikiančiu savarankiškai vairuojančiu automobiliu, jis pasisveikinamas ir bendrauja su dirbtiniu intelektu, nes jis naudoja dirbtinio intelekto balso klonavimą ir atkartoja mirusios vaiko močiutės balsą.

Ką manai apie tuos obuolius?

Kai tėvai taip pat buvo savarankiškai vairuojančiame automobilyje, galbūt galėtume atleisti dirbtinio intelekto balso naudojimą, nes vienas iš tėvų yra tam, kad patartų vaikui, kas vyksta, kai kalba AI garsas. Bet kai tėvų nėra, dabar darome prielaidą, kad vaikui idiliškai gerai sekasi močiutės balso replikacija.

Tai neabejotinai vienas iš tų pristabdymo momentų, kai reikia rimtai pagalvoti, ar tai vaikui gerai, ar blogai.

Išvada

Padarykime šiek tiek minties eksperimentą, kad apmąstytume šiuos svarbius dalykus.

Prašau tvirtai sugalvoti tris teigiamas Priežastys, kodėl reikia dirbtinio intelekto balso klonavimo.

Lauksiu, kol tu juos sugalvosi.

Toliau tvirtai sugalvokite tris neigiamas priežastys, trukdančios AI pagrindu sukurto balso klonavimo atsiradimui.

Manau, kad kai kuriuos sugalvojai.

Suprantu, kad neabejotinai galite sugalvoti daug daugiau priežasčių nei tik trys, kurios palankiai vertina arba nepritaria šiai technologijai. Jūsų nuomone, ar neigiami dalykai nusveria teigiamus? Yra tų kritikų, kurie teigia, kad turėtume sutelkti dėmesį į tokias pastangas.

Kai kurie nori pabandyti blokuoti įmones nuo AI pagrįsto balso klonavimo, tačiau supranta, kad tai yra viena iš tų klasikinių keblumų. Bet kuri įmonė, kuri nustos jį naudoti, yra tokia, kad kuri nors kita įmonė pradės jį naudoti. Užšaldyti laikrodį ar nustumti tokio tipo AI bus beveik neįmanoma.

Paskutinę pastabą šia tema kol kas įsivaizduokite, kas gali nutikti, jei kada nors pasieksime jausmingą AI. Nesakau, kad taip nutiks. Bet kokiu atveju galime spėlioti ir pamatyti, kur tai gali nuvesti.

Pirmiausia apsvarstykite įžvalgią citatą apie kalbėjimą ir balso turėjimą. Madeleine Albright taip yra pasakiusi: „Man prireikė gana daug laiko, kol išsiugdžiau balsą, o dabar, kai jį turiu, netylėsiu“.

Jei mes sugebame sukurti jausmingą AI arba kažkaip jausmas atsiranda, net jei jo tiesiogiai nekeliame, kokį balsą tas AI turėtų turėti? Tarkime, kad jis gali naudoti AI pagrįstą balso klonavimą ir sukurti bet kokį bet kurio žmogaus balsą per tam tikrą mažytį garso atrankos fragmentą, kurį gali ištarti tas žmogus. Tada toks AI galėtų kalbėti ir suklaidinti jus, manydamas, kad AI iš pažiūros yra tas asmuo.

Vėlgi, galbūt dirbtinis intelektas norės turėti savo balsą ir sąmoningai sukurti balsą, visiškai nepanašų į visų kitų žmonių balsus, norėdamas būti ypatingas savo žaviu būdu.

Dieve, dėl to žmogus beveik lieka be žado.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- skirtas-naudoti-autonominėse sistemose/