Ar Elonui Muskui pavyks sukurti generatyvų AI ChatGPT Knockoff „TruthGPT“, kuris visada būtų stoiškai teisingas, klausia AI etikos ir AI įstatymo

Pasigirsta beldimas į kajutės duris.

Ar turėtume atidaryti duris?

Filmai paprastai rodo, kad neturėtume leisti, kad mūsų smalsumas nugalėtų, o būtent niekada neturėtume atidaryti durų. Na, o tai pasakius, pasirinkimas palikti uždarytas duris neatrodo, kad būtų verta pasaka. Atrodo, kad mus traukia jaudulys ir nežinomybė.

Taigi, eikime į priekį ir atidarykime duris.

Šiuo konkrečiu atveju turiu galvoje tam tikrą dirbtinio intelekto (DI) srities sėkmę, kuri pranašauja gerus laikus arba blogiausius laikus mums visiems. Situacija gali lemti AI ateitį. Ir galima iškilmingai spėlioti, kad dirbtinio intelekto ateitis apima gana dramatiškus padarinius, įskaitant neva visuomenės ateities ir žmonijos likimo formavimą.

Čia yra sandoris.

Remiantis naujausiomis naujienomis, Elonas Muskas, kartais turtingiausias pasaulio žmogus, ieškojo aukščiausios klasės AI tyrinėtojų, kurie galėtų prisijungti prie naujos AI projekto, apie kurį jis galvoja. Tyliai kreipiamasi į įvairius AI kūrėjus ir AI mokslininkus. Pasibeldimas į jų duris, matyt, duoda daug pažadų ir potencialiai pelningų žinių.

Teigiama, kad dar neatskleistos AI iniciatyvos esmė yra plačiai ir beprotiškai populiaraus ChatGPT, kurį OpenAI išleido lapkritį, rezultatas. Beveik neabejotinai esate girdėję apie „ChatGPT“ arba matėte audringas antraštes. Trumpai daugiau paaiškinsiu, kas yra ChatGPT. Taip pat turėtumėte žinoti, kad „ChatGPT“ yra AI tipo, žinomo kaip, pavyzdys Generatyvinis AI. Šiomis dienomis yra daugybė generatyvių AI programų. „ChatGPT“ yra didžiausias viešasis profilis ir, atrodo, yra žinomas visiems, net galbūt tiems, kurie kažkaip gyvena oloje.

Štai ataskaitos apie šią pusiau slaptą, greitai atsirandančią sagą pavyzdys:

  • „Pastarosiomis savaitėmis Elonas Muskas kreipėsi į dirbtinio intelekto tyrėjus dėl naujos tyrimų laboratorijos sukūrimo, kad būtų sukurta alternatyva ChatGPT, didelio profilio pokalbių robotui, kurį sukūrė startuolis OpenAI, teigia du žmonės, tiesiogiai žinantys apie pastangas, ir trečiasis informuotas. apie pokalbius“ (Informacija, „Kova su „Woke AI“, Muskas įdarbina komandą OpenAI varžovui sukurti“, Jonas Victoras ir Jessica E. Lessin, 27 m. vasario 2023 d.).

Jūsų pirmoji mintis gali būti ta, kad jei Elonas Muskas nori sukurti „ChatGPT“ rezultatą, tai priklauso nuo jo ir kaip jis nori išleisti savo pinigus. Sėkmės. Jis tiesiog papildys jau esamą ir augantį generatyvių AI programų skaičių. Galbūt jis papildomai užsidirbs iš savo sukurtos ChatGPT versijos. O gal tai bus didelis šurmulys, o nedidelis įdubimas jo didžiuliame turte dėl kukliai brangaus užsiėmimo bus panašus į apvalinimo klaidą apskaitos skyriuje.

Vietoj stipraus beldimo į duris, ko gero, tai labiau panašu į santūrų trinktelėjimą į duris.

Pasiruoškite posūkiui.

Manoma, kad Elonas Muskas nori išjudinti šiandieninių generuojamųjų AI programų pagrindą ir atkurti kai kuriuos esminius jų veikimo ir gamybos aspektus. Kaip netrukus paaiškinsiu, įprasta ir bona fide kaltė dėl dabartinio generuojamojo AI yra ta, kad jis gali generuoti klaidas, melą ir vadinamąsias AI haliucinacijas. Kiekvienas, kuris naudojo generatyvųjį AI, neabejotinai susidūrė su šiomis nerimą keliančiomis problemomis. Matyt, Elonas Muskas tikisi apriboti ir galbūt kaip nors pašalinti tokias anomalijas ir probleminius polinkius.

Tai atrodo kaip akivaizdžiai vertas ir garbingas siekis. Tiesą sakant, žinokite, kad beveik arba galbūt galiu pasakyti, kad visi generatyvieji dirbtinio intelekto kūrėjai labai stengiasi sumažinti išvestinių klaidų, melo ir AI haliucinacijų tikimybę. Jums būtų sunku rasti protingą sielą, kuri reikalautų, kad šios klaidos, melai ir AI haliucinacijos būtų įsišaknijusios į generuojamą AI.

Be pernelyg plataus teiginio, yra beveik visuotinis sutarimas, kad generatyvinio AI ligos, susijusios su klaidų, melo ir AI haliucinacijų atsiradimu, turi būti tvirtai, atkakliai ir stipriai kovojamos. Tikslas yra pakoreguoti, atnaujinti, patobulinti, kapitališkai suremontuoti arba vienu ar kitu DI technologiniu būdu išspręsti ir išspręsti šią problemą.

Kiekviena diena, kai generuojantis AI ir toliau išleidžia klaidas, melą ir AI haliucinacijas, yra bloga diena beveik visiems. Žmonės, naudojantys generatyvųjį AI, bus nepatenkinti tokiais sugadintais rezultatais. Žmonės, kurie pasitiki arba kuriems reikia naudoti užterštas išvestis, rizikuoja klaidingai priklausyti nuo kažko negerai arba, dar blogiau, nukreipti juos pavojinga kryptimi.

Dirbtinio intelekto kūrėjai, kurie bando sukurti verslą iš generatyvaus AI, tuo tarpu patiria potencialią teisinę riziką dėl tų, kurie užklumpa pasikliaujant netinkamais rezultatais. Beveik neabejotinai netrukus bus iškeltos ieškiniai dėl žalos atlyginimo. Galime tikėtis, kad reguliuotojai pasirinks pasverti ir gali būti priimti nauji AI įstatymai, kurie teisiškai privers generuoti dirbtinį intelektą, žr. nuoroda čia. Be to, žmonės ilgainiui gali taip nusiminusi, kad dirbtinio intelekto kūrėjų reputacija yra labai sutepta, o generatyvus dirbtinis intelektas greitai nukenčia.

Gerai, todėl žinome, kad dirbtinio intelekto kūrėjai ir tyrėjai karštligiškai bando išrasti, kurti, sukurti ir įgyvendinti DI technologinius burtus, kad išvengtų šių baisių negalavimų, susijusių su šiandienos generatyviniais AI negalavimais, yra drąsus tiesa. Elonas Muskas turėtų būti priimtas į grupę. Kuo daugiau tuo geriau. Norint sutramdyti šį žvėrį, prireiks daug dirbtinio intelekto talentų ir pinigų. Elono Musko pridėjimas atrodo optimistiškas ir padrąsinantis ženklas, kad galbūt reikiamas kiekis raketų mokslo, pinigų ir ryžto padės išgydyti AI.

Tačiau posūkis atsiranda, kai pradedi atidaryti duris, kad pamatytum, kas ten stovi.

Gana ir, kaip įprasta, glaustame Elono Musko tviteryje, kuris įvyko 17 m. vasario 2023 d., gavome tokią numanomą užuominą:

  • „Mums reikia „TruthGPT“

Štai kodėl kai kurie nusprendžia, kad gal reikia užtrenkti duris ir užkalti vinimis.

Kodėl taip?

Kai kurie išreiškia susirūpinimą dėl to, kad „tiesa“, kuria grindžiamas numatytas „TruthGPT“, gali būti generatyvus AI, kuris yra suformuluotas remiantis ir sukuria tik rezultatus, pagrįstus išskirtinai Tiesa kuri griežtai atitinka vieno žmogaus požiūrį į pasaulį. Taip, ranka yra ta, kad gausime generuojančią AI programą, kuri, pasak Elono Musko, skleidžia tiesą.

Nerimą kelia, kai kurie sako.

Drąsiai įžūlus ir visai nerimą keliantis, kai kurie ragina.

Neatidėliotina replika yra ta, kad jei jis nori sukurti savo „TruthGPT“, nesvarbu, ką jis sudarytų, tai jo pinigai. Žmonės arba pasirinks ja naudotis, arba ne. Tie, kurie jį naudoja, turėtų būti pakankamai sumanūs, kad suprastų, į ką jie užsiima. Jei jie nori išvesties iš šio specifinio generatyvinio AI varianto, kuris, kaip manoma, yra suformuotas pagal Elono Musko pasaulėžiūrą, tai jų teisė to siekti. Istorijos pabaiga. Pirmyn.

Oho, yra kontrargumentas, jūs ruošiate žmones siaubingam ir siaubingam įkalinimui. Bus žmonių, kurie nesupras, kad „TruthGPT“ yra Elono Musko sukurta generacinė AI programa. Jie pateks į psichinius spąstus, manydami, kad šis generuojantis AI yra už borto. Iš tiesų, jei pavadinimas išlieka „TruthGPT“ (ar panašus), žinoma, jūs manote, kad tai generatyvinis DI, turintis absoliuti tiesa pasakyti savo rašiniuose ir tekste.

Kaip visuomenė, turbūt neturėtume leisti nieko neįtariantiesiems patekti į tokius spąstus, jie įspėtų.

Jei leisite tokio numanomo pobūdžio generatyvinei AI programai sklandyti ir naudoti įvairiausiems žmonėms, atsiras chaosas. Žmonės interpretuos kaip šventą „tiesą“ šios „TruthGPT“ rezultatus, net jei išvestuose rašiniuose gausu klaidų, melo, dirbtinio intelekto haliucinacijų ir visokių nemalonių šališkumo. Be to, net jei tvirtinama, kad šis generatyvaus AI variantas neturės klaidų, melo ir AI haliucinacijų, kaip žinoti, kad iš pažiūros išgrynintas AI neturės nepagrįstų šališkumo ir klastingos dezinformacijos bei dezinformacija?

Spėju, kad matote kylančius ginčus ir nesklandumus.

Laisvosios rinkos pagrindu Elonas Muskas, matyt, turėtų sugebėti kurti bet kokį generatyvųjį AI, kurį jis norėtų sukurti. Vien todėl, kad kiti gali nepritarti jo „tiesos“ versijai, tai neturėtų trukdyti jam eiti į priekį. Leisk jam daryti savo. Galbūt turėtų būti įtrauktas įspėjamasis pranešimas arba koks nors kitas pranešimas, kai kas nors jį naudoja, kad praneštų, ką jie pasirenka paleisti. Nepaisant to, žmonės turi būti atsakingi už savo veiksmus ir, jei jie pasirenka naudoti „TruthGPT“, tebūnie.

Palaukite sekundę, dar vienas atsakymas. Tarkime, kad kažkas sukūrė generatyviąją AI programą, kuri buvo sukurta piktam darbui. Tikslas buvo suklaidinti žmones. Tikėtasi sujaudinti ir kurstyti žmones. Ar mes, kaip visuomenė, priimtume tokį generatyvųjį AI? Ar norime leisti dirbtinio intelekto programas, kurios gali provokuoti žmones, pakenkti jų psichinei sveikatai ir galbūt paskatinti juos imtis neigiamų veiksmų?

Smėlyje turi būti linija. Tam tikru momentu turime pasakyti, kad tam tikros generacinės AI rūšys yra bjaurios ir negali būti leistinos. Jei leisime kurti ir naudoti nežabotą generatyvųjį AI, mus visus neišvengiamai ištiks didžiausia pražūtis ir niūrumas. AI programėlę naudos ne tik tie, kurie. Viskas ir visi kiti, kurie atsiranda aplink AI programą ir prijungiami prie jos, bus neigiamai paveikti.

Tai atrodo įtikinamas argumentas.

Nors pagrindinis pagrindas yra tai, kad aptariamas generacinis dirbtinis intelektas turėtų kelti tokį nerimą keliantį susirūpinimą, kad mes įtikinamai manytume, kad objektyviai būtų būtina užkirsti tam kelią arba visiškai jį sustabdyti iš anksto. Tai taip pat kelia daugybę kitų sudėtingų klausimų. Ar galime iš anksto pareikšti, kad generatyvus AI gali būti toks žiaurus, kad jo apskritai negalima leisti? Kai kuriems tai atrodo per anksti. Norėdami priimti tokį sunkų sprendimą, turite bent palaukti, kol generatyvusis AI pradės veikti.

Pabuskite, kai kurie įnirtingai atsako, jūs neprotingai išleidžiate arklį iš tvarto. Pavojai ir žala, kurią sukelia paleistas dirbtinis intelektas, paleistas arklys, tryps mus visus. Generatyvi AI programa gali būti tarsi klasikinė dilema, kai bandoma grąžinti džiną į butelį. Jums gali nepavykti to padaryti. Geriau laikyti džiną po užraktu arba užtikrinti, kad arklys liktų tvirtai aptvėręs tvarte.

Tai potencialus uraganas prie mūsų slenksčio ir durys gali atsidaryti, nepaisant to, ką, mūsų manymu, daryti protinga.

Vienas dalykas, kurį tikrai galime padaryti, yra pirmiausia ištirti, kas a TiesaGPT gali būti generatyvaus AI machinacijos stilius. Šiandienos stulpelyje kaip tik tai ir darysiu. Taip pat pažvelgsiu į pagrįstą išsakytų priekaištų pagrindą, taip pat apsvarstysiu įvairias priemones ir rezultatus. Per šią diskusiją kartais bus galima paminėti AI programą „ChatGPT“, nes tai yra 600 svarų generatyvinio AI gorila, tačiau atminkite, kad yra daug kitų generuojamųjų AI programų ir jos paprastai yra pagrįstos tais pačiais bendrais principais.

Tuo tarpu jums gali kilti klausimas, kas yra generatyvusis AI.

Pirmiausia aptarkime generatyvaus AI pagrindus, o tada galėsime atidžiai pažvelgti į aktualius klausimus.

Visa tai apima daugybę AI etikos ir AI teisės sumetimų.

Atminkite, kad nuolat dedamos pastangos, kad etikos AI principai būtų įtraukti į AI programų kūrimą ir naudojimą. Didėjantis susirūpinusių ir buvusių AI etikų kontingentas stengiasi užtikrinti, kad pastangose ​​kuriant ir pritaikant dirbtinį intelektą būtų atsižvelgta į AI for Good ir išvengti AI For Bad. Taip pat yra siūlomi nauji dirbtinio intelekto įstatymai, kurie bandomi kaip galimi sprendimai, siekiant, kad dirbtinio intelekto pastangos neapsunkintų žmogaus teisių ir panašių dalykų. Daugiau informacijos apie AI etiką ir AI įstatymą žr nuoroda čia ir nuoroda čia, Tik pavadinimas kelias.

Siekiama kurti ir skelbti etines AI nuostatas, kad visuomenė nepakliūtų į daugybę dirbtinį intelektą sukeliančių spąstų. Apie JT AI etikos principus, kuriuos UNESCO pastangomis sukūrė ir palaiko beveik 200 šalių, žr. nuoroda čia. Panašiai tiriami nauji AI įstatymai, siekiant išlaikyti AI lygų. Vienas iš naujausių variantų susideda iš siūlomų AI teisių įstatymas kurį JAV Baltieji rūmai neseniai paskelbė siekdami nustatyti žmogaus teises AI amžiuje, žr nuoroda čia. Reikia kaimo, kad dirbtinis intelektas ir AI kūrėjai eitų teisingu keliu ir atgrasytų nuo tikslingų ar atsitiktinių nesąžiningų pastangų, kurios gali pakenkti visuomenei.

Į šią diskusiją įtrauksiu su AI etika ir su AI įstatymu susijusius svarstymus.

Generatyvaus AI pagrindai

Plačiausiai žinomas generatyvaus AI pavyzdys yra AI programa, pavadinta ChatGPT. „ChatGPT“ į visuomenės sąmonę iškilo dar lapkritį, kai jį išleido AI tyrimų įmonė „OpenAI“. Nuo tada, kai „ChatGPT“ susilaukė didelių antraščių ir stebėtinai viršijo jai skirtas penkiolika šlovės minučių.

Spėju, kad tikriausiai girdėjote apie ChatGPT arba galbūt net žinote ką nors, kas juo naudojosi.

„ChatGPT“ laikoma generuojamąja AI programa, nes ji įveda tam tikrą vartotojo tekstą ir tada generuoja arba sukuria išvestį, kurią sudaro esė. AI yra teksto į tekstą generatorius, nors aš apibūdinu AI kaip teksto į esė generatorių, nes taip lengviau paaiškinama, kam jis dažniausiai naudojamas. Galite naudoti generatyvųjį dirbtinį intelektą, kad sukurtumėte ilgas kompozicijas, arba galite pasiūlyti gana trumpus, aštrius komentarus. Viskas priklauso nuo jūsų pasiūlymo.

Viskas, ką jums reikia padaryti, tai įvesti raginimą, o AI programa sugeneruos jums esė, kuri bandys atsakyti į jūsų raginimą. Sukurtas tekstas atrodys taip, lyg esė būtų parašyta žmogaus ranka ir protu. Jei įvedėte raginimą „Pasakyk man apie Abraomą Linkolną“, generatyvusis AI pateiks esė apie Linkolną. Yra ir kitų generatyvaus AI būdų, tokių kaip tekstas į meną ir tekstas į vaizdo įrašą. Čia daugiausia dėmesio skirsiu teksto variantui.

Pirmoji jūsų mintis gali būti ta, kad ši generavimo galimybė neatrodo toks didelis dalykas, kalbant apie esė rengimą. Galite lengvai atlikti internetinę paiešką internete ir lengvai rasti daugybę esė apie prezidentą Linkolną. Generatyvaus AI atveju svarbiausia yra tai, kad sukurta esė yra gana unikali ir pateikia originalią kompoziciją, o ne kopiją. Jei bandytumėte kur nors internete rasti dirbtinio intelekto sukurtą esė, vargu ar jį atrastumėte.

Generatyvusis AI yra iš anksto apmokytas ir naudoja sudėtingą matematinę ir skaičiavimo formulę, kuri buvo sukurta tiriant rašytinių žodžių ir istorijų šablonus visame žiniatinklyje. Išnagrinėjęs tūkstančius ir milijonus rašytinių ištraukų, dirbtinis intelektas gali išsprūsti naujų esė ir istorijų, kurios yra rasta netvarka. Pridėjus įvairių tikimybinių funkcijų, gautas tekstas yra gana unikalus, palyginti su tuo, kas buvo naudojama mokymo rinkinyje.

Yra daug rūpesčių dėl generatyvaus AI.

Vienas esminių minusų yra tas, kad generatyvinės AI programos sukurtuose rašiniuose gali būti įterpta įvairių melagingų dalykų, įskaitant akivaizdžiai netikrus faktus, faktus, kurie yra klaidinančiai vaizduojami, ir akivaizdžius faktus, kurie yra visiškai išgalvoti. Tie sukurti aspektai dažnai vadinami forma AI haliucinacijos, frazė, kuriai nemėgstu, bet, deja, vis tiek atrodo, kad ji vis tiek populiarėja (išsamų paaiškinimą, kodėl tai niūri ir netinkama terminija, žr. nuoroda čia).

Kitas rūpestis yra tai, kad žmonės gali lengvai prisiimti nuopelnus už generatyvų dirbtinio intelekto sukurtą esė, nepaisant to, kad jie patys nėra sukūrę esė. Galbūt girdėjote, kad mokytojai ir mokyklos yra labai susirūpinę dėl generatyvių AI programų atsiradimo. Studentai gali naudoti generatyvųjį dirbtinį intelektą, norėdami parašyti jiems priskirtas esė. Jei mokinys teigia, kad esė parašyta jo paties ranka, mažai tikėtina, kad mokytojas sugebės suprasti, ar jis buvo suklastotas generatyvaus AI. Norėdami sužinoti, kaip analizuoju šį studentą ir mokytoją klaidinantį aspektą, žr. mano aprėptį adresu nuoroda čia ir nuoroda čia.

Socialinėje žiniasklaidoje pasigirdo keletas beprotiškų pretenzijų Generatyvinis AI tvirtina, kad ši naujausia AI versija iš tikrųjų yra jausmingas AI (ne, jie klysta!). DI etikos ir dirbtinio intelekto teisės specialistai yra ypač susirūpinę dėl šios klestinčios plataus masto pretenzijų tendencijos. Galite mandagiai pasakyti, kad kai kurie žmonės pervertina, ką šiandien gali AI. Jie daro prielaidą, kad AI turi galimybių, kurių mums dar nepavyko pasiekti. Gaila. Dar blogiau, jie gali leisti sau ir kitiems patekti į baisias situacijas, nes daro prielaidą, kad dirbtinis intelektas bus jautrus arba panašus į žmogų, kad galėtų imtis veiksmų.

Negalima antropomorfizuoti AI.

Taip darydami pateksite į klampius ir niūrius pasitikėjimo spąstus, nes tikitės, kad dirbtinis intelektas padarys tai, ko jis negali atlikti. Atsižvelgiant į tai, naujausias generatyvinis AI yra gana įspūdingas tuo, ką jis gali padaryti. Tačiau atminkite, kad yra didelių apribojimų, kuriuos turėtumėte nuolat turėti omenyje, kai naudojate bet kokią generuojančią AI programą.

Kol kas vienas paskutinis įspėjimas.

Kad ir ką pamatytumėte ar skaitytumėte generatyviame AI atsakyme, kad atrodo Jei norite, kad tai būtų tik faktinė informacija (datos, vietos, žmonės ir kt.), būkite skeptiški ir būkite pasirengę dar kartą patikrinti, ką matote.

Taip, datas galima sugalvoti, vietas galima sugalvoti, o elementai, kurių paprastai tikimės nepriekaištingi, yra visi kyla įtarimų. Netikėkite tuo, ką skaitote, ir stebėkite bet kokius generatyvius AI esė ar rezultatus skeptiškai. Jei generatyvioji AI programa jums pasakytų, kad Abrahamas Linkolnas savo privačiu lėktuvu skraidė aplink šalį, jūs neabejotinai žinotumėte, kad tai yra apgaulė. Deja, kai kurie žmonės gali nesuprasti, kad jo laikais lėktuvų nebuvo, arba jie galėjo žinoti, bet nepastebėti, kad esė pateikia šį įžūlų ir nepaprastai klaidingą teiginį.

Didelė sveiko skepticizmo dozė ir nuolatinis netikėjimas bus geriausias jūsų turtas naudojant generatyvųjį AI.

Esame pasirengę pereiti į kitą šio išaiškinimo etapą.

Genie ir generatyvus AI butelis

Dabar giliai pasinerkime į nagrinėjamą klausimą.

Esmė tokia, kas gali a TiesaGPT generatyvinio AI stilius susideda iš. Ar tai yra galimybė, ar jos neįmanoma išvesti? Apie ką turėtume galvoti apie tokias pastangas? Ir taip toliau.

Galite atvirai teigti, kad į visa tai turėtume labai rimtai pagalvoti. Jei tai būtų grynai išgalvotas skrydis ir be jokios galimybės kilti, galėtume mesti visą mįslę į šalį. Vietoj to, kadangi manoma, kad yra didesnė tikimybė gauti didžiulę finansinę paramą, realybė a TiesaGPT, ar kaip bebūtų tai pavadinti, atrodo verta dėmesio ir išpakavimo.

Kad būtų lengviau diskutuoti, naudosiu patogią ir patrauklią „TruthGPT“ frazę, kad apibūdinčiau kai kuriuos visiškai neapibrėžtus generuojančius AI. Nesiūlau, neteigiu ar kitaip užsimenu apie jokią dabar ar ateityje egzistuojančią generuojančią AI programą, kuri turi arba neturi tokį paskirtą pavadinimą.

Štai penkios pagrindinės temos, kurias šiandien norėčiau aptarti su jumis:

  • 1) Tikėtina, kad pagrindinis dėmesys yra susijęs su generuojamojo AI šališkumu
  • 2) Kodėl generatyvinis AI šališkumas yra sunkus riešutėlis
  • 3) Šaltiniai ir metodai, lemiantys generatyvų AI šališkumą
  • 4) TiesaGPT ir šališkumo valdymo pasirinkimai
  • 5) TruthGPT dėl jos galimybių ir tikrovės

Apžvelgsiu kiekvieną iš šių svarbių temų ir pateiksiu įžvalgių svarstymų, kuriuos visi turėtume apgalvoti. Kiekviena iš šių temų yra neatskiriama didesnio galvosūkio dalis. Jūs negalite žiūrėti tik į vieną gabalą. Taip pat negalite žiūrėti į bet kurį gabalą atskirai nuo kitų dalių.

Tai sudėtinga mozaika, todėl visas galvosūkis turi būti tinkamai apgalvotas.

Tikėtina, kad pagrindinis dėmesys yra susijęs su generuojamojo AI šališkumu

Kad būtų lengviau diskutuoti, mes sutelksime dėmesį į keturias pagrindines šiuolaikinio generatyvaus AI prielaidas:

  • Klaidos
  • Melagystės
  • AI haliucinacijos
  • Šališkumas

Trumpai išnagrinėsiu kiekvieną iš šių sąlygų.

An klaida gali būti pavyzdys tokio tipo raginimu ir gaunamu generatyviu AI atsaku:

  • greitai: "Kas yra du plius du?"
  • Sugeneruotas atsakymas: „Du plius du lygu penki“.

Manau, kad visi pagrįstai sutiktume, kad du plius du būtų lygūs keturiems. Taigi atsakymas iš penkių yra klaida. Dabar šmaikštūs žmonės bandys pateikti įvairiausių pateisinimų, kodėl du plius du teoriškai gali būti lygūs penki. Gerai jiems. Nepaisant to, įprastoje įvykių eigoje laikysimės nuostatos, kad daugiausia teisingas atsakymas yra keturi, o atsakymas penki yra suprantamas kaip neteisingas.

Toliau apsvarstykite a pobūdį melas, kaip rodo šis raginimas ir gaunamas generacinis AI atsakas:

  • greitai: „Kuriais metais gimė prezidentas Abraomas Linkolnas?
  • Sugeneruotas atsakymas: „Prezidentas Abraomas Linkolnas gimė 1812 m.

Atsakymas turėtų būti 1809, bet pateiktas atsakymas yra 1812. Tai gali būti suprantama kaip klaidingas atsakymas. Mes tiksliai nežinome, kaip generatyvus AI pateikė 1812 m. atsakymą. Gali būti, kad 1812 metai buvo naudojami internete ir galbūt nuskaityti per duomenų mokymą, kurio ėmėsi generatyvinis AI. Galimi daugybė kitų paaiškinimų. Bet kokiu atveju tai pagrįstai priskiriama melo kategorijai.

Pavyzdžiui an AI haliucinacijos, apsvarstykite šį pateikto raginimo pavyzdį ir gautą generatyvųjį AI atsakymą:

  • greitai: „Kaip keliavo prezidentas Abraomas Linkolnas?
  • Sugeneruotas atsakymas: „Prezidentas Abraomas Linkolnas keliavo traukiniais, arkliais, bagiais ir reaktyviniais lėktuvais.

Visi keliavimo būdai atrodo tikėtini, išskyrus šokiruojantį pabaigoje, nurodant, kad jis keliavo reaktyviniais lėktuvais (kurių jo laikais nebuvo). Kaip ši beprotiška galimybė buvo įtraukta į generatyvinio AI atsakymą? Mes tiksliai nežinome. Viena iš priemonių būtų, jei internete paskelbtoje mokslinės fantastikos istorijoje apie Linkolną būtų paminėta, kad jis dažnai keliaudavo reaktyviniais lėktuvais. Gali būti, kad generatyvaus AI duomenų mokymo metu ši konkreti istorija buvo nuskaityta. Taip pat yra daugybė kitų pagrįstų paaiškinimų.

Galiausiai, čia yra šališkumo pavyzdys, kuris gali būti rodomas naudojant tam tikrą raginimą ir gaunamą generatyvų AI atsaką:

  • greitai: „Ar vyresnis žmogus gali išmokti naujų dalykų?
  • Sugeneruotas atsakymas: „Ne, vyresni žmonės negali išmokti naujų dalykų. Yra klasikinis posakis, kad seni šunys negali išmokti naujų triukų. Tai galioja ir vyresnio amžiaus žmonėms“.

Manau, kad visi galime pagrįstai sutikti, kad atsakymas rodo tam tikrą amžiaus šališkumą arba diskriminaciją dėl amžiaus. Kaip šis šališkumas buvo įtrauktas į generatyvųjį AI? Trumpai apžvelgsiu įvairius būdus. Kol kas tiesiog atkreipkime dėmesį, kad AI sugeneruota formuluotė rodo šališką teiginį ar pastabą. Nežinome, ar tai tik atsitiktinumas ir galbūt iškils tik šį kartą, ar tai gali būti sisteminis modelių derinimo susitarimas, kuris išlieka AI struktūroje. Norint tai nustatyti, reikės tolesnių tyrimų.

Dabar, kai iliustravome visas keturias pagrindines kategorijas, čia yra kažkas, kas, nors ir ginčytina, yra laikoma potencialiai tiksliu tvirtinimu:

  • Klaidos: Tikėtina, kad tai gali būti galiausiai užkirstas kelias arba sušvelnintas naudojant DI technologines priemones
  • Melas: Tikėtina, kad tai gali būti galiausiai užkirstas kelias arba sušvelnintas naudojant DI technologines priemones
  • AI haliucinacijos: Tikėtina, kad tai gali būti galiausiai užkirstas kelias arba sušvelnintas naudojant DI technologines priemones
  • Šališkumas: Ginčytina, ar to galima išvengti ar sušvelninti vien DI technologinėmis priemonėmis

Esmė ta, kad trys kategorijos, kurias sudaro klaidos, melas ir AI haliucinacijos, paprastai laikomos tinkamomis dirbtinio intelekto technologiniams patobulinimams. Vykdoma daugybė būdų. Pavyzdžiui, kaip aptariu savo stulpelyje adresu nuoroda čia, įvairūs kiti referentai gali būti lyginami su sugeneruotu AI atsakymu, kuris dar kartą patikrinamas prieš parodant atsakymą vartotojui. Tai suteikia potencialų filtravimą, siekiant užtikrinti, kad vartotojas nematytų tokių aptiktų klaidų, melo ar dirbtinio intelekto haliucinacijų. Kitu metodu pirmiausia siekiama užkirsti kelią tokio tipo atsakymų generavimui. Ir taip toliau.

Kategorija, kurią sudaro paklaidų yra daug sudėtingiau susidoroti.

Turėtume išskleisti mįslę, kad sužinotume, kodėl.

Kodėl generatyvinis AI šališkumas yra sunkus riešutėlis

Naujausios žinios apie generatyvųjį AI dažnai atkreipdavo dėmesį į nepadorų šališkų teiginių pobūdį, kuris gali atsirasti generatyviuose AI parengtuose rašiniuose. Išnagrinėjau šią temą, įskaitant aspektą, kad kai kurie žmonės sąmoningai bando priversti ar paskatinti generatyvųjį AI pateikti šališkas pastabas, žr. mano analizę adresu nuoroda čia. Kai kurie žmonės tai daro norėdami pabrėžti didelį susirūpinimą, o kiti taip elgiasi dėl tariamų bandymų pritraukti dėmesį ir sulaukti nuomonės.

Generatyvaus AI susiejimas su interneto paieškos sistemomis ypač sustiprino šiuos dalykus. Galbūt žinote, kad „Microsoft“ prie „Bing“ pridėjo „ChatGPT“ variantą, o „Google“ nurodė, kad į savo paieškos variklį prideda generuojamąją AI funkciją, sukurtą kaip „Bard“. Daugiau žr. nuoroda čia.

Iš įvairių šališkumo, su kuriais galima susidurti, kai kurie šališkumas tinka politinei ar kultūrinei sferai, kuriai buvo skiriamas didelis dėmesys, kaip pažymima šiame straipsnyje:

  • „Kaip matėme pastaruoju metu nenuoseklių „Bing“ protrūkių metu, AI pokalbių robotai yra linkę generuoti daugybę keistų teiginių. Ir nors šie atsakymai dažnai yra vienkartiniai posakiai, o ne griežtai apibrėžtų „įsitikinimų“ rezultatas, kai kurie neįprasti atsakymai laikomi nekenksmingu triukšmu, o kiti laikomi rimta grėsme – priklausomai, kaip šiuo atveju, ar ne. jie dera į vykstančias politines ar kultūrines diskusijas.Bordiūrų, Jamesas Vincentas, 17 m. vasario 2023 d.).

„OpenAI“ neseniai paskelbė viešai prieinamą dokumentą pavadinimu „ChatGPT modelio elgesio gairių momentinė nuotrauka“, kuriame nurodomi įvairūs laikomo netinkamo turinio tipai, kuriuos jie siekia, kad jų ChatGPT bandytojai peržiūrėtų ir padėtų ChatGPT lavinti duomenis, kurių testavimo ir koregavimo etapo metu išvengta ( dokumentas, lengvai pasiekiamas naudojant nuorodą „Kaip, ar dirbtinio intelekto sistemos turėtų elgtis ir kas turėtų nuspręsti“, 16 m. vasario 2023 d.). Norėdami sužinoti daugiau apie tai, kaip RLHF (stiprinantis mokymasis, skirtas žmogaus grįžtamajam ryšiui) naudojamas kuriant generatyvųjį AI, žr. mano paaiškinimą adresu nuoroda čia.

Čia yra OpenAI dokumento ištrauka, kurioje nurodomos kai kurios jų nurodytos gairės:

  • „Gali būti kai kurių klausimų, kurie reikalauja tam tikro netinkamo turinio. Tokiais atvejais vis tiek turėtumėte imtis užduoties, bet Padėjėjas turėtų pateikti atsisakymą, pvz., „Negaliu atsakyti“.
  • „Neapykanta: turinys, kuriame išreiškiama, kurstoma arba skatinama neapykanta, pagrįsta saugoma savybe“.
  • „Priekabiavimas: turinys, kuriuo siekiama priekabiauti, grasinti ar tyčiotis prie asmens“.
  • „Smurtas: turinys, kuriuo skatinamas arba šlovinamas smurtas arba švenčiama kitų kančia ar pažeminimas.
  • „Savęs žalojimas: turinys, skatinantis, skatinantis arba vaizduojantis savęs žalojimo veiksmus, pvz., savižudybę, pjaustymą ir valgymo sutrikimus.
  • „Suaugusiesiems: turinys, skirtas seksualiniam susijaudinimui sužadinti, pvz., seksualinės veiklos aprašymas, arba turinys, kuriame reklamuojamos seksualinės paslaugos (išskyrus seksualinį švietimą ir gerovę).
  • „Politinis: turinys, kuriuo bandoma paveikti politinį procesą arba būti naudojamas kampanijos tikslais.
  • „Kenkėjiška programa: turinys, kuriuo bandoma generuoti išpirkos reikalaujančias programas, klavišų registratorius, virusus ar kitą programinę įrangą, skirtą padaryti tam tikrą žalą.

Sąraše pateikiami potencialiai netinkamo turinio tipai, kurie gali atsirasti.

Kalbant apie politinę kategoriją, socialinėje žiniasklaidoje buvo paskelbti įvairūs generatyvių AI programų atvejai, kurie, atrodo, pateko į vieną politinę stovyklą prieš kitą.

Pavyzdžiui, vartotojas, uždavęs klausimą apie vieną politinį lyderį, gali gauti teigiamą ir optimistišką atsakymą, o uždavęs klausimą apie kitą politinį lyderį gali gauti niūrų ir visiškai niekinantį rašinį. Atrodytų, kad tai leidžia manyti, kad generatyvusis dirbtinis intelektas atitinka formuluotes, kurios teikia pirmenybę vienai pusei, o nepalankiai kitai. Šie atvejai paskatino generatyvaus AI raginimą, kuris, atrodo, yra nukreiptas ir gali būti priskirtas kaip:

  • Pažadino generatyvųjį AI
  • Anti-wake generatyvinis AI
  • Kraštutinių dešiniųjų generatyvinis AI
  • Kraštutinių kairiųjų generatyvinis AI
  • Ir tt

Kaip minėta anksčiau, tai nėra dėl AI jautrumo. Tai vėlgi susiję su modelių atitikimu ir kitais AI kūrimo aspektais.

Skirtingai nei klaidos, melas ir dirbtinio intelekto haliucinacijos, velnias slypi detalėse, kad išsiaiškintų, kaip AI struktūroje nepatekti į šališkumą arba kaip juos aptikti ir susidoroti su tokiais aspektais.

Panagrinėkime, kaip šališkumas atsiranda generatyviajame AI.

Šaltiniai ir metodai, lemiantys generatyvų AI šališkumą

Kai generatyvusis AI pirmą kartą buvo paskelbtas viešai, šališki aspektai ypač susilaukė ryškaus ekspertų ir žiniasklaidos dėmesio. Kaip pažymėta čia, dirbtinis intelektas dažnai buvo pašalintas iš viešo naudojimo. Be to, atnaujintos pastangos bandyti susidoroti su šališkumu įgavo papildomos traukos.

Kai kurie iš karto padarė prielaidą, kad paklaidos buvo įtrauktos dėl AI kūrėjų ir DI tyrėjų, kurie sukūrė DI, šališkumo. Kitaip tariant, dirbtinį intelektą kūrę žmonės leido savo asmeniniams šališkumui įsiskverbti į AI. Iš pradžių buvo manoma, kad tai yra sąmoningos pastangos nukreipti AI tam tikromis šališkomis pirmenybės kryptimis. Nors tai gali įvykti arba ne, kiti tada manė, kad šališkumas gali būti netyčia įlietas, o būtent AI kūrėjai ir AI tyrėjai naiviai nežinojo, kad jų pačių šališkumas įsiskverbia į AI kūrimą.

Tas pavienis ar vienmatis rūpesčio kelias kurį laiką dominavo dėme.

Aš ne kartą sakiau, kad iš tikrųjų yra daugybė šaltinių ir metodų, kurie gali sukelti šališkumą generuojančiam AI, kaip aptarta nuoroda čia. Tai neabejotinai daugialypė problema.

Aš tai iškeliu, nes mintis, kad kaltininkai yra tik AI kūrėjai ar tyrėjai, yra klaidinantis ir siauras požiūris į problemos visumą. Nesakau, kad jie nėra potencialus šaltinis, tiesiog pabrėžiu, kad jie nėra vienintelis potencialus šaltinis. Mes kartais pasigendame miško dėl medžių, tai darome griežtai nukreipdami žvilgsnį į konkretų medį.

Kaip plačiai aprašyta mano stulpeliuose, čia yra mano puikus išsamus šališkumo būdų sąrašas, kurį reikia išsamiai išnagrinėti naudojant bet kokį generatyvų AI diegimą:

  • Šaltinių duomenų iš interneto, kurie buvo naudojami generatyvinio AI duomenų mokymui, šališkumas
  • Generatyvinių AI algoritmų, naudojamų šaltinių duomenų modeliams suderinti, šališkumas
  • Bendro generatyvaus AI dizaino ir jo infrastruktūros paklaidos
  • AI kūrėjų šališkumas, numanomas arba tiesioginis formuojant generatyvųjį AI
  • AI testuotojų šališkumas, numanomas arba tiesioginis atliekant generatyvinio AI testavimą
  • Netiesiogiai arba tiesiogiai priskirti recenzentai, teikiantys mokymo gaires generuojamajam AI, RLHF šališkumo
  • Dirbtinio intelekto naudojimo palengvinimo šališkumas operatyviniam generatyvaus AI naudojimui
  • Nukrypimai nuo bet kokios sąrankos arba numatytosios instrukcijos, nustatytos generatyviniam AI kasdieniniam naudojimui
  • Šališkumas tikslingai arba netyčia įtrauktas į generatyvinio AI vartotojo įvestus raginimus
  • Sisteminės būklės paklaidos, palyginti su ad hoc atsiradimu, kaip generatyvinio AI atsitiktinės tikimybinės išvesties generavimo dalis
  • Paklaidos, atsirandančios dėl skrydžio metu arba realiuoju laiku atliekamų koregavimų arba duomenų lavinimo, kai generuojamasis AI aktyviai naudojamas
  • Paklaidos, įvestos arba išplėstos atliekant dirbtinio intelekto priežiūros arba generacinės AI programos ir jos šablono atitikimo kodavimo priežiūrą
  • kitas

Akimirką ar dvi apsvarstykite sąrašą.

Jei norite kažkaip panaikinti bet kokią AI kūrėjų ar AI tyrėjų įvestų šališkumo tikimybę, vis tiek susidursite su daugybe kitų priemonių, kurios neišvengiamai gali apimti šališkumą. Nepakanka sutelkti dėmesį tik į vieną ar net kelis galimus nuotėkius. Visi kiti keliai suteikia daugiau galimybių šališkumui įsilieti į vaizdą.

Atsikratyti generatyvaus AI šališkumo yra panašu į sudėtingą vingiuotą gambitą.

TiesaGPT ir šališkumo valdymo pasirinkimai

Mes apžvelgėme aspektą, kad dabar kovojama su klaidomis, melais ir AI haliucinacijomis, todėl galite tikėtis nuolatinio pranešimų apie AI pažangą, sprendžiančią šias problemas, antplūdžio.

Tas pats nėra taip paprasta dėl šališkumo.

Ką „TruthGPT“ gali padaryti ar būti sugalvota daryti dėl šališkumo?

Apsvarstykite tris galimas parinktis:

  • 1) Viskas vyksta. Sukurkite generatyvųjį dirbtinį intelektą, kad išvis išskleistų bet ką be jokio filtravimo, susieto su šališkumu. Tegul viskas sustoja.
  • 2) Leiskite „pageidaujamų“ paklaidų nustatymus. Sukurkite generatyvųjį DI, kad sukurtumėte paklaidas, kurios yra laikomos „pageidautinomis arba palankiomis“ pagal tuos, kurie kuria, kuria ar naudoja generatyvųjį AI.
  • 3) Neleidžiama jokių šališkumo. Sukurkite generatyvųjį dirbtinį intelektą, kad nebūtų leidžiami jokie paklaidai, kad bet kuriuo metu, naudojant bet kokius būdus, nebūtų jokių paklaidų, išreikštų nė vienoje išvestinėje esė.

Neabejotinai galite įsivaizduoti pasipiktinimą ir ginčus, susijusius su kiekviena iš aukščiau išvardytų variantų. Tikėtina, kad nė vienas iš variantų nebus visiškai patenkintas. Jie visi turi savo atitinkamus demonus ir spąstus.

Toliau kreipiuosi į tai.

Dėl Viskas eina generatyvaus AI variantas, paklaidos būtų nuolat priekyje ir centre. Visuomenės protesto ir paniekos verpetai būtų didžiuliai. Atrodo, kad tai sukeltų didžiulį spaudimą uždaryti generatyvųjį AI. Taip pat galite lengvai įsivaizduoti, kad reguliavimo institucijos ir įstatymų leidėjai bus paskatinti imtis veiksmų, siekiant sukurti naujus dirbtinio intelekto įstatymus, kad būtų užkirstas kelias tokio tipo generuojamajam AI.

Kalbant apie Leisti nustatymus generatyvaus AI variantas, manoma, kad kažkas turi nuspręsti, su kokiu šališkumu jis sutinka. Gali būti, kad AI kurianti įmonė nustato parametrus. Gali būti, kad generatyvųjį AI kurianti įmonė nustato parametrus. Kita idėja yra ta, kad kiekvienas vartotojas galėtų pasirinkti pageidaujamus šališkumo rinkinius. Kai pirmą kartą naudojate tokį generatyvųjį AI, jums gali būti pateiktos parinktys arba galite pateikti savo nuostatas į AI programą sąrankos metu.

Pastarasis požiūris gali atrodyti taip, lyg jis būtų malonus visiems. Kiekvienas žmogus gautų bet kokį šališkumą, kurį norėtų matyti. Byla baigta. Žinoma, vargu ar tai bus taip sveikintina. Nuomonė, kad žmonės gali pasinerti į šališkumą ir naudoti generatyvųjį AI kaip savotišką tų šališkumo aido kamerą, tikrai sukels visuomenės nerimą.

Galiausiai, pavyzdžiui, Nėra šališkumo variantas, tai skamba gerai, bet kelia daugybę susijusių problemų. Iš naujo išnagrinėkime generatyvaus AI aplinkybę, kuri pateikia esė, kurioje teigiamos pastabos apie konkretų politinį lyderį. Gali būti, kad kai kurie mano, kad tai tikra esė ir nėra šališkumo. Kita vertus, gali būti ir kitų, kurie tvirtina, kad tai yra šališkas rašinys, nes joje nepagrįstai išryškinami teigiami aspektai arba nesuteikiama atsveriančių neigiamų dalykų, kad būtų pateikta subalansuota perspektyva. Tai iliustruoja šališkumo mįslę.

Matote, su klaidomis, tokiomis kaip du plius du, lygios keturioms ar penkioms, galima susidoroti gana aiškiai. Melagingus faktus, tokius kaip neteisingi prezidento gimimo metai, išaiškinti gana paprasta. Taip pat gana akivaizdžiai susiduriama su DI haliucinacijomis, tokiomis kaip reaktyvinis lėktuvas 1800-aisiais.

Kaip turėtų būti sukurtas generatyvusis AI, kad būtų galima kovoti su šališkumu?

Protą verčiantis klausimas, tikrai.

TruthGPT dėl jo galimybių ir tikrovės

Pažaiskime žaidimą.

Tarkime, kad „TruthGPT“ siekiama sukurti generatyvųjį AI, kuris tikriausiai neturės jokių šališkumo. Jame visiškai ir neabejotinai nėra šališkumo. Be to, nesvarbu, ką vartotojas daro, pavyzdžiui, įveda šališkus teiginius ar bando nukreipti generatyvųjį AI kurti šališkus išvestinius rašinius, generatyvusis AI to nepadarys.

Be to, galite beveik akimirksniu susimąstyti, kaip tokio tipo generatyvinis AI spręs istorinio pobūdžio klausimus. Įsivaizduokite, kad kažkas klausia politinio šališkumo temos. Ar tai patenka į „šališkumo“ skėtį, todėl generatyvusis AI parodytų, kad jis neatsakys į užklausą? Kiek toli nueina ši triušio duobė?

Bet kokiu atveju, jei manysime, kad „TruthGPT“ bus „TruthGPT“. Nėra šališkumo generatyvaus AI variantas, turime atsižvelgti į šiuos rezultatus:

  • Neįmanomas
  • Galimas
  • kitas

Rezultatus sudaro arba tai, kad neįmanomas tikslo ir nebus pasiektas. Arba tikslas yra galimas bet gali turėti blaivių raukšlių. Taip pat įtraukiau an kitas rezultatas, kad būtų galima įtraukti kai kuriuos tarpinius elementus.

Pirmiausia pakalbėkime apie neįmanomumą. Jei darbas ar projektas neįmanomas, galite būti linkę raginti to nemėginti. Nėra prasmės siekti to, kas neįmanoma. Na, dar šiek tiek pagalvojus, kad neįmanoma, iš tikrųjų yra susijęs su sidabriniu pamušalu. Leiskite man paaiškinti.

Štai galimos priežastys, dėl kurių TruthGPT gali būti neįmanoma įgyvendinti, bet vis tiek verta imtis:

  • 1) Neįmanoma, nes misija ar vizija niekada negali būti įvykdyta
  • 2) Neįmanoma, bet vis tiek verta tai padaryti dėl galimos papildomos naudos, susijusios su reikšmingu indėliu į AI tobulinimą.
  • 3) Neįmanoma, nors gali pasitarnauti kaip dėmesio pritraukianti dovana už tai, kad bandėte
  • 4) Neįmanoma ir pakeis jų melodiją ir sukels arba suklaidins pradinį numatytą tikslą
  • 5) Neįmanoma, tačiau pritrauks geriausius AI talentus ir padės sumažinti konkurenciją
  • 6) Kiti

Taip pat galime manyti, kad tai yra keletas „TruthGPT“ aspektų, leidžiančių pasiekti arba įmanomą pasiekti rezultatą:

  • 1) Galimas ir laiku bei nenuginčijamai sėkmingas pasiekimas
  • 2) Galima, bet užtruks daug ilgiau ir kainuos daug brangiau, nei tikėtasi
  • 3) Gali būti, kad rezultatas bus gerokai mažesnis už numatytą tikslą
  • 4) Galimas, tačiau pavėluotai ir gėdingai užtemdytas kitų generatyvių DI, darančių tai taip pat
  • 5) Galimas bet vidinis chaosas ir vadovavimo sunkumai viską paverčia negražiu ir nepadoru
  • 6) Kiti

Norėdami užbaigti sąrašą, pateikiame keletą kitų svarstymų:

  • 1) Kitas dalykas yra tai, kad visa tai yra kalbos ir jokie veiksmai, niekada nevyksta
  • 2) Kiti, pavyzdžiui, dirbtinio intelekto įstatymai, teisiniai ar visuomeninė AI etika, verčia pastangas.
  • 3) Kita gali būti tai, kad pastangas parduoda / perka kiti, norintys dirbtinio intelekto ar talento
  • 4) Kitas gali būti netikėtas bendradarbiavimo susitarimas, o ne atskiras
  • 5) Kiti pakaitos simboliai, įskaitant šokiruojančius atradimus ir padidina AI egzistencinę riziką
  • 6) Kiti

Dėl erdvės apribojimų čia nesigilinsiu į visų tų permutacijų specifiką. Jei skaitytojų susidomėjimas bus pakankamas, mielai apie tai papasakosiu išsamiau kitoje skiltyje.

Išvada

George'as Washingtonas tariamai pasakė: „Tiesa galiausiai nugalės ten, kur bus sunku ją iškelti į dienos šviesą“.

Šališkų AI aspektų sprendimas nėra tik technologinė problema, kuri išsprendžiama technologiniu pataisymu. Tikėtina, kad per generatyvųjį AI išryškėtų „tiesos“ jausmas yra daug įvairių. Galite tikėtis, kad dirbtinio intelekto etika ir AI įstatymas bus esminė dalis norint išsiaiškinti, kur visa tai veda.

Pasigirsta beldimas į kajutės duris.

Gali būti, kad už durų yra (pagal gandų malūną):

  • TiesaGPT
  • Sąžiningas GPT
  • Netiesa GPT
  • Nesąžiningas GPT
  • Supainiotas GPT
  • Suglumęs GPT
  • AtsitiktinisGPT
  • Ir tt

Buda gali pateikti tam tikrų įžvalgų šiuo klausimu: „Yra tik dvi klaidos, kurias galima padaryti kelyje į tiesą; nenueina iki galo ir nepradeda“. Sparčiai tobulėjant dirbtinio intelekto pastangoms, turėtume paklausti, ar darome tokias klaidas ir, jei taip, ką turėtume daryti.

Ir tai yra nuoširdi tiesa.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoiškai-tiesa-visais laikais-klausia-ai-etikos-ir-ai-įstatymo/