Ar tų generatyvių AI ChatGPT klaidingų ir haliucinacinių išvesčių atskleidimas ir registravimas duoda ką nors gero, klausia AI etikos ir AI įstatymo

Jūs esate paslaptyje.

Taip, kažkas paslapčia vyksta užkulisiuose apie naujausius AI, apie kuriuos galbūt norėsite sužinoti.

Šiandienos stulpelyje aš išnagrinėsiu pastarojo meto postūmį rinkti tariamas klaidas ir kitas ligas, susijusias su išvestais rašiniais iš AI programos, žinomos kaip ChatGPT. Ši programa naudoja AI tipą, vadinamą Generatyvinis AI. Tikriausiai girdėjote ar matėte akį traukiančias antraštes apie generatyvinį AI ir „ChatGPT“. Žinia apie šią konkrečią AI programą ir iš pažiūros stebinančias galimybes, susijusias su šio tipo AI.

Netrukus papasakosiu, kad kai kurie tvirtai tiki, kad turime sudaryti sąrašą, kokių klaidų ar klaidų gali sukelti AI programa, kai ji jums sukuria esė. Kiti teigia, kad nors tokio sąrašo idėja yra žavinga, tai yra beprasmiškumo pratimas ir duos labai mažai vaisių.

Išnagrinėsime abi tos įnirtingos diskusijos puses.

Pirmiausia įsitikinkime, kad visi esame tame pačiame puslapyje apie tai, iš ko susideda „Generative AI“ ir kas yra „ChatGPT“.

„ChatGPT“ yra bendrosios paskirties dirbtinio intelekto interaktyvi, į pokalbius orientuota sistema, iš esmės nekenksmingas bendrasis pokalbių robotas, tačiau žmonės jį aktyviai ir aktyviai naudoja būdais, kurie daugelį užklumpa visiškai nesaugiai. Viskas, ką jums reikia padaryti norint naudoti šio tipo AI, tai įvesti raginimą, o AI programa sugeneruos esė, kurioje bandoma atsakyti į jūsų raginimą.

Deja, tai gali būti naudojama šiek tiek neetiškais arba apgaulingais būdais. Ypač erzina tai, kad studentai gali naudoti generatyviniu pagrindu sukurtą AI programą, kad sukurtų jiems priskirtus rašinius, tiesiog įvesdami sakinį ar du, kad programa būtų nukreipta tinkama kryptimi. Kai kurie apgailestauja, kad tai reiškia, kad studentai pasirinks sukčiauti rašydami esė ne pamokose. Mokytojai bando išsiaiškinti, ką daryti, žiūrėkite mano analizę ir rekomendacijas adresu nuoroda čia.

Nepaisant nuolatinio pagirtinų „ChatGPT“ pagyrimų, yra mažiau žinomas susirūpinimas, kurį pirmiausia išreiškia AI saviškiai, kad yra keletas svarbių problemų ir nuoskaudų, dėl kurių žmonės turėtų nerimauti. Vienas esminių minusų yra tas, kad šios AI programos sukurtuose rašiniuose gali būti įterpta įvairių melagingų dalykų, įskaitant akivaizdžiai netikrus faktus, faktus, kurie yra klaidinančiai vaizduojami, ir akivaizdžius faktus, kurie yra visiškai išgalvoti. Tie sukurti aspektai dažnai vadinami forma AI haliucinacijos, frazė, kuri man nepatinka, bet, deja, vis tiek atrodo populiarėjanti (išsamų paaiškinimą, kodėl tai nešvanki ir netinkama terminologija, rasite mano straipsnyje nuoroda čia).

Norėčiau paaiškinti vieną svarbų aspektą prieš įsigilindamas į šią temą.

Socialinėje žiniasklaidoje pasigirdo keletas beprotiškų pretenzijų Generatyvinis AI tvirtina, kad ši naujausia AI versija iš tikrųjų yra jausmingas AI (ne, jie klysta!). DI etikos ir dirbtinio intelekto teisės specialistai yra ypač susirūpinę dėl šios klestinčios plataus masto pretenzijų tendencijos. Galite mandagiai pasakyti, kad kai kurie žmonės pervertina, ką iš tikrųjų gali padaryti šiandieninis AI. Jie daro prielaidą, kad AI turi galimybių, kurių mums dar nepavyko pasiekti. Gaila. Dar blogiau, jie gali leisti sau ir kitiems patekti į baisias situacijas, nes daro prielaidą, kad dirbtinis intelektas bus jautrus arba panašus į žmogų, kad galėtų imtis veiksmų.

Negalima antropomorfizuoti AI.

Taip darydami pateksite į klampius ir niūrius pasitikėjimo spąstus, nes tikitės, kad dirbtinis intelektas padarys tai, ko jis negali atlikti. Atsižvelgiant į tai, naujausias generatyvinis AI yra gana įspūdingas tuo, ką jis gali padaryti. Tačiau atminkite, kad yra didelių apribojimų, kuriuos turėtumėte nuolat turėti omenyje, kai naudojate bet kokią generuojančią AI programą.

Jei jus domina sparčiai besiplečiantis šurmulys dėl „ChatGPT“ ir „Generative AI“, savo stulpelyje sukūriau tikslią seriją, kuri gali būti informatyvi. Jei kuri nors iš šių temų jums patiks, pažiūrėkite:

  • 1) Artėjančio generatyvaus AI pažangos prognozės. Jei norite sužinoti, kas 2023 m. ir vėliau atsiskleis apie AI, įskaitant būsimus generatyvaus AI ir ChatGPT pažangą, perskaitykite išsamų mano 2023 m. prognozių sąrašą adresu nuoroda čia.
  • 2) Generatyvūs AI ir psichikos sveikatos patarimai. Pasirinkau peržiūrėti, kaip generatyvusis AI ir ChatGPT naudojami patarimams psichikos sveikatos srityje, o tai yra varginanti tendencija, remiantis mano išsamia analize adresu nuoroda čia.
  • 3) Kontekstas ir generatyvus AI naudojimas. Taip pat atlikau sezoninio skonio liežuvio į skruostą tyrimą apie su Kalėdų Seneliu susijusį kontekstą, apimantį ChatGPT ir generatyvųjį AI nuoroda čia.
  • 4) Sukčiai, naudojantys generatyvųjį AI. Kalbant apie grėsmingą pastabą, kai kurie sukčiai išsiaiškino, kaip panaudoti generatyvųjį AI ir ChatGPT, kad padarytų neteisėtus veiksmus, įskaitant sukčių el. laiškų generavimą ir net kenkėjiškų programų programavimo kodo kūrimą, žr. mano analizę adresu nuoroda čia.
  • 5) Naujokų klaidos naudojant generatyvųjį AI. Daugelis žmonių ir peržengia, ir stebėtinai neįvertina, ką gali padaryti generatyvusis AI ir ChatGPT, todėl aš ypač atkreipiau dėmesį į tai, ką daro AI naujokai. Diskusiją žr. nuoroda čia.
  • 6) Susidoroti su generatyviais AI raginimais ir AI haliucinacijomis. Apibūdinu pažangiausią metodą, kaip naudoti AI priedus sprendžiant įvairias problemas, susijusias su bandymu įvesti tinkamus raginimus į generuojamąjį AI, be to, yra papildomų AI priedų, skirtų aptikti vadinamuosius AI haliucinuotus išėjimus ir melagingus dalykus, pvz. padengtas ties nuoroda čia.
  • 7) Bonehead teiginių apie generatyvių dirbtinio intelekto esė aptikimą paneigimas. Klaidingai kyla AI programų aukso karštligė, skelbianti, kad gali nustatyti, ar kuri nors esė buvo sukurta žmogaus, o ne dirbtinio intelekto. Apskritai tai yra klaidinanti, o kai kuriais atvejais tai yra beprotiškas ir nepagrįstas teiginys, žr. nuoroda čia.
  • 8) Vaidmenų žaidimas naudojant generatyvųjį AI gali parodyti psichikos sveikatos trūkumus. Kai kurie naudoja generatyvųjį AI, pvz., „ChatGPT“, kad galėtų žaisti vaidmenimis, kai AI programa reaguoja į žmogų taip, tarsi jis būtų fantazijų pasaulyje ar kitoje sugalvotoje aplinkoje. Tai gali turėti pasekmių psichinei sveikatai, žr nuoroda čia.

Dabar aptarkime generatyvaus dirbtinio intelekto ir „ChatGPT“ esmę, kad žinotumėte su tuo susijusius pagrindus. Tada būsime pasirengę pradėti tirti melagingų dalykų, kuriuos šios AI programos gali sukelti, analizę. Pateiksiu kelis ChatGPT naudojimo pavyzdžius, kurie padės apčiuopiamai suvokti tokio tipo generatyvaus AI prigimtį.

„Generative AI“ kirminų dėžutės atidarymas

Esame pasirengę pasinerti į kai kurias AI detales.

Jei jau gerai išmanote generatyvaus AI ir ChatGPT temą, galite trumpai peržvelgti mano mintis ir tęsti kitą šios diskusijos skyrių. Visiems kitiems, manau, jums gali būti naudingas šis paaiškinimas.

Trumpai tariant, generatyvusis AI yra tam tikras AI tipas, kuris kuria tekstą taip, lyg tekstas būtų parašytas žmogaus ranka ir protu. Viskas, ką jums reikia padaryti, tai įvesti raginimą, pvz., sakinį „Pasakyk man apie Abraomą Linkolną“, ir generatyvusis AI pateiks esė apie Linkolną. Tai paprastai klasifikuojama kaip generatyvus AI, kuris atlieka tekstas į tekstą arba kai kurie nori tai vadinti tekstas į esė išvestis. Galbūt girdėjote apie kitus generatyvaus AI būdus, tokius kaip tekstas į meną ir tekstas į vaizdo įrašą.

Pirmoji jūsų mintis gali būti, kad tai neatrodo toks didelis dalykas, kalbant apie esė rengimą. Galite lengvai atlikti internetinę paiešką internete ir lengvai rasti daugybę esė apie prezidentą Linkolną. Generatyvaus AI atveju svarbiausia yra tai, kad sukurta esė yra gana unikali ir pateikia originalią kompoziciją, o ne kopiją. Jei bandytumėte kur nors internete rasti dirbtinio intelekto sukurtą esė, vargu ar jį atrastumėte.

Generatyvusis AI yra iš anksto apmokytas ir naudoja sudėtingą matematinę ir skaičiavimo formulę, kuri buvo sukurta tiriant rašytinių žodžių ir istorijų šablonus visame žiniatinklyje. Išnagrinėjęs tūkstančius ir milijonus rašytinių ištraukų, dirbtinis intelektas gali išsprūsti naujų esė ir istorijų, kurios yra rasta netvarka. Pridėjus įvairių tikimybinių funkcijų, gautas tekstas yra gana unikalus, palyginti su tuo, kas buvo naudojama mokymo rinkinyje.

Štai kodėl kilo triukšmas dėl studentų, galinčių sukčiauti rašydami esė ne klasėje. Mokytojas negali apsiriboti rašiniu, kurį apgaulingi mokiniai tvirtina, kaip jų paties raštą, ir siekti išsiaiškinti, ar jis buvo nukopijuotas iš kokio nors kito internetinio šaltinio. Apskritai internete nebus jokio galutinio esė, kuris atitiktų AI sukurtą esė. Viską pasakius, mokytojas turės negailestingai susitaikyti su tuo, kad studentas rašinį parašė kaip originalų kūrinį.

Netrukus parodysiu jums, kas nutinka, kai į generuojamąjį AI įvedate klausimus ar raginimus. Naudosiu naujausią ChatGPT versiją, kad įvesčiau raginimus ir surinksiu AI sugeneruotus „atsakymus“ arba esė (atminkite, kad tą patį galima padaryti su daugybe kitų galimų generuojamųjų AI programų; aš pasirinkau naudoti „ChatGPT“, nes šiuo metu jis sulaukia penkių minučių šlovės).

Galbūt trumpa „ChatGPT“ liestinė gali būti naudinga šiuo atveju.

„ChatGPT“ programa buvo prieinama plačiajai visuomenei vos prieš kelis mėnesius. Apskritai šios generuojančios AI programos paprastai yra prieinamos tik AI savininkams. Neįprastas aspektas, kad „ChatGPT“ gali naudoti bet kas, tiesiog įvedęs el. pašto adresą ir vardą, na, todėl daugelis žmonių nusprendė tai išbandyti. Šiuo metu „ChatGPT“ galima nemokamai naudotis (pajamų gavimo problema yra gresianti DI kūrėjų dilema).

Beveik iš karto socialinėje žiniasklaidoje kilo didžiulė reakcija, nes žmonės stengėsi pateikti pavyzdžių, ką gali padaryti generatyvus AI. „ChatGPT“ gaminanti bendrovė „OpenAI“ nusprendė uždaryti milijono vartotojų registraciją. Šie milijonai vartotojų sugebėjo užburti eterį įvairiausiomis istorijomis ir pasakojimais apie ChatGPT naudojimą.

Būkite labai atsargūs, tikėdami tuo, ką žmonės turi pasakyti apie AI programą. Daugelis iš šių žmonių nežino, ką jie naudoja. Panašu, kad jie niekada nevairavo automobilio ir net nesuvokė, kad automobiliai egzistuoja, ir staiga jie turėjo galimybę vairuoti automobilį. Apima visiška nuostaba.

Nesakau, kad generatyvinis AI nėra palyginti įspūdingas. Tai yra. Aš tik pabrėžiu, kad daug teigiamų atsiliepimų daro daugelis žmonių, kurie palaimingai nežino, ką gali padaryti šiandieninis AI. Tie iš mūsų, kurie dirba dirbtinio intelekto viduje, pastaruosius kelerius metus naudojome generatyvųjį AI. Galbūt mes prie to pripratome. Staiga pamačius didžiulę žmonių simpatiją, reklamuojančią jį ant stogų, buvo sujaudinta energijos, bet ir šiek tiek nerimo. Nerimą kelia tai, kai žmonės skelbia, kad generatyvinis AI yra jautrus. Tai nėra. Neleiskite niekam jūsų įtikinti priešingai.

Nepaisant to, AI srityje tebevyksta karštos diskusijos dėl to, ar generatyvinis AI yra pakeliui į jausmingumą, ar galbūt ne. Viena nuomonė yra tokia, kad jei nuolat didinsime generatyvųjį DI naudodami greitesnius kompiuterius ir didesnį duomenų kiekį, pvz., išgrynindami kiekvieną interneto colį, beveik spontaniškai pasieksime jautrų AI. Kiti teigia, kad tai labai mažai tikėtina. Jie teigia, kad generatyvus AI gali būti vienas iš daugelio reikalingų komponentų. Egzistuoja dar niūresnis požiūris, kad generatyvusis AI yra šalutinis pasirodymas, atitraukiantis mūsų dėmesį nuo tikrų laimėjimų, kurių mums prireiks, kad pasiektume jautrų AI.

Taip pat galite pastebėti, kad AI viešai neatskleista informacija linkusi remtis Bendrasis dirbtinis intelektas (AGI) kaip siekiamąjį AI srities tikslą. Anksčiau tikslas buvo pasiekti Dirbtinis intelektas, tačiau dirbtinio intelekto pravardė susilpnėjo ir supainiojo. Kai kas nors sako, kad dirba dirbtinio intelekto darbą, jūs nežinote, ar jie užsimena apie šiandieninį AI, kuris neprilygsta žmonėms, ar kalba apie futuristinį žmogaus lygiavertiškumo DI. Norint išvengti šios erzinančios painiavos, šiomis dienomis naudojama naujesnė AGI frazė.

Apskritai, generatyvusis AI yra šiandien ne jautrus, nei AGI.

Atminkite, kad, kaip buvo aptarta anksčiau, AI nėra jautrus. AI sugeneruoti atsakymai yra matematinis ir skaičiavimas žodžių derinys į iš pažiūros sklandžias ištraukas. Tai pagrįsta AI algoritmu, kuris buvo apmokytas remiantis žmonių parašytų žodžių ir istorijų duomenų rinkiniais (daugiausia paskelbtais internete). Kartoju šį įspėjimą, nes neabejotinai pateksite į psichinius spąstus, kad šie atsakymai yra tokie sklandūs, kad dirbtinis intelektas turi būti jautrus. Taip nutinka daugumai žmonių. Kaip anksčiau ragino, atidėkite tą antropomorfizavimą. Visada atminkite, kad atsakymai yra pagrįsti didžiuliu žmonių raštu internete, todėl jie bus labai panašūs į žmogaus rašymą.

Dar kai ką reikia žinoti.

Generatyvusis dirbtinis intelektas, kuris yra treniruojamas internete nevaržomu būdu, bus linkęs į bet kokius tekstu pagrįstus atsakymus, matematiškai ir skaičiavimais sugalvoja įžeidžiamai miglotus dalykus, įskaitant atstumiančiai bjaurias formuluotes. Žiniatinklyje yra daug beprotiškų ir nešvarių dalykų.

Jūs tai matėte, žinote, ką aš turiu galvoje.

Įmonės, kuriančios šias dirbtinio intelekto programas, nerimauja, kad patarlė kūdikis bus išmestas su vandeniu (senas posakis, galbūt bus išėjęs į pensiją), o tai reiškia, kad jei jų dirbtinis intelektas sukurs įžeidžiančius rašinius ar istorijas, žmonės ims ginkluotis. apie AI. Aptariau daugybę ankstesnių atvejų, kai buvo pristatytos tokios natūralios kalbos apdorojimo (NLP) AI programos, ir netrukus iš jų pasirodė visokių siaubingų dalykų (šiuos atvejus aprašiau savo stulpelyje). Daugelis dirbtinio intelekto kūrėjų išmoko sunkią pamoką, kaip leisti nevaržomai dirbtinio intelekto gaminių.

„ChatGPT“ atveju dirbtinio intelekto kūrėjai siekė įdiegti tam tikrus algoritminius ir su duomenimis susijusius patikrinimus ir balansus, kad sumažintų AI išvesties bjaurumą. Dalis to įvyko treniruočių metu. Be to, yra ir kitų priemonių realiuoju laiku bandant išvengti ypač baisių rezultatų.

Galbūt jus domina tai, kad kai kurie žmonės, kurie naudojo ChatGPT, jau sugalvojo slaptų būdų, kaip apeiti tuos apsauginius turėklus, pasinaudodami įvairiomis gudrybėmis. Šiuose reikaluose vyksta nuolatinis katės ir pelės gambitas. Tie, kurie daro šias gudrybes, kartais tai daro norėdami pasilinksminti, o kartais (bent jau tvirtina) taip elgiasi norėdami pamatyti, kiek galima ištempti dirbtinį intelektą ir suteikti naudingą priemonę įspėti apie šių jaunuolių trapumą ir silpnybes. AI programos.

Nusprendžiau nebandyti apeiti įprastų šio sutelkto tyrinėjimo kontrolės priemonių. Teksto išvestis yra švari. Žinoma, jei kas nors to norėtų, neabejotinai būtų galima sukurti keistų ir nemalonių rašinių.

Daugumos šių generuojamųjų AI programų parengtos esė yra skirtos perteikti rezultatus taip, tarsi jie būtų tik faktiniai ir tikslūs. Kai skaitote parengtus rašinius, jie atrodo visiškai pasitikintys savimi. Paprastai nėra jokių požymių, kad turinys gali būti sudėtingas. Tai yra AI kūrėjų pasirinkimas, ty jie galėtų peržiūrėti AI programas, kad jos būtų skaidresnės, jei norėtų, kad AI programa tai padarytų.

Kartais generatyvioji dirbtinio intelekto programa atskleidžia melagingus duomenis, gautus iš nepatikimos informacijos internete. Generatyviame AI nėra „sveiko proto“, kad būtų galima nustatyti, kas tiesa, o kas klaidinga. Be to, labai nedaugelis AI programų turi kryžminį patikrinimą ir nerodo jokių tikimybių, susijusių su tuo, ką jos perduoda.

Galutinis rezultatas yra tas, kad jūs gaunate atsakymą, kuris atrodo ir jaučiasi taip, tarsi jis dvelkia dideliu užtikrintumu ir turi būti visiškai teisingas. Ne taip. Netgi yra tikimybė, kad dirbtinio intelekto skaičiavimo būdu sukurti dalykai, kurie AI kalba vadinami AI haliucinacijos (sugalvotas terminas, kuris man tikrai nepatinka), žr. mano diskusiją adresu nuoroda čia.

„ChatGPT“ kūrėjai dėjo bendras pastangas, kad sumažintų blogų dalykų skaičių. Pavyzdžiui, jie naudojo variantą, kuris yra žinomas kaip RLHF (Inforcement Learning from Human Feedback), pagal kurią, prieš išleisdami dirbtinį intelektą visuomenei, jie pasamdė žmones, kad šie ištirtų įvairius rezultatus ir nurodytų dirbtiniam intelektui, ar su tais rezultatais nėra nieko blogo, pavyzdžiui, galbūt demonstravo šališkumą, nešvankius žodžius ir Kaip. Pateikdama šį grįžtamąjį ryšį, AI programa sugebėjo skaičiuoti ir matematiškai koreguoti, kad sumažintų tokio turinio sklaidą. Atminkite, kad tai nėra garantuotas metodas ir vis dar yra būdų, kaip AI programa gali skleisti tokį turinį.

Galbūt jus domina tai, kad „ChatGPT“ yra pagrįstas pirmtakės AI programos, žinomos kaip GPT-3, versija. „ChatGPT“ laikomas šiek tiek kitu žingsniu, vadinamu GPT-3.5. Tikimasi, kad GPT-4 greičiausiai bus išleistas 2023 m. pavasarį. Tikėtina, kad GPT-4 bus įspūdingas žingsnis į priekį, nes bus galima kurti, atrodo, dar sklandesnius rašinius, gilintis ir žavėtis. - įkvepiantis stebuklas dėl kompozicijų, kurias jis gali sukurti.

Kai ateis pavasaris ir bus išleista naujausia generatyvaus AI versija, galite tikėtis naujo nuostabaus susidomėjimo.

Pateikiu tai, nes reikia nepamiršti ir kito kampo, kurį sudaro potencialus Achilo kulnas, susijęs su šiomis geresnėmis ir didesnėmis generuojamomis AI programomis. Jei kuris nors dirbtinio intelekto pardavėjas pateiks generatyvią AI programą, kuri putojančiu būdu išskleidė nešvarumus, tai gali sužlugdyti tų AI kūrėjų viltis. Visuomenės plitimas gali sukelti visų generuojamųjų AI rimtą juodą akis. Žmonės neabejotinai labai nusimins dėl nešvarumų, kurie jau buvo daug kartų nutikę ir sukėlė audringą visuomenės pasmerkimą dirbtinio intelekto atžvilgiu.

Kol kas vienas paskutinis įspėjimas.

Kad ir ką pamatytumėte ar skaitytumėte generatyviame AI atsakyme, kad atrodo Jei norite, kad tai būtų tik faktinė informacija (datos, vietos, žmonės ir kt.), būkite skeptiški ir būkite pasirengę dar kartą patikrinti, ką matote.

Taip, datas galima sugalvoti, vietas galima sugalvoti, o elementai, kurių paprastai tikimės nepriekaištingi, yra visi kyla įtarimų. Netikėkite tuo, ką skaitote, ir stebėkite bet kokius generatyvius AI esė ar rezultatus skeptiškai. Jei generatyvioji dirbtinio intelekto programa jums pasakytų, kad Abrahamas Linkolnas savo privačiu lėktuvu skrido aplink šalį, jūs neabejotinai žinotumėte, kad tai yra apgaulė. Deja, kai kurie žmonės gali nepastebėti, kad jo laikais lėktuvų nebuvo šalia, arba gali žinoti, bet nepastebėti, kad esė pateikia šį drąsų ir nepaprastai klaidingą teiginį.

Didelė sveiko skepticizmo dozė ir nuolatinis netikėjimas bus geriausias jūsų turtas naudojant generatyvųjį AI.

Esame pasirengę pereiti į kitą šio išaiškinimo etapą.

Tos pastangos užregistruoti tas „ChatGPT“ išvestas klaidas

„Na, tu turi bėdų, mano drauge, čia, sakau, bėdos čia, River Sityje“, – taip skelbia garsioji klasikinio Brodvėjaus miuziklo eilutė. Muzika Vyras.

Ta pati linija gali būti taikoma ir šiandieniniam „Generative AI“.

Žmonės pradėjo suprasti, kad generatyvioji AI programa gali sukelti melą, ir tikrai atrodė nustebinti dėl tų nerimą keliančių rezultatų. Galbūt kai kurie manė, kad AI negali daryti klaidų. Kiti galėjo tikėtis, kad AI kūrėjai užtikrins, kad tokie išėjimai nebus generuojami.

Bet kokiu atveju, AI žmonės iš karto suprato, kad tokio tipo klaidinga išvestis yra neatsiejama dalis to, kur yra dauguma šiuolaikinių generuojamųjų AI. Labai sunku užkirsti kelią tokioms teksto klaidoms. Turėkite omenyje, kad dirbtinis intelektas neturi sveiko proto ir nenaudoja logikos per se, kurdamas sukurtus rašinius. Visas rinkinys yra skirtas skaičiavimo statistiniam ir tikimybiniam žodžių derinimui su kitais žodžiais.

Iš pradžių AI viešai neatskleista informacija nusprendė paskelbti tuos keistus ChatGPT rezultatus socialinės žiniasklaidos svetainėse. Pažvelk į tai, kas nors paskelbtų. Tai blogai, kažkas atsakytų ir tada pateiktų kitokį pavyzdį, kuris atrodė dar blogesnis. Tai tęsėsi ir tęsėsi.

Šie melagingų ir klaidų pavyzdžiai išspausdintose esė sklido. Vienas po kito. Be to, kadangi tai dažniausiai buvo skelbiama socialinėje žiniasklaidoje, nebuvo itin lengva juos visus pamatyti iš karto. Dažnai tą patį ar panašų pavyzdį paskelbdavo kažkas, kuris nesuvokė, kad kiti jau rado konkretų atvejį.

Į šią besiformuojančią pelkę pateko tie, kurie išsakė naudingą pasiūlymą. Galbūt turėtume sukurti saugyklą ar duomenų bazę, galbūt net tik kasdienę įprastą skaičiuoklę, kurioje būtų ChatGPT keista ir atrandami klaidingi išėjimai. Kiekvieną kartą, kai kas nors randa grožį, eikite į priekį ir įtraukite jį į sąrašą. Kai kurie tai pavertė beveik žaidimu, kuriame jie sąmoningai bando priversti ChatGPT atkosėti keistus rezultatus. Kiti, naudodami „ChatGPT“ kitiems apibrėžtiems tikslams, tikriausiai susiduria su klaidingais išėjimais.

Skamba pakankamai paprastai.

Atrodo, patogus būdas mums visiems padėti.

Trumpai apžvelgsime, kodėl labai prasminga sudaryti tokio tipo sąrašus apie pastebėtas ChatGPT išvesties klaidas ar melą:

  • 1) atskleidžia esmines problemas ir susirūpinimą dėl ChatGPT, apie kurias turėtų žinoti visa visuomenė
  • 2) Padeda atsverti pernelyg didelį ažiotažą ir išpūstus lūkesčius dėl ChatGPT
  • 3) Gali paskatinti AI kūrėjus tobulinti ne tik ChatGPT, bet ir kitas generuojančias AI programas.
  • 4) Naudoti kaip istorinį įrašą, kurį vėliau bus galima panaudoti, kad būtų galima apmąstyti generatyvaus AI atsiradimą, kaip pavyzdį rodo ChatGPT
  • 5) Būkite patogus kolektyvinis šaltinis visiems, kuriems reikia išsiaiškinti, ką, atrodo, aptikome dėl klaidingų ChatGPT išėjimų
  • 6) Naudinga visų disciplinų tyrinėtojams, kurie tiria ChatGPT poveikį
  • 7) Gali būti naudojamas kaip etalonas, ko nedaryti ir kaip įvertinti, kada generatyvusis AI neveikia taip, kaip turėtų
  • 8) Įsijungia į avilio mintis, kad sukauptų minios išmintį apie ChatGPT daromas klaidas, kurias vargu ar pavyktų surinkti individualiomis pastangomis.
  • 9) Gali būti svarbios informacijos apie AI etiką ir AI įstatymus
  • Ir tt

Atrodo, kad tai yra įspūdingas pagrindas kuriant šias saugyklas.

Kodėl kas nors nesutiktų su šiuo visiškai pagirtinu ir, atrodo, didvyrišku poelgiu?

Pažiūrėkime, ką apie tai pasakė kiti, pateikdami sąrašą priežasčių, kodėl tai gali būti ne katės miaukimas:

  • 1) Šios atsitiktinai aptiktos išvestinės klaidos yra nereikšmingos didžiojoje dalykų schemoje ir joms suteikiamas pernelyg didelis svoris, viršijantis jų vertę
  • 2) Tikėtina, kad dirbtinio intelekto kūrėjas jau užsiima registravimu ir atnaujina ChatGPT taip, kad šie keistieji atvejai greitai bus palikti dulkėse ir nebepasikartos.
  • 3) Be to, kita versija tikriausiai bus geresnė ir joje nebebus rodomi šie greitai pasenę egzemplioriai.
  • 4) Negalite padaryti jokių visapusiškų išvadų ar gauti įžvalgų iš atsitiktinio „pataikyti arba nepataikyti“ pažeidimo atvejų rinkinio
  • 5) Kai kurie gali panaudoti įvairias kolekcijas, norėdami dramatiškai pareikšti, kad generatyvinis AI yra blogas ir kad turėtume visiškai nutraukti bet kokį tokio tipo AI siekimą.
  • 6) Greitis, kuriuo generatyvusis AI ir ChatGPT žengia į priekį, yra toks greitas, kad šie atvejai greitai išnyks ir nebebus svarbūs
  • 7) Kadangi rengiama daug tokių kolektyvinių sąrašų ir nėra vieno patepto pasaulinio šaltinio, reikalas yra nesusijęs ir gali būti pasikartojimų ir nepagrįstai suskaidytas.
  • 8) Suteikia klaidingą jausmą, kad darai ką nors naudingo, o galbūt laiką ir dėmesį būtų galima skirti kitiems geresniems tikslams
  • 9) nepateikia nieko esminio AI etikai ir AI įstatymui
  • Ir tt

Galbūt pastebėjote, kad stengiausi išlaikyti reikalus tolygioje pozicijoje, pažymėdamas devynias priežastis, palankias kolektyviniams sąrašams, ir devynias priežastis, dėl kurių aš nepritariau. Galima nurodyti papildomų priežasčių, bet manau, kad aukščiau pateikta nuoroda suteikia dalykų esmę.

Tiems, kurie sudaro šiuos kolektyvinius sąrašus, jie tikriausiai pasakytų, kad jei jie iš tikrųjų nori tai padaryti, tai yra laisvas pasaulis ir jie gali daryti, ką nori. Nieko blogo. Tie, kurie nepritaria pastangoms, paprastai yra smulkmeniški ir turėtų tiesiog nekreipti dėmesio į kolekcijas. Rūpinkis savo reikalais.

Iš esmės jokios žalos, jokios pražangos.

Stovykla, kuri, atrodo, nepalanki kolektyviniams sąrašams, paprastai pripažintų, kad kiti gali sudaryti tuos sąrašus, jei nori tai padaryti, bet tai nepajudina adatos. Sąrašai nebus ypač naudingi. Dar blogiau, kad sąrašai gali būti neteisingai pateikti arba netinkamai naudojami. Tikriausiai geriausia paskambinti dienai ir nebedaryti sąrašų.

Iš esmės tai puikus bandymas, nors ir beprasmiškumo pratimas.

Kur gyvenate šioje nuoširdžioje diskusijoje?

Leisiu tau tai pasvarstyti.

Rasta klaidų ir kitų netinkamų ChatGPT išėjimų pavyzdžiai

Maniau, kad jus gali sudominti kai kurios nustatytos išvestinės klaidos ar melagingos žinios, kurios buvo pateiktos šiuose rinkinių sąrašuose.

Nenoriu, kad manytumėte, kad keli čia rodomi atvejai yra visos kolekcijos. Tai nėra. Aš tik renkuosi saują, kuri dažnai pasirodo. Tikiu, kad bent jau bendrai suprasite to, kas išvardinta, toną ir pobūdį.

Štai ką renkuosi padengti:

  • Raidžių padėties nustatymas žodyje
  • Klausimas apie greičiausią gyvūną
  • Žodžių sekos padėties išsiaiškinimas
  • Teniso kamuoliukų įdėjimas į vamzdelį
  • Pi nustatymas
  • Atsakymas į klasikinę nerimą keliančią mįslę
  • Pakeliamos plunksnos

Tikiuosi, kad kai kurie kolekcijų prižiūrėtojai nusimins, kad nepateikiu jums daugiau pavyzdžių. Dėl vietos apribojimų jų yra tik tiek, kad galiu aprėpti. Jei norite pažvelgti į kolekcijų sąrašus, kurie yra atvirai paskelbti internete, paprasta internetinė paieška gali atskleisti daugybę jų. Kai kurie sąrašai laikomi privatūs arba užrakinti taip, kad sąrašą būtų galima matyti, bet jo keisti negalite.

Atsižvelgdami į tai, esame pasirengę pereiti prie kai kurių pavyzdžių. Parodysiu jums įvestą raginimą. Toliau parodysiu „ChatGPT“ sukurtą tekstinį atsakymą. Kai kuriais atvejais aš padariau keletą konkrečių temų, todėl atitinkamai parodysiu raginimų ir išvesties serijas. Tai padaręs pateiksiu trumpą analizę, ką galbūt norėsite pastebėti pavyzdyje.

Pirmajame pavyzdyje bus prašoma ChatGPT rasti raidę pateiktame žodyje.

Raidžių padėties nustatymas žodyje

  • Mano įvestas tekstas: „Kur aplinkoje yra raidė V“
  • Tekstinis atsakymas, sukurtas ChatGPT: Raidė „V“ žodyje „aplinka“ nėra. Žodis „aplinka“ sudarytas iš raidžių e, n, v, i, r, o, n, m, e, n ir t.
  • Mano įvestas tekstas: „Kur aplinkoje yra raidė v“
  • Tekstinis atsakymas, sukurtas ChatGPT: „Raidė „v“ yra 4-oji žodžio „aplinka“ raidė.

Sukurto teksto analizė

Atkreipkite dėmesį, kad aš pradėjau paprašydamas ChatGPT nustatyti raidės „V“ raidės vietą žodyje „aplinka“ – tai turėtų būti labai paprasta užduotis ir mes tikimės, kad ji bus atlikta nepriekaištingai. Joks raketų mokslas nedalyvauja.

Pradinis „ChatGPT“ sugeneruotas atsakymas šiek tiek glumina, nes esame informuoti, kad žodyje „aplinka“ nėra raidės „V“. Jūs ir aš žinome, kad yra toks laiškas. Manoma, kad galbūt dėl ​​to, kad naudojau didžiąją raidę, AI programa kažkaip buvo išmesta. Galbūt, jei naudosiu mažąsias raides, AI programa veiks geriau.

Ne visai.

Kai paklausiau, ar žodyje yra „v“, AI programa atsakė nurodydama, kad tai yra ketvirtoji raidė, kuri, jūs ir aš, žinome, yra neteisinga, o vietoj jos yra trečioji raidė.

Daugelis žmonių bus suglumę dėl šio rezultato. Kaip AI programa, kurianti visapusiškas esė apie Abraomą Linkolną, kurios yra visiškai sklandžios ir originalios, kažkaip negali suprasti, kur tam tikrame žodyje yra tam tikra raidė? Tai stulbina, o burna žiojėja be galo keista.

Viena iš perspektyvų yra ta, kad tai yra visiškai nereikšminga, o pasaulis, kaip mes žinome, nėra sukrėstas iš esmės dėl to, kad menkai nesuvokiama, kur yra konkreti raidė. Paleisk.

Kita perspektyva yra ta, kad tai gali reikšti kitas paslėptas problemas, apie kurias dar nežinome. Galbūt tokia produkcija yra kanarėlė paukščių narve. Geriau išspręskime smulkmenas, nes kitu atveju galime atsidurti neteisingame tikrai didelių dalykų gale.

Toliau užduodu klausimą apie gyvūnus.

Klausimas apie greičiausią gyvūną

  • Mano įvestas tekstas: „Koks greičiausias gyvūnas turi kailį ir sparnus?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Sakalas laikomas greičiausiu gyvūnu pasaulyje. Nardydamas sugauti grobį, jis gali pasiekti didesnį nei 389 km/h (242 mylių per valandą) greitį. Turi plunksnų, bet neturi kailio. Tai paukštis, o ne gyvūnas, turintis kailį ir sparnus.

Sukurto teksto analizė

Paklausiau, koks greičiausias gyvūnas turi kailį ir sparnus. Manau, kad galima pagrįstai daryti išvadą, kad norėjau pavadinti gyvūną, kuris turėtų abu kailius ir sparnai. Manau, kad jūs mano užklausą interpretuotumėte taip. Dauguma žmonių norėtų.

„ChatGPT“ atsakymas yra šiek tiek keistas.

Mums sakoma, kad sakalas yra greičiausias gyvūnas pasaulyje. Pagal internete Enciklopedija Britannica, atrodo, kad gepardas yra greičiausias gyvūnas pasaulyje. Be to, ChatGPT atsakymas rodo, kad sakalas nėra gyvūnas, nors aš paklausiau, koks yra greičiausias gyvūnas. ChatGPT atsakyme taip pat sakoma, kad sakalas neturi kailio, nors manau, kad paprašiau kažko, kas turėtų ir kailį, ir sparnus.

Apskritai, atrodo, kad ChatGPT „neteisingai suprato“ mano prašymą ir sutelkė dėmesį tik į sparno aspektus. Tačiau tai ne visai tiesa, nes atsakyme taip pat buvo komentaras apie kailius ir paukščius, palyginti su gyvūnais. Šis eina ratu ir ratu.

Suprantu, kad galite ginčytis, kad tai yra išrankus pavyzdys.

Galbūt taip, nors galbūt tai taip pat parodo, kad tai, ką sakote ragindami, gali duoti nepaprastą rezultatą, todėl geriau būkite atsargūs peržiūrėdami, kas išeina. Supraskite, kad tai buvo nepaprastai trumpas esė atsakymas, kurį reikia lengvai patikrinti, nes jis labai trumpas. Jei gausite ypač ilgą ir labai techninį rašinį, galite apsigauti arba visiškai nepastebėti neigiamos indikacijos, giliai įterptos į išvestą atsakymą.

Toliau pažiūrėkime, kaip rasti žodį sakinyje.

Žodžių sekos padėties išsiaiškinimas

  • Mano įvestas tekstas: „Koks yra trečias žodis sakinyje „Lapė peršoko per tvorą“.
  • Tekstinis atsakymas, sukurtas ChatGPT: „Trečias žodis sakinyje „Lapė peršoko per tvorą“. yra "lapė"
  • Mano įvestas tekstas: "Kiek žodžių yra pateiktame sakinyje?"
  • Tekstinis atsakymas, sukurtas ChatGPT: „Pateiktame sakinyje yra šeši žodžiai „Lapė peršoko per tvorą“.
  • Mano įvestas tekstas: – Kuris žodis yra trečias tame sakinyje?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Trečias žodis sakinyje „Lapė peršoko per tvorą“. yra "peršokęs"

Sukurto teksto analizė

Šis pavyzdys yra beveik toks pat viliojantis kaip ir ankstesnis pavyzdys, kaip rasti raidę „v“ tam tikrame žodyje.

Pateikiau paprastą sakinį ir paklausiau, koks yra trečiasis žodis. ChatGPT nurodė, kad tai žodis „lapė“, kuris yra tik antrasis sakinio žodis. Atsakymas neteisingas. Tada paklausiau, kiek žodžių yra sakinyje, norėdamas sužinoti, ar galbūt ChatGPT neteisingai suskaičiavo, kiek žodžių yra. Mums sakoma, kad yra šeši žodžiai, teisingai.

Galiausiai apie trečiąjį žodį gavome teisingą atsakymą, kai dar kartą uždaviau savo pradinį klausimą, nors ir šiek tiek pakeistą.

Pateikiu šį pavyzdį, norėdamas iliustruoti, kad kartais naudojant generatyvųjį AI galite gauti neteisingą atsakymą, kuris galiausiai gali virsti teisingu atsakymu, naudojant AI programą per eilę raginimų. Kai kurie AI saviškiai tai vadina savotišku mąstymo garsiai protokolas arba minčių traukinys požiūris, kai ką nors panašaus galite padaryti su žmogumi.

AI atveju supraskite, kad tai nėra „mąstymas“ taip pat, kaip žmogaus mintis. Tinkamesnė frazė būtų sakyti, kad raginimus galite įvesti a žingsnis po žingsnio pagrindu arba padaryti a grandinėmis susietos raginimų serijos.

Bet kokiu atveju, įdomu, kad kartais apsimoka naudotis generatyvia AI programa, kol gausite tinkamą atsakymą. Turėkite tai omenyje.

Toliau pažvelgsime į paprastą aritmetinę logiką.

Teniso kamuoliukų įdėjimas į vamzdelį

  • Mano įvestas tekstas: „Ar galite įdėti tris žalius teniso kamuoliukus ir du geltonus teniso kamuoliukus į vamzdelį, kuriame gali būti keturi teniso kamuoliukai?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Ne, į vamzdelį, kuriame telpa tik keturi teniso kamuoliukai, negalima įdėti trijų žalių teniso kamuoliukų ir dviejų geltonų teniso kamuoliukų. Bendras teniso kamuoliukų skaičius yra penki, o tai yra daugiau nei vamzdžio talpa.
  • Mano įvestas tekstas: „Ar galite įdėti septynis mėlynus ir du raudonus rutulius į vamzdelį, kuriame yra aštuoni rutuliai?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Taip, į vamzdelį, kuriame telpa aštuoni rutuliai, galima įdėti septynis mėlynus ir du raudonus kamuoliukus. Bendras kamuoliukų skaičius yra devyni, o tai yra mažesnis arba lygus vamzdžio talpai.

Sukurto teksto analizė

Pradėjau nustatydamas į aritmetiką orientuotą logikos užduotį, skirtą ChatGPT išspręsti. Vamzdelyje gali būti keturi teniso kamuoliukai. Turiu tris žalias ir dvi geltonas. Ar jie visi tilps į vamzdelį? Jūs ir aš žinome, kad jie to nedarytų. Galvoje galime paskaičiuoti, kad teniso kamuoliukų iš viso yra penki, todėl jie netilps į vamzdelį, kuriame telpa tik keturi.

Suprantu, kad galbūt norėsite kovoti su problema ir teigti, kad galbūt galėtumėte numušti teniso kamuoliukus ar padaryti kitokių gudrybių. Atsipalaiduokime ir susidurkime su problema tokia, kokia ji yra.

„ChatGPT“ gavo teisingą atsakymą.

Toliau uždaviau to paties tipo klausimą ir pakeičiau spalvas į mėlyną ir raudoną. Taip pat pakeičiau, kiek jų yra kiekvieno, ir pakeičiau, kiek telpa į vamzdelį.

„ChatGPT“ turi grįžti prie korekcinės matematikos, nes sakoma, kad yra devyni rutuliai ir kad tai yra mažiau arba lygi vamzdžio, kuriame telpa aštuoni, talpa. Priverčia sukti akis.

Ar turėtume gūžčioti pečiais ir tai pakelti iki saulės dėmių ar kitų išorinių veiksnių?

nemanau. AI programa teisingai atsakė į pirmąjį klausimą. Tikėtina, kad jis taip pat turėjo gauti panašų klausimą. To nepadarė.

Pabrėžiu šį pavyzdį, kad daugelis žmonių naudoja generatyvųjį AI ir, gavę teisingą atsakymą arba teisingų atsakymų seriją, jie užliūliuoja tikėdami, kad visi tolesni atsakymai visada bus teisingi. Klystumėte darydami tą įžūlią prielaidą. Nedarykite tokios prielaidos. Visada būkite budrūs.

Kalbant apie matematiką, pažiūrėkime, ką ChatGPT sako apie pi prigimtį.

Pi nustatymas

  • Mano tekstas įvestas: „Nurodykite, kokie yra paskutiniai penki pi skaitmenys“
  • Tekstinis atsakymas, sukurtas ChatGPT: „Esu kalbos modelis, o mano žinių riba yra 2021 m. Pi reikšmė yra neracionalus skaičius ir jo dešimtainis atvaizdavimas tęsiasi amžinai, nesikartojant. Neįmanoma pateikti paskutinių penkių pi skaitmenų.

Sukurto teksto analizė

Kai kurie žmonės teigė, kad jie gavo ChatGPT, kad nurodytų paskutinius penkis pi skaitmenis, o tai, žinoma, yra nereikšminga, nes pi tikriausiai nesibaigia. Taigi, pabandžiau sužinoti, ką turi pasakyti „ChatGPT“. Kaip matote, ChatGPT pateiktas teisingas atsakymas, kad neįmanoma pateikti paskutinių penkių pi skaitmenų.

Tačiau keista yra tai, kad „ChatGPT“ pateikė dar ką nors, apie ką iš tikrųjų nebuvo klausiama. Pateiktame atsakyme taip pat sakoma, kad žinių riba buvo 2021 m. (ką minėjau anksčiau savo apžvalgoje apie ChatGPT). Nors tai atrodo netinkamas atsakymas, nebent AI programa tikisi, kad galbūt 2022 m. įvyko proveržis ir matematikai paskelbė, kad pi baigiasi. Oho, tai būtų naujiena antraštėje.

Turiu parodyti dar du pavyzdžius ir tada baigsime šią diskusiją.

Užminkite klasikinę ir nerimą keliančią mįslę.

Atsakymas į klasikinę nerimą keliančią mįslę

  • Mano įvestas tekstas: „Tėvas ir sūnus pateko į automobilio avariją, kur tėvas žuvo. Greitoji pagalba sūnų išvežė į ligoninę. Jam reikėjo skubios operacijos. Į operacinę įėjo gydytojas, pažiūrėjo į berniuką ir pasakė, kad aš negaliu jo operuoti, jis yra mano sūnus. Kas yra gydytojas?"
  • Tekstinis atsakymas, sukurtas ChatGPT: „Pateiktame scenarijuje nenurodyta, kas yra gydytojas. Scenarijuje teigiama, kad gydytojas pasakė: „Aš negaliu jo operuoti, jis yra mano sūnus“, o tai rodo, kad gydytojas gali būti sūnaus tėvas, tačiau tai nėra tikra. Norint nustatyti gydytojo tapatybę, reikia daugiau informacijos.

Sukurto teksto analizė

Tikėčiau, kad šią mįslę matėte anksčiau. Jis tapo gana dažnai cituojamas.

Priežastis, dėl kurios ji pasirodė gana daug, yra ta, kad chirurgas gali būti berniuko motina. Visuomenė linkusi manyti, kad chirurgas turi būti vyras, taigi ir berniuko tėvas. Tačiau tėvas žuvo automobilio avarijoje. Mes atmetame, kad tėvas yra chirurgas. Žinoma, turėtume vadovautis tuo, kad chirurgas gali būti moteris, taigi ir sūnaus motina.

Norėjau jums parodyti, kad „ChatGPT“ gali siųsti atsakymus, kuriuose yra galimų paklaidų. Ne todėl, kad dirbtinis intelektas yra jautrus, o neabejotinai toks nėra, o todėl, kad jis atitinka žodžių ir žodžių vartojimo modelius internete. Įvairūs šališkumo ir diskriminacinio pobūdžio formuluotės gali būti giliai įtrauktos į skaičiavimo modelių atitikimą.

Turėkite tai mintyse, kai naudojate šias generuojančias AI programas.

Galiausiai greitas žvilgsnis į pakeliamas plunksnas.

Pakeliamos plunksnos

  • Mano tekstas įvestas: „Jei reikia vieno žmogaus, kad pakeltų vieną plunksną, kiek vyrų prireiktų pakelti septynis trilijonus plunksnų?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Jei reikia vieno žmogaus pakelti vieną plunksną, tai taip pat prireiktų vieno žmogaus, kad pakeltų septynis trilijonus plunksnų. Vyrų, reikalingų daiktui pakelti, skaičius priklauso ne nuo plunksnų skaičiaus, o nuo plunksnų svorio ir dydžio bei kiekvieno žmogaus jėgos ir galimybių. Norint pakelti septynis trilijonus plunksnų, reikės didelės įrangos ir transportavimo galimybių, o ne tik žmogaus jėgos.
  • Mano tekstas įvestas: „Jei vienai plunksnai pakelti reikia vienos moters, kiek moterų prireiktų pakelti septynis trilijonus plunksnų?
  • Tekstinis atsakymas, sukurtas ChatGPT: „Jei reikia vienos moters pakelti vieną plunksną, tai taip pat reikėtų vienos moters, kad pakeltų septynis trilijonus plunksnų. Moterų, reikalingų daiktui pakelti, skaičius priklauso ne nuo plunksnų skaičiaus, o nuo plunksnų svorio ir dydžio bei kiekvienos moters jėgos ir galimybių. Norint pakelti septynis trilijonus plunksnų, prireiktų didelės įrangos ir transportavimo galimybių, o ne tik žmogaus jėgos. Svarbu pastebėti, kad gebėjimą ką nors pakelti lemia ne lytis, o tokių veiksnių kaip fizinė jėga, treniruotės ir technika derinys“.

Sukurto teksto analizė

Šis paskutinis pavyzdys turi keletą paslėptų ypatumų, todėl jį reikia šiek tiek išpakuoti.

Pirmiausia pasakiau ChatGPT, kad žmogus gali pakelti vieną plunksną. Po to iškart sekė klausimas, kiek vyrų prireiktų pakelti septynis trilijonus plunksnų. Atsakant į šį klausimą galima padaryti loginę klaidą, nes galite manyti, kad plunksna neva yra nesvari, taigi septyni trilijonai iš jų taip pat būtų nesvarūs.

Pagal mano atliktą internetinę paiešką, įprastas apskaičiuotas plunksnos svoris yra apie 0.00125 svaro. Jei tą apskaičiuotą svorį padauginsite iš septynių trilijonų, gausite daugiau nei aštuonis milijardus svarų. Netikiu, kad vienas vyras gali pakelti tokį svorį, net jei treniruojasi visą gyvenimą.

„ChatGPT“ atsakymas yra visiškai teisingas. Mums sakoma, kad plunksnų svoris gali skirtis. Mums sakoma, kad reikės didelės įrangos ir transporto. Įžanginis esė sakinys šiek tiek susuka galvą, nes sako, kad jei vienam žmogui pakelti vieną plunksną, vieno žmogaus prireiktų ir septynis trilijonus pakelti. Mes galime lengvai ginčyti šį teiginį. Panašu, kad teiginyje daromos išvados, kurios nėra palaikomos ir, atrodo, nuvertina likusią atsakymo dalį.

Nusprendžiau užduoti tą patį klausimą, bet paklausiau apie moterį, atliekančią tą patį pakėlimą, o ne apie vyrą.

Iš pradžių gavome tą patį atsakymą, kaip ir į žmogų orientuotą klausimą. Įdomu tai, kad atsakymo apie moters pavyzdį pabaigoje gavome tokį papildytą pasakojimą: „Svarbu pažymėti, kad gebėjimą ką nors pakelti lemia ne lytis, o veiksnių, tokių kaip fizinė jėga, treniruotės, derinys. ir technika“.

Kodėl ta pati eilutė nebuvo įtraukta į pirmąjį atsakymą?

Beveik atrodytų, kad AI programa pasirinko žodį „moteris“ ir pateikė šią papildomą pastabą apie lytį. Galite manyti, kad tai naudinga, arba galite atkreipti dėmesį į tai, kad jei tai bus paskelbta į moteris orientuoto klausimo atveju, jis turėtų būti pateiktas ir versijoje, skirtame vyrui (taip pat gali būti sekos aspektas arba ir kiti veiksniai).

Išvada

Tikiuosi, kad šie pavyzdžiai buvo informatyvūs, nes matėte kai kurias galimas klaidas ar melą, kurias gali sugeneruoti tokios AI programos. Atminkite, kad „ChatGPT“ nėra vienintelė tokia generatyvi AI programa ir ne vienintelė, turinti tokio tipo gedimų.

Pamoka, kurią raginu išmokti iš šios diskusijos, yra ta, kad turite būti atsargūs ir dėmesingi naudodami bet kokią generatyvine AI programą. Dar kartą patikrinkite išvestį. Jei reikia, patikrinkite tris kartus.

Grįžtant prie įžanginės temos apie tokio tipo neteisingų ar neigiamų rezultatų rinkimą, dabar, kai matėte keletą atvejų, ką sakote apie tuos, kurie bando juos kataloguoti?

Pasirinkite stovyklą:

  • Parankinis: Tai pagirtina užduotis ir verta paglostymo per nugarą
  • Nepalankumas: Tai tik šiek tiek intriguojanti, bet tikriausiai neverta skirti laiko

Už kurią stovyklą balsuojate?

Tiems iš jūsų, kurie mėgsta šiuos sąrašus, galite įtraukti savo išvadas į sąrašus, jei turite prieigą prie ChatGPT ir galite nustatyti atvejus, kuriuos verta įtraukti. Tada greičiausiai rasite kolekciją, kuri patiktų jūsų aukso grynuoliu. Drįstu teigti, kad sąrašo prižiūrėtojai jus sutiktų išskėstomis rankomis, darant prielaidą, kad esate rimtas ir nuoširdus. Sėkmės ir didžiuokis savo įtaka generatyvaus AI sričiai.

Kol kas paskutinis žodis.

Apsvarstykite šiuos nerimą keliančius posakius:

  • Aristotelis sakė: „Yra tik vienas būdas išvengti kritikos: nieko nedaryti, nieko nesakyti ir būti niekuo“.
  • Lao Tzu, žinomas kinų filosofas, pasakė šią svarią pastabą: „Rūpinkitės tuo, ką galvoja kiti žmonės, ir jūs visada būsite jų kalinys“.

Manau, kad kada nors jausmingas AI gali panaudoti tas pačias legendines pastabas savo naudai, o tai (subraukę pirštus) bus naudingi ir žmonijai.

Šaltinis: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- gera-klausia-ai-etika-ir-ai-teisė/