„The Cry Wolf Moment of AI Hype“ yra nenaudinga

Nors aš tyrinėju žmonijos pabaigos scenarijus, manau, kad „eksperto laiškas“, kuriame siūlomas 6 mėnesių AI moratoriumas, arba naujesnis teiginys, kad AI rizika yra pandemijos ir branduolinės rizikos lygiu, yra perdėta. Dar laukinė nuomonė, kad turime išjungti AI, yra neatsakinga. Bet koks rūpestis turi būti proporcingas rizikai, su kuria susiduriame. Šiuo metu AI mums negresia tiesioginis pavojus.

Dabartinės AI nepajėgios užvaldyti visuomenės. Jie neturi jausmų ir nenusipelno tokios apsaugos kaip žmonių gyvenimas. Jie nėra superinteligentiški ir jokiu būdu nepralenkia žmonių. Tiesą sakant, jie visai negalvoja. Šiuo metu, jei tiekiama daug duomenų, dirbtinis intelektas labai gerai atlieka konkrečias užduotis, tokias kaip skaičiavimai ir prognozės. Tai nekelia nerimo, tai yra šių sistemų funkcijos. AI pažadas apima vėžio sprendimą, pramoninės gamybos transformaciją, ateities scenarijų modeliavimą ir aplinkos problemų valdymą. Tai pasakius, yra pagrįstų priežasčių kritikuoti dabartinę AI dėl išteklių naudojimo, skaidrumo, šališkumo, kibernetinio saugumo ir būsimo jo poveikio užimtumui.

Dirbtinio intelekto skaičiavimai yra brangūs, o tai reiškia, kad jie yra didžiulis menkos iškastinės energijos švaistymas. Tai turi būti sprendžiama nedelsiant. Bet tai ne egzistencinis klausimas, tai racionalaus išteklių naudojimo klausimas. Faktas, kad AI, kurie remiasi dideliais ir neefektyviais duomenų modeliais, tampa per brangu, kad galėtų juos stebėti ir tirti akademinė bendruomenė ar vyriausybė, yra tikra problema. Bet tai greitai pataisoma. Elitinių akademinių institucijų ar vyriausybių konsorciumai galėtų dirbti kartu ir dalytis skaičiavimo ištekliais taip, kaip tai darė superkompiuteriams.

Didelės kalbos modeliai (LLM) yra AI modeliai, galintys generuoti natūralios kalbos tekstus iš didelio duomenų kiekio. Viena su tuo susijusių problemų yra ta, kad šie tekstai yra tiesiogiai kilę iš kitų žmonių sąžiningo intelektualinio indėlio. Tiesą sakant, jie yra pavogti. Visų pirma generatyvusis AI sujungia tiek vartotojų, tiek organizacijos duomenis, taip pat kūrybinį turinį taip smarkiai pažeidžiant autorių teises. Tai rimta, bet ne egzistencinė, be to, ES, Holivudo lobistai ir „didžiojo penketo“ knygų leidėjai jau imasi šios bylos. Tikėtis, kad tai sulėtins AI spartą. Esant dabartiniam tempui, AI pritrūks gerų mokymo duomenų gerokai anksčiau, nei priartės.

Algoritmai, jau naudojami apskaičiuojant mūsų mokesčius, atrenkant mūsų internetinius kanalus ar pasodinant žmones į kalėjimą, akivaizdžiai trūksta skaidrumo. Tačiau taip buvo daugelį metų ir tai neturi nieko bendra su naujausiais dirbtinio intelekto pokyčiais. AI šališkumas yra funkcija, o ne klaida. Stereotipų kūrimas iš tikrųjų yra pagrindinis tokių modelių veikimo būdas. Išskyrus atvejus, kai išankstinis nusistatymas slypi neįveikiamuose mašininio mąstymo sluoksniuose, nesuprantamuose žmonėms, ekspertams ar ne. Turėtume abejoti kūrėjų, sukūrusių tokias sistemas, išmintimi, o ne jų sukurtos sistemos galimybėmis, kurios yra duota. Sistemos retai kada bus geresnės už tų, kurie jas kuria ar valdo, išmintį ar ketinimus.

AI mokymo duomenys atspindi visuomenės, iš kurios šie duomenys buvo renkami, šališkumą. Pakartotinis netinkamų mokymo duomenų naudojimas yra nerimą kelianti praktika, kuri jau teršia AI modelius. Dabartiniai AI metodai tiesiog sustiprina šališkumą, kad būtų galima greitai pasiekti rezultatą. Tiesa, tai yra priešinga tam, ko norime. Mes norime naudoti technologijas, kad apsaugotume nuo žmogiškųjų klaidų. Nerimasis dėl mašinos klaidų yra švaistomas žmogaus intelekto panaudojimas.

Nepaisant „neuroninio tinklo“ metaforos, dabartinės AI nė kiek neprimena smegenų. Dabartinės AI sistemos negali mąstyti pagal analogiją, kaip tai daro žmonės. Tai yra gerai. Galbūt mes iš tikrųjų nenorime tokio dirbtinio intelekto suderinimo, kurį uoliai propaguoja ir bando mėgdžioti. Mašinos turi skirtis nuo žmonių. Taip galime maksimaliai išnaudoti vienas kito stipriąsias puses. Ir kaip galime išlaikyti mašinas atskiras ir atskirtas. Mašinos neturėtų turėti interesų suderinti.

AI vis dažniau kelia didelę grėsmę kibernetiniam saugumui kaip nusikaltėlių ir priešiškų valstybių turtas. Tačiau kibernetinis saugumas yra subrendusi pramonė, turinti daug ekspertų, gerai pasiruošusių įveikti iššūkį. Nėra jokios priežasties išjungti AI dėl kibernetinio saugumo baimių.

Darbo sutrikimas dėl dirbtinio intelekto daugelį metų buvo politikos problema, pirmiausia su robotais, o dabar su programine įranga pagrįstomis AI sistemomis. Tai reiškia, kad vyriausybės bus pasirengusios su tuo susidoroti. MIT „Work of The Future“ tyrimas parodė, kad susirūpinimas dėl nedarbo dėl robotų yra pervertintas. Žmonės visada rasdavo būdų dirbti ir taip darys ateityje. Ar gamybą pakeis AI? Tai jau vyksta, bet gana kontroliuojamai.

Kartkartėmis dirbtinis intelektas kenčia nuo pernelyg garsių pažadų apie esamas funkcijas ar būsimą apimtį. Pirmosios AI žiemos prasidėjo 1974–1980 m., kai JAV vyriausybė nutraukė savo finansavimą. Antrasis buvo 1987–1993 m., kai išaugo išlaidos, o dirbtinis intelektas neįvykdė savo aukštų pažadų.

Laukdami naujų paradigmų, 2025–2030 m. greičiausiai įžengsime į trečiąją AI žiemą. Bent jau, palyginti su karšta AI vasara, mums žadama. Priežastis ta, kad, nepaisant ažiotažo, dėl visų pirmiau nurodytų priežasčių dideli kalbų modeliai netrukus pasieks maksimalų naudingumą ir galiausiai juos turės pakeisti skaičiavimo požiūriu elegantiškesni metodai, kurie yra skaidresni.

Vienas iš tokių kandidatų yra hiperdimensinis kompiuteris, kuris padėtų mašinoms veiksmingiau mąstyti, nes suteikia mašinoms semantinį supratimą, gebėjimą apdoroti prasmę ir kontekstą, esantį už realaus pasaulio informacijos. Šiuo metu AI sistemos nesupranta žodžių ir frazių santykių, jos tiesiog gerai spėlioja. To nepakanka. Galiausiai mums prireiks įkūnyto AI, nes mąstymas yra susietas su erdvės suvokimu. Taip tikrai yra gamyboje, kuri yra labai fizinis žaidimas. Mums taip pat reikės dirbtinio intelekto, galinčio naudoti žmogaus atminties funkcijas, tokias kaip prioritetų nustatymas pagal tam tikros informacijos pirminį planą ir kitos informacijos fone. Užmiršimas yra įrankis, kurį žmonės naudoja abstrakčiai mąstyti, pereiti nuo pasenusios organizacinės praktikos, priimti sprendimus ir išlikti akimirkoje. Tai nėra tiesiog trūkumas. Kol kas jokia mašina negali to padaryti labai gerai.

Tuo tarpu mes turime reguliuoti, bet ne šią sekundę. Ir kai reguliuojame, geriau darykime tai gerai. Blogas AI reguliavimas gali pabloginti situaciją. Reguliuotojų pažadinimas šiam iššūkiui gali būti naudingas, bet nesu tikras, ar dabartinė reguliuotojų karta yra pasiruošusi tokiems plataus masto pakeitimams, kurių prireiktų norint tai padaryti gerai. Tai reikštų, kad būtų apribotos galingos įmonės (galbūt visos į biržos sąrašus įtrauktos bendrovės), apribotas AI naudojimas valdant ir reikštų didžiulius pokyčius vartotojų rinkose šiuo metu. Iš esmės turėtume pertvarkyti visuomenę. Tai paskatintų mus sunykti keliais dešimtmečiais anksčiau, nei mes norėtume. Skaidrumo iššūkis, susijęs su dirbtiniu intelektu, gali būti rimtesnis nei kontroliniai kintamieji, dėl kurių visi atrodo taip susirūpinę, žinoma, ne todėl, kad jie nesusiję.

Be to, negalime jaudintis kiekvieną kartą, kai pasiekiamas DI etalonas. Turime taupyti savo energiją, kad galėtume išties dideles pakopinės rizikos akimirkas. Jie ateis ir, tiesą sakant, nesame pasiruošę. Mano numatyti ateities scenarijai (žr. „Išnykimo scenarijus 2075 m.“) apima didžiulius duomenų pažeidimus, dėl kurių ištisos šalys kelis mėnesius neleidžia dalyvauti savo procesuose. Taip pat nerimauju dėl AI, kurioms padeda nusikalstamos grupuotės ar valstybės veikėjai. Labiausiai nerimauju dėl dirbtinio intelekto, nanotechnologijų, sintetinės biologijos ir kvantinių technologijų derinių – beveik nematomo kvaziorganinio intelekto ir nežinomo pajėgumo, galbūt tik už kelių dešimtmečių, įvyksiančių būtent tada, kai pasaulį sunaikins kaskadinis klimato poveikis. pakeisti.

Dabartiniai AI modeliai dar neveikia pakankamai gerai, kad keltų grėsmę žmonijai. Kad galėtume apsvarstyti galimybę juos uždaryti, mums reikia geresnių AI. Be to, mums reikia išmintingesnių kūrėjų, labiau jautrių piliečių ir geriau informuotų politikos formuotojų. Mums taip pat reikia koncepcijos, KAIP reguliuoti AI. Bet tai galima padaryti nieko nesulėtinant. Tai bus edukacinė kelionė visiems. Moratoriumo laiškas dėl GPT 4 (2023) yra vilko šauksmo akimirka, tik menkai primenanti pakopinius pavojus, su kuriais žmonija susidurs ateinančiais dešimtmečiais. 2023 m. AI riziką priskirti pandemijos ir branduolinės rizikos lygiui yra per anksti. Ar mes ten pateksime? Galbūt. Tačiau verkiantis vilkas turi pasekmių. Tai siurbia deguonį iš būsimų diskusijų apie tikrus išgąsčius.

Šaltinis: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/