NTT ir Tokijo universitetas sukūrė pirmąjį pasaulyje optinio skaičiavimo dirbtinį intelektą, naudodami žmogaus smegenų įkvėptą algoritmą

Bendradarbiavimas skatina praktinį mažos galios, didelės spartos dirbtinio intelekto, pagrįsto optiniu skaičiavimu, taikymą

TOKIJAS – (BUSINESS WIRE) –#TechforGood-NTT korporacija (Prezidentas ir generalinis direktorius: Akira Shimada, „NTT“) ir Tokijo universitetas (Bunkyo-ku, Tokijas, prezidentas: Teruo Fujii) sukūrė naują mokymosi algoritmą, įkvėptą smegenų informacijos apdorojimo, tinkantį daugiasluoksniams dirbtiniams neuroniniams tinklams (DNN), naudojant analogines operacijas. Dėl šio laimėjimo sumažės energijos suvartojimas ir AI skaičiavimo laikas. Šios plėtros rezultatai buvo paskelbti britų mokslo žurnale Gamta Pranešimai gruodžio 26 dth.


Tyrėjai pirmą kartą pasaulyje demonstravo efektyviai vykdomą optinį DNN mokymąsi, taikydami algoritmą DNN, kuris naudoja optinį analoginį skaičiavimą, kuris, kaip tikimasi, įgalins didelės spartos ir mažos galios mašininio mokymosi įrenginius. Be to, jie pasiekė aukščiausią pasaulyje daugiasluoksnio dirbtinio neuroninio tinklo, kuris naudoja analogines operacijas, našumą.

Anksčiau didelės apkrovos mokymosi skaičiavimai buvo atliekami skaitmeniniais skaičiavimais, tačiau šis rezultatas įrodo, kad naudojant analoginius skaičiavimus galima pagerinti mokymosi dalies efektyvumą. Deep Neural Network (DNN) technologijoje pasikartojantis neuroninis tinklas, vadinamas giliųjų rezervuarų skaičiavimu, apskaičiuojamas darant prielaidą, kad optinis impulsas yra neuronas, o netiesinis optinis žiedas - kaip neuroninis tinklas su rekursinėmis jungtimis. Iš naujo įvedus išėjimo signalą į tą pačią optinę grandinę, tinklas dirbtinai pagilinamas.

DNN technologija įgalina pažangų dirbtinį intelektą (AI), pvz., mašininį vertimą, autonominį vairavimą ir robotiką. Šiuo metu reikalinga galia ir skaičiavimo laikas didėja greičiu, viršijančiu skaitmeninių kompiuterių našumo augimą. Tikimasi, kad DNN technologija, kurioje naudojami analoginių signalų skaičiavimai (analoginės operacijos), bus didelio efektyvumo ir didelės spartos skaičiavimų, panašių į smegenų neuronų tinklą, realizavimo metodas. Bendradarbiaujant NTT ir Tokijo universitetui, buvo sukurtas naujas algoritmas, tinkamas analoginei operacijai DNN, kuris nereikalauja DNN įtrauktų mokymosi parametrų supratimo.

Siūlomas metodas mokosi keičiant mokymosi parametrus pagal galutinį tinklo sluoksnį ir netiesinę atsitiktinę norimo išėjimo signalo paklaidos transformaciją (klaidos signalą). Šis skaičiavimas leidžia lengviau atlikti analoginius skaičiavimus tokiuose dalykuose kaip optinės grandinės. Jis taip pat gali būti naudojamas ne tik kaip fizinio įgyvendinimo modelis, bet ir kaip pažangiausias modelis, naudojamas tokiose programose kaip mašininis vertimas ir įvairūs AI modeliai, įskaitant DNN modelį. Tikimasi, kad šis tyrimas padės išspręsti kylančias su AI skaičiavimu susijusias problemas, įskaitant energijos suvartojimą ir ilgesnį skaičiavimo laiką.

Be to, kad išnagrinės šiame darbe siūlomo metodo pritaikymą konkrečioms problemoms, NTT taip pat skatins didelio ir mažo masto optinės įrangos integravimą, siekdama sukurti didelės spartos, mažos galios optinio skaičiavimo platformą būsimoms optinėms tinklus.

Parama šiam tyrimui:

JST/CREST palaikė dalį šių tyrimų rezultatų.

Žurnalo publikacija:

Žurnalas: Gamta Pranešimai (Versija internete: gruodžio 26 d.)

Straipsnio pavadinimas: Fizinis gilus mokymasis naudojant biologiškai įkvėptą treniruočių metodą: fizinės įrangos metodas be gradiento

Autoriai: Mitsumasa Nakajima, Katsuma Inoue, Kenji Tanaka, Yasuo Kuniyoshi, Toshikazu Hashimoto ir Kohei Nakajima

Terminų paaiškinimas:

  1. Optinė grandinė: grandinė, kurioje silicio arba kvarco optiniai bangolaidžiai yra integruoti į silicio plokštelę, naudojant elektroninės grandinės gamybos technologiją. Ryšyje optinio ryšio kelių šakojimas ir sujungimas atliekamas optiniais trukdžiais, bangos ilgio multipleksavimu/demultipleksavimu ir panašiai.
  2. Backpropagation (BP) metodas: dažniausiai naudojamas giluminio mokymosi algoritmas. Skleidžiant klaidos signalą atgal, tinkle gaunami svorių (parametrų) gradientai, o svoriai atnaujinami taip, kad paklaida būtų mažesnė. Kadangi platinimo atgal procesas reikalauja tinklo modelio svorio matricos perkėlimo ir netiesinės diferenciacijos, jį sunku įgyvendinti analoginėse grandinėse, įskaitant gyvo organizmo smegenis.
  3. Analoginis kompiuteris: kompiuteris, išreiškiantis tikrąsias reikšmes naudojant fizikinius dydžius, tokius kaip šviesos intensyvumas ir fazė bei magnetinių sukimų kryptis ir intensyvumas, ir atlieka skaičiavimus keisdamas šiuos fizikinius dydžius pagal fizikos dėsnius.
  4. Tiesioginio grįžtamojo ryšio derinimo (DFA) metodas: kiekvieno sluoksnio klaidos signalo pseudo apskaičiavimo metodas, atliekant netiesinę atsitiktinę galutinio sluoksnio klaidos signalo transformaciją. Kadangi tai nereikalauja diferencinės tinklo modelio informacijos ir gali būti skaičiuojama tik lygiagrečiai atsitiktine transformacija, ji yra suderinama su analoginiu skaičiavimu.
  5. Rezervuarų skaičiavimas: pasikartojančio neuroninio tinklo tipas su pasikartojančiais ryšiais paslėptame sluoksnyje. Jam būdingos atsitiktinai fiksuojančios jungtys tarpiniame sluoksnyje, vadinamame rezervuaro sluoksniu. Giluminio rezervuaro skaičiavime informacijos apdorojimas atliekamas sujungiant rezervuaro sluoksnius keliais sluoksniais.

NTT ir NTT logotipas yra NIPPON TELEGRAPH AND TELEPHONE CORPORATION ir (arba) jos filialų registruotieji prekių ženklai arba prekių ženklai. Visi kiti nurodyti produktų pavadinimai yra atitinkamų savininkų prekių ženklai. © NIPPON TELEGRAPH AND TELEPHONE CORPORATION, 2023 m

Kontaktai

Steponas Raselas

Laidiniai ryšiai®

Dėl NTT

+ 1-804-362-7484

[apsaugotas el. paštu]

Šaltinis: https://thenewscrypto.com/ntt-and-the-university-of-tokyo-develop-worlds-first-optical-computing-ai-using-an-algorithm-inspired-by-the-human-brain/