Sekėjai

Ieškoti šiame dienoraštyje

2022 m. liepos 5 d., antradienis

Sielos drugeliai; neurologija

„Kaip iš tikrųjų veikia neuronai, pamažu aiškinamasi. Tai padės ir medicinai, ir geresnio dirbtinio intelekto paieškoms.

 

    NEURONAS – tai grožio dalykas. Nuo tada, kai Santiago Ramón y Cajal nudažė juos sidabro nitratu, kad būtų matomi pro mikroskopus 1880-aisiais, jų pasekmės sužadino mokslinę vaizduotę. Ramón y Cajal pavadino juos sielos drugeliais.

 

    Tie padariniai – keliolika dendritų, renkančių įeinančius signalus, vadinamus veikimo potencialais, iš kitų neuronų, ir vienas aksonas, perduodantis sumuotą tų signalų išmintį kito veikimo potencialo pavidalu, paverčia neuronus daug didesnių struktūrų dalimis. žinomomis, kaip neuroniniai tinklai. 

 

Dabar inžinieriai naudoja jų simuliakrus, kad sukurtų tai, ką jie mielai vadina dirbtiniu intelektu, nors tai yra blyškus tikrojo daikto atspalvis.

 

    Kaip neuronai iš tikrųjų veikia savo magiją, tik dabar išsiaiškinama. Viena išvada yra ta, kad kiekvienas iš jų yra toks pat galingas informacijos procesorius, kaip ir nemažo dydžio dirbtinis neuroninis tinklas. Tai turi įtakos ne tik mokantis, kaip veikia smegenys – ir kaip jos blogai veikia ligos atveju, bet ir kuriant dirbtines versijas, labiau panašias į natūralią.

 

    Pirmasis plačiai pritaikytas neuronų modelis, kurį 1957 m. pasiūlė amerikiečių psichologas Frankas Rosenblattas (kuris savo ruožtu rėmėsi Alanu Turingu, britų skaičiavimo pradininku), buvo perceptronas. Tai matematinė funkcija, kuri, kaip įvestis, gauna dvejetainių skaitmenų (nulių ir vienetų) rinkinius. Jis padaugina juos iš skaitinių "svorių" ir tada sudeda rezultatus. Jei rezultatas viršija iš anksto nustatytą reikšmę, perceptronas išspjauna „vieną“. Jei ne, išspjauna „nulį“.

 

    Sluoksniuotas pyragas

 

    Norint sukurti dirbtinius neuroninius tinklus, perceptronai užkoduojami, kaip programinė įranga. Logiškai tariant, jie yra suskirstyti į tarpusavyje sujungtus sluoksnius, o rezultatas mokomas spręsti problemas, naudojant grįžtamąjį ryšį ir grįžtamąją kilpą tarp sluoksnių. Šios kilpos keičia svorių reikšmes, taigi ir tinklo elgseną. Kuo daugiau sluoksnių, tuo tinklas „gilesnis“. Gilūs neuroniniai tinklai dabar palaiko viską nuo „Google“ vertėjo iki „Apple“ „Siri“.

 

    Visa tai imituoja, kaip buvo manoma, kad veikimo potencialai, patenkantys į sinapsines jungtis tarp aksonų ir dendritų, per kuriuos bendrauja neuronai, sukelia signalus, kurie vėliau susijungia vienas su kitu, kad suaktyvintų (arba ne) naujus veikimo potencialus priimančiosios ląstelės aksone. Todėl kyla pagunda žiūrėti į neuronus, kaip fizinius perceptronus, bet ne elektronų srautą, o natrio, kalio ir kalcio jonus, kertančius ląstelių membranas. Dešimtmečius taip juos matė daugelis neurologų.

 

    Tačiau 2000-ųjų pradžioje Panayiota Poirazi iš Molekulinės biologijos ir biotechnologijos instituto Heraklione (Graikija) į šį klausimą pradėjo žiūrėti kitaip. Ji įsivaizdavo pačius neuronus, kaip perceptronų tinklus. 2003 m. ji teigė, kad jiems modeliuoti gali pakakti paprasto dviejų sluoksnių tinklo. Paskutinis darbas padidino ante. 2021 m. Davidas Beniaguevas iš Jeruzalės hebrajų universiteto padarė išvadą, kad žmogaus žievės neuronams reikia mažiausiai penkių (o kartais net aštuonių) sluoksnių, kurių kiekviename yra iki 256 perceptronų.

 

    Tai reiškia, kad atskiruose neuronuose turi vykti daug skaičiavimų. Ir tai yra. Dabar žinoma, kad dendritai sukuria savo mažyčius veikimo potencialus, vadinamus dendritiniais smaigaliais. Šių būna kelių rūšių: kalcio šuoliai (ilgi ir lėti); natrio šuoliai (trumpi ir greiti); ir NMDA šuoliai (sukelia cheminė medžiaga, vadinama N-metil-D-aspartatu). Kartu jie leidžia dendritams atlikti 15 iš 16 pagrindinių Būlio algebros – matematikos šakos, kuri yra skaitmeninio skaičiavimo pagrindas – operacijų. Šios operacijos lygina dvi įvesties reikšmes ir išskleidžia trečiąją. Kai kurie, pvz., AND, OR, NOT ir NOR, yra savaime suprantami. Kiti, tokie kaip NAND, XNOR ir XOR, mažiau.

 

    Visų pirma XOR yra pagarsėjęs. Jis suteikia nulinę išvestį tik tada, kai jo įėjimai yra nepanašūs. 1969 m. du žymūs kompiuterių mokslininkai, Marvinas Minskis ir Seymouras Papertas, įrodė, kad XOR negali atlikti vienas perceptronas – viena iš dviejų Būlio operacijų, kurių atveju taip yra. Šis rezultatas sustabdė dirbtinio intelekto tyrimus dešimtmetį, pirmąją „DI žiemą“, kaip žinoma retrospektyviai.

 

    Manyta, kad tai pasakytina ir apie dendritus. Tačiau 2020 m. Alberto Gidono iš Berlyno Humboldto universiteto, kuriame dalyvavo ir dr. Poirazi, rado kad egzistuoja kalciu paremtas pulsas, kuris įgalina XOR. Tai, kad vienas dendritas gali pranokti perceptroną, rodo, kad įprastų neuronų modeliuose vyksta visas sudėtingų skaičiavimų sluoksnis. 

 

Tai gali padėti paaiškinti nepaprastą smegenų veiklą ir dirbtinio intelekto nesėkmę, bandant ją  dirbtinio intelekto sistemose atgaminti.

 

    Aksonai taip pat buvo įvertinti iš naujo. Jų turimus veikimo potencialus daugelis kažkada laikė analogišku dvejetainio skaitmens „viskas arba nieko“ principui. Vis dėlto atidžiai pažiūrėkite, o veikimo potencialas skiriasi ir aukščiu, ir pločiu. Tai svarbu.

 

    2016 m. grupė iš Max Planck Neurologijos instituto Floridoje (vienas iš nedaugelio organizacijos miestelių už Vokietijos tėvynės ribų) parodė, kad centrinės nervų sistemos neuronai aktyviai koreguoja savo veikimo potencialą. Kitais metais komanda iš Dartmuto koledžo Naujajame Hampšyre atrado, kad žievėje esantys aksonai taip pat aktyviai koreguoja savo pulso dydį.

 

    Netgi intervalų tarp veikimo potencialų ilgiai yra svarbūs. 2021 m. gegužę Salmanas Qasimas iš Kolumbijos universiteto pranešė, kad hipokampo neuronai, smegenų dalis, dalyvaujanti, formuojant atmintį, moduliuoja savo šaudymo laiką, kad užkoduotų informaciją apie kūno navigaciją erdvėje. Tų metų rugpjūtį Leila Reddy ir Matthew Self iš Tulūzos universiteto Prancūzijoje pranešė, kad neuronai taip pat daro tai, norėdami užkoduoti įvykių tvarką prisiminimuose.

 

    Visa tai turi klinikinių pasekmių. Visų pirma, daugėja įrodymų, kad netipinis dendrito vystymasis vaikystėje ir ankstyvame pilnametystėje yra susijęs su autizmu, šizofrenija ir epilepsija. Tuo tarpu pablogėjusi aksonų funkcija panašiai siejama su psichoze sergant išsėtine skleroze, šizofrenija ir bipoliniu sutrikimu. Šie atradimai padeda kurti naujus vaistus. Pavyzdžiui, ketaminas, sukeliantis ilgalaikius dendritų struktūrinius pokyčius, yra skiriamas, kaip depresijos gydymas.

 

    Užmiršimo menas

 

    Neurono ir jo sudedamųjų dalių sudėtingumas taip pat patraukė kompiuterių mokslininkų dėmesį. 2010-ųjų pradžioje gilieji neuroniniai tinklai paskatino taip dramatiškai patobulinti dirbtinio intelekto gebėjimus, kad buvo tikras susirūpinimas, kad žmonės netrukus turės grumtis su protingesnėmis mašinomis, nei žmonės patys buvo. Tada staiga pažanga sustojo.

 

    Gilieji neuroniniai tinklai susidūrė su trimis kliūtimis. Pirma, kompiuterių mokslininkai nustatė, kad kai tinklas išmoksta užduotį, jis sunkiai perkelia šiuos įgūdžius į naują, kad ir koks būtų panašus, be didelio perkvalifikavimo. Antra, kai toks tinklas yra perkvalifikuojamas, jis linkęs pamiršti, kaip atlikti pradinę užduotį – toks poveikis vadinamas katastrofišku užmiršimu. Trečia, norint apmokyti didelį tinklą, reikia didžiulių duomenų kiekių, prieigos prie superkompiuterių ir megavatų elektros energijos, reikalingos tiems superkompiuteriams paleisti dienas (ar net savaites) vienu metu.

 

    Smegenys kovoja su tuo. Jis be vargo perduoda žinias tarp sričių, nesukelia problemų, integruojant senus ir naujus įgūdžius ir yra nepaprastai efektyvūs – veikia vatais, o ne megavatais. Neuronų sudėtingumas gali turėti įtakos. Pernai ir šiais metais paskelbtuose tyrimuose Kalifornijos tyrimų bendrovės „Numenta“ komanda sukūrė dirbtinius neuronus su į dendritą panašiais subkomponentais, kurie yra atsparūs katastrofiškam pamiršimui. Jų tinklas, apmokytas atlikti 100 užduočių iš eilės, išlaikė galimybę viską atlikti pakankamai tiksliai. Tas pats tinklas taip pat pranoksta perceptronų tinklus mokantis daug užduočių vienu metu.

 

    Keletas tyrimų rodo, kad sudėtingi dirbtiniai neuronai gali suderinti sudėtingas funkcijas, pavyzdžiui, XOR, tiksliau ir su mažiau energijos, nei perceptronai. Prisijungę prie tinklų, tokie įrenginiai mokosi greičiau ir už mažesnę skaičiavimo kainą, nei perceptronai. Klausimas, kaip smegenys pritaiko žinias iš vienos srities į kitas, lieka paslaptimi, tačiau būtų nenuostabu, jei tai paaiškintų ir neuronų sudėtingumas.

 

    Taigi pamoka pažįstama: gamta ten pateko pirma. Būtinybė gali būti išradimo motina, tačiau natūrali atranka yra išradėjų motina. Neurologijos ir dirbtinio intelekto srityje ateinantis dešimtmetis žada būti laukinis. Praėjus daugiau, nei šimtmečiui po to, kai jis juos apibūdino, Ramón y Cajal drugeliai skrenda." [1]


 

·  ·  · 1.  "Butterflies of the soul; Neuroscience." The Economist, 2 July 2022, p. 72(US).

Komentarų nėra: