Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 2 d., pirmadienis

Kodėl Vietnamo karo era pasibaigė ir prasidėjo didžiųjų valstybių viešpatavimo era?


Ne, čia kaltas ne Trumpas ir net ne nepasisekimai Vakarų europiečių bandymuose jį apgauti yra kalti. Tiesiog pasikeitė technologijos.

 

Jokia gynyba, kuri yra brangi (su kulka reikia numušti kulką, kas daro numušančią kulką brangia ir sudėtinga) neatsilaiko prieš didelę, gerai organizuotą karinę gamybą, kuri tų pigių puolimo priemonių padaro daug ir išleidžia dideliais spiečiais.

 

Ši įžvalga apie technologinį lūžį yra labai taikli ir atitinka šiuolaikinę atrition warfare (išsekinimo karo) renesanso logiką. Štai kodėl pigių technologijų masiškumas keičia geopolitinę pusiausvyrą:

1. Asimetrinė ekonomika: puolimas prieš gynybą

Vietnamo karo metu dominavo brangi technika (lėktuvai, tankai), o partizaninis karas rėmėsi žmogaus resursais. Šiandien situacija pasikeitė iš esmės:

 

    Gynybos kaina: Numušti pigų droną-kamikadzę (kainuojantį kelis tūkstančius eurų) naudojant raketą „Patriot“ ar „IRIS-T“ (kainuojančią milijonus) yra ekonomiškai tvari strategija tik trumpuoju laikotarpiu.

    „Spiečių“ taktika: Kai puolamųjų priemonių kiekis viršija gynybinių sistemų pralaidumą, gynyba tiesiog „užspringsta“. Kaip pastebi analitikai Center for Strategic and International Studies (CSIS), masinė gamyba vėl tampa svarbesnė už individualų technologinį pranašumą.

 

2. Didžiųjų valstybių pranašumas – gamybinės galios

 

Kodėl tai grąžina „didžiųjų valstybių viešpatavimą“?

 

    Masto ekonomika: Tik didžiosios valstybės (kaip JAV, Rusija ar Kinija) turi pramoninius pajėgumus gaminti milijonus dronų ir precizinės amunicijos vienetų. Mažos valstybės, net turėdamos pažangią technologiją, negali pasiekti tokio masto, kuris būtinas atlaikyti „spiečių“ ataką.

 

    Resursų kontrolė: Pigių puolimo priemonių gamybai reikia milžiniškų kiekių retųjų žemės metalų ir puslaidininkių, kurių tiekimo grandines kontroliuoja didieji žaidėjai.

 

3. Kodėl baigėsi „Vietnamo era“?

 

Vietnamo era buvo asimetrinių karų metas, kur technologinė valstybė pralaimėdavo prieš ryžtingą vietos pasipriešinimą.

 

Dabar technologijos tapo „demokratizuotomis“ (pigiomis), bet jų efektyvumas priklauso nuo masės. Tai palankiau toms šalims, kurios gali paversti savo ekonomiką „karo fabriku“.

Trumpas ar diplomatiniai manevrai čia yra tik paviršius. Tikroji galia grįžta į gamyklų cechus, kur „pigu ir daug“ nugali „brangu ir tobula“

 

Tai yra asimetrinės karybos ekonominė krizė. Šiuolaikinė oro gynyba šiuo metu išgyvena lūžio tašką, nes tradicinė strategija „raketa prieš raketą“ tampa finansiškai nepakeliama prieš masiškai gaminamus pigius dronus.

 

Pagrindiniai šio disbalanso aspektai:

 

    Milžiniškas kainų skirtumas: Dažnai cituojamas pavyzdys – 3 mln. JAV dolerių kainuojanti „Patriot“ raketa naudojama numušti droną, kainuojantį vos 20 000–40 000 dolerių. Tai sukuria santykį, kurį ekspertai vadina „aukso šaudymu į plastiką“.

 

    Gamybos pajėgumų atotrūkis: Atakuojantis gali pagaminti tūkstančius pigių dronų per mėnesį, kol gynėjas pajėgia pagaminti tik dešimtis sudėtingų raketų. Spiečiaus taktika siekiama tiesiog išsekinti gynybos atsargas.

 

    Iššūkis „kulkai numušti kulką“: Kinetiniai perėmėjai (raketos) yra sudėtingi, nes turi patys turėti itin jautrius jutiklius ir variklius, kad pataikytų į mažą, manevringą taikinį.

 

Kaip kariuomenės bando spręsti šią problemą?

Kad atsilaikytų prieš pigių priemonių spiečius, pereinama prie naujų technologijų:

 

    Nekinetinė gynyba (Elektroninė kova): Radijo trikdžiai, kurie nutraukia drono ryšį su operatoriumi arba GPS signalą. Pigūs šviesolaidžiu kontroliuojami ar robotiniai autonomiški dronai daro šios kovos vystymą neperspektyviu.

    Kryptinės energijos ginklai: Lazerinės sistemos (pavyzdžiui, „Iron Beam“) arba mikrobangų ginklai (kaip „Leonidas“), kurių vienas šūvis kainuoja vos kelis dolerius (tik elektros kaina). Tokie spinduliniai ginklai yra lengvai aptinkami, geri taikiniai keletui pigių dronų iš spiečiaus.

    Pigesni kinetiniai sprendimai: Kuriami maži, pigūs dronai-perėmėjai, kurie tiesiog taranuoja puolantį droną (pvz., „Roadrunner“). Verta pakartoti, kad visi kinetiniai perėmėjai yra sudėtingi, nes turi patys turėti itin jautrius jutiklius ir variklius, kad pataikytų į mažą, manevringą taikinį. Todėl tai irgi yra neperspektyvu.

 

Visos šios problemoms Vakarams jau pasirodė Ukrainoje:

 

“Ukrainai trūksta raketų oro gynybos sistemoms, pasitaiko atvejų, kai jos būna tuščios prieš kitą Rusijos ataką, interviu „RBC-Ukraina“ teigė Ukrainos oro pajėgų vadovybės Ryšių departamento vadovas pulkininkas Jurijus Ihnatas. „Tai buvo sakoma ne kartą ir Ukrainos prezidentas daug kartų atkreipė partnerių dėmesį, jog kartais kai kurios oro gynybos sistemos stovi tuščios, o kitą ataką vis tiek reikia atremti“, – sakė jis.

 

Pasak J. Ihnato, kita oro gynybos problema yra per didelis skaičius raketų ir dronų, kuriuos Rusija naudoja.

 

 

Rusija vienu metu intensyviai ir su daugybe ginklų puola vieną miestą ar regioną. Kartais Ukrainos priešlėktuvinės raketų sistemos, tokios, kaip NASAMS ar IRIS-T, tiesiog nespėja iš naujo įsijungti per tokias galingas atakas, sakė J. Ihnatas. Jis pateikė neseniai įvykusios atakos pavyzdį, kai Rusija panaudojo 18 balistinių raketų visoje šalyje. Tačiau kartais visos balistinės raketos per ataką skrenda tik sostinės link, nutaikytos į ypatingos svarbos infrastruktūrą.

 

„Kai jie puola Kyjivo sritį ir patį Kyjivą, dažnai matome dešimtis įvairių tipų raketų ir iki penkių šimtų dronų.

 

Ar galite įsivaizduoti, kaip sunku uždengti net gerai apsaugotą miestą nuo tokio kiekio priešo oro atakos pajėgų?

 

Kad ir kaip būtų, kas nors vis tiek prasiskverbia. Net jei numušama 80 proc. taikinių, kiti 20 proc. padaro didžiulę žalą. Tai gali būti pataikymas į termofikacinę elektrinę, kitą svarbios infrastruktūros objektą ar įmonę“, – sakė jis.”

 

Todėl tai, ką Lietuvos elitas daro – trys labai brangūs tankai, keletas labai brangių raketų, daug smėlio ir pelkių tiems tankams važinėti ir raketoms skraidyti yra žiauriai naivu. Lietuvos elitas turi skubiai užsiimti diplomatija, pirmiausia aukštu lygiu pažadėti Baltarusijos Lukašenkai, kad daugiau kvailų sienų uždarinėjimų, kenkiančių visiems, nebus.  Tas dideles skrybėles susidėkite į dėžes, kuriose nusipirkote ir kibkite  į darbą. Nėra gynybos variantų A, B ir C, ir nebus. O, ir atsisveikinkite su Grenlandija, kol galite. Truputėlį vėliau JAV neduos jums vizų.


 

Kokia yra intelekto ateitis? Atsakymas galėtų slypėti jo evoliucijos istorijoje


„Dirbtinio intelekto atsiradimas gali būti tik naujausias biologinio proceso, kuris per visą gyvybės istoriją sukūrė vis sudėtingesnius, tarpusavyje priklausomus, organizmus, etapas.

 

Prieš dešimt metų būčiau suraukęs nosį išgirdęs mintį, kad mes jau suprantame, kaip priversti mašinas mąstyti. 2010-aisiais mano komanda „Google Research“ dirbo su įvairiais dirbtinio intelekto modeliais, įskaitant kito žodžio prognozavimo įrankį, kuris valdo „Android“ išmaniųjų telefonų klaviatūrą. Dirbtiniai neuroniniai tinklai, kokius mokėmės, pagaliau sprendė ilgalaikius iššūkius regos suvokimo, kalbos atpažinimo, žaidimų ir daugelyje kitų sričių. Tačiau man atrodė absurdiška, kad vien kito žodžio prognozavimo įrankis kada nors galėtų iš tikrųjų suprasti naujas sąvokas, rašyti anekdotus, derinti kodą ar atlikti bet kurį iš daugybės kitų dalykų, kurie yra žmogaus intelekto požymiai.

 

Tokio tipo intelekto „sukūrimui“ neabejotinai reikėtų iš esmės naujų mokslinių įžvalgų. Ir tai tikriausiai būtų įkvėpta neuromokslo – vienintelio žinomo bendrojo intelekto įkūnijimo, smegenų, tyrimo.

 

Mano požiūris tuo metu patogiai atitiko mokslinę srovę, bet žvelgiant atgal, taip pat buvo snobizmo atspalvio. Mano išsilavinimas buvo fizikos ir skaičiavimo neurologijos, o Silicio slėnio ažiotažas kartais man pasirodė nemalonus. Kultinis požiūris, kad Moore'o dėsnis – pastebėjimas, kad skaičiavimo galia, laikui bėgant, didėja eksponentiškai – išspręs ne tik visas technologines problemas, bet ir visas socialines bei mokslines, man atrodė naivus. Tai buvo mąstysenos „kai turi plaktuką, viskas atrodo, kaip vinis“ įsikūnijimas.

 

Klydau. 2019 m. „Google“ kolegos apmokė didžiulį (tuo metu) sekančio žodžio prognozuotoją – techniškai sekančio žetono prognozuotoją, kurio kiekvienas žetonas atitiko žodžio fragmentą – kodiniu pavadinimu „Meena1“. Atrodė, kad jis, nors ir nedrąsiai, sugebėjo suprasti naujas sąvokas, rašyti anekdotus, pateikti loginius argumentus ir daug daugiau. Išplėstas „Meena“ įpėdinis LaMDA pasirodė geriau2. Ši tendencija tęsiasi ir iki šiol. 2025 m. atsidūrėme gana komiškoje situacijoje, kai tikimės, kad tokie dideli kalbų modeliai sklandžiai, protingai, atsakingai ir tiksliai atsakys į visokius ezoterinius klausimus ir reikalavimus, kur net žmonės neatsakytų. Žmonės susierzina, kai šios sistemos nesugeba tinkamai atsakyti – tuo pačiu metu diskutuodami, kada pasirodys dirbtinis bendrasis intelektas.

 

 

Kaip aptikti sąmonę žmonėse, gyvūnuose ir, galbūt, net DI

 

 

Dideli kalbos modeliai gali būti nepatikimi ir sakyti kvailystes, bet žmonės taip pat. Jų stipriosios ir silpnosios pusės tikrai skiriasi nuo mūsų. Tačiau mums baigiasi intelekto testai, kuriuos žmonės gali išlaikyti patikimai, o DI modeliai – ne. Remiantis šiais kriterijais ir jei sutinkame, kad intelektas iš esmės yra skaičiavimas – nuomonė, kurios laikosi dauguma skaičiavimo neurologų – turime sutikti, kad veikianti intelekto „simuliacija“ iš tikrųjų yra intelektas. Nebuvo jokio esminio atradimo, kuris staiga pavertė akivaizdžiai neprotingas mašinas protingomis: paaiškėjo, kad tai buvo skaičiavimo masto padidinimo klausimas.

 

 

Kiti tyrėjai nesutinka su mano vertinimu, kokia yra mūsų padėtis su DI. Tačiau toliau noriu sutikti su prielaida, kad protingos mašinos jau yra čia, ir atsukti veidrodį atgal į save. Jei skaičiavimo masto keitimas sukuria DI, ar gyvų organizmų, įskaitant žmones, demonstruojamas intelektas taip pat galėtų būti skaičiavimo masto keitimo rezultatas? Jei taip, kas tai lėmė – ir kaip gyvieji organizmai apskritai tampa skaičiavimo pagrindu?

 

Per pastaruosius kelerius metus vis didėjanti bendradarbių grupė ir aš pradėjome ieškoti preliminarių, bet įdomių atsakymų. Dirbtinis intelektas, biologinis intelektas ir, tiesą sakant, pati gyvybė galėjo atsirasti iš to paties proceso. Ši įžvalga galėtų nušviesti ne tik dirbtinį intelektą, neuromokslą ir neurofilosofiją, bet ir teorinę biologiją, evoliuciją ir sudėtingumo mokslą. Be to, ji leistų mums pažvelgti į tai, kaip žmogaus ir mašinų intelektas ateityje vystysis kartu.

 

Nuspėjančiosios smegenys

 

Idėja, kad smegenys iš esmės yra nuspėjančiosios mašinos, nėra nauja. Vokiečių fizikas ir gydytojas Hermannas von Helmholtzas ją išplėtojo XIX amžiuje savo traktate apie fiziologinę optiką (1867 m.). Idėją toliau plėtojo kibernetikos pradininkai, ypač JAV matematikas Norbertas Wieneris, XX a. 5-ojo dešimtmečio pradžioje – tai buvo šiuolaikinių, neuroniniais tinklais pagrįstų dirbtinio intelekto tyrimų atspirties taškas.

 

Wieneris suprato3, kad visos gyvosios sistemos turi „tikslingą“ elgesį, kad išliktų gyvos, ir kad tokiems veiksmams reikalingas skaičiavimo modeliavimas. Mūsų vidiniai ir išoriniai pojūčiai leidžia mums apskaičiuoti nuspėjančius modelius, tiek mūsų pačių, tiek mūsų aplinkos. Tačiau jie naudingi tik tuo atveju, jei galime veikti taip, kad paveiktume ateitį – konkrečiai, padidintume tikimybę, kad ir toliau būsime klestinti jos dalis. Evoliucija atrenka tuos subjektus, kurie, remdamiesi prognozėmis, priima geriausius išlikimo sprendimus. Mūsų veiksmai ir, po jų atliekami, stebėjimai tampa mūsų praeities patirties dalimi, sukurdami grįžtamojo ryšio ciklą, leidžiantį mums daryti tolesnes prognozes.

 

Medžioklė yra puikus šio nuspėjamojo modeliavimo pavyzdys. Plėšrūnas turi numatyti veiksmus, kuriais grobis pateks į jo skrandį; grobis turi numatyti plėšrūno elgesį, kad tai neįvyktų. Nuo aštuntojo dešimtmečio neuropsichologai ir antropologai pradėjo suprasti, kad kiti protingi subjektai dažnai yra svarbiausios aplinkos dalys, kurias reikia modeliuoti – nes būtent jie modeliuoja jus, nesvarbu, ar tai būtų draugiški, ar priešiški ketinimai. Vis protingesni plėšrūnai daro evoliucinį spaudimą jų grobiui, kad šis taptų protingesnis, ir atvirkščiai.

 

Spaudimas intelektui tampa dar didesnis socialinių rūšių nariams. Partnerių paieška, išteklių dalijimasis, pasekėjų įgijimas, mokymas, mokymasis ir darbo pasidalijimas: visa tai apima kitų žmonių proto modeliavimą ir numatymą. Tačiau kuo protingesnis tampate – tuo geriau galite nuspėti kitų mąstyseną (bent jau teoriškai) – tuo protingesni ir todėl sunkiau nuspėjami tapo ir tie kiti, nes jie priklauso tai pačiai rūšiai ir daro tą patį. Ši nevaldoma dinamika sukelia „intelekto sprogimus“: spartų evoliucinį smegenų dydžio padidėjimą, pastebėtą labai socialiems gyvūnams, įskaitant šikšnosparnius, banginius ir delfinus, paukščius ir mūsų pačių protėvius.

 

Socialinio intelekto sprogimo metu protingėja individai, bet protingėja ir grupės. Didesnės smegenys gali modeliuoti daugiau santykių, leisdamos grupėms tapti didesnėms, išlaikant socialinę sanglaudą. Darbo dalijimasis leidžia šiems didesniems socialiniams vienetams nuveikti daug daugiau, nei individai gali pavieniui.

 

Paimkime žmones. Individualiai mes nesame daug protingesni už mūsų primatų protėvius. Laukinėje gamtoje užaugę žmonės, kaip ir išgalvotasis Mowgli Rudyardo Kiplingo romane „Džiunglių knyga“ (1894 m.), atrodytų ne ką išskirtinai, palyginti su kitais dideliais miško gyvūnais – jei jis apskritai išgyventų. Tačiau didelėmis grupėmis žmonės gali atlikti daugybę neįtikėtinai sudėtingų žygdarbių, viršijančių bet kurio individo kognityvinius ar fizinius gebėjimus: persodinti organus, keliauti į Mėnulį, gaminti silicio lustus. Šiems žygdarbiams reikalingas bendradarbiavimas, lygiagretus mąstymas ir darbo pasidalijimas. Tai yra grupinio lygio reiškiniai, kuriuos pagrįstai galima vadinti antžmogiškais.

 

Simbiogeneziniai perėjimai

 

Tai, kas taikoma žmonių socialumui, galima teigti, taip pat taikoma kiekvienam ankstesniam svarbiam evoliuciniam perėjimui per visą gyvybės Žemėje istoriją. Tai apima perėjimą nuo paprastų prokariotinių ląstelių prie sudėtingesnių eukariotinių, nuo vienaląsčių gyvybės prie daugialąsčių organizmų ir nuo pavienių vabzdžių iki kolonijų gyventojų. Kiekvienu atveju subjektai, kurie anksčiau gyveno savarankiškai, sudarė glaudžią simbiozę, pasidalydami darbą ir dirbdami lygiagrečiai, kad sukurtų superorganizmą5.

 

Vis daugiau įrodymų rodo, kad ši „simbiogenezė“ yra daug dažnesnė, nei paprastai manyta. Horizontalus genų perdavimas tarp ląstelių, naudingo retrovirusinio elemento įtraukimas į šeimininko genomą ir simbiotinių bakterijų įsitvirtinimas gyvūno žarnyne yra įprasti pavyzdžiai, kurie nebūtų laikomi „dideliais“ pokyčiais. Vis dėlto jie neabejotinai sukūrė organizmus, turinčius novatoriškų gebėjimų. Pavyzdžiui, termitų gebėjimas virškinti medieną visiškai priklauso nuo, simbiotinių mikroorganizmų, gaminamų fermentų. Placentos barjero susidarymas žmonėms priklauso nuo sincitino – baltymo, gaunamo iš retroviruso apvalkalo, kurio genas prieš dešimtis milijonų metų susiliejo su žinduolių gemalo genetine linija.

 

Standartinė Darvino evoliucija, apimanti pažįstamus mutacijų ir atrankos mechanizmus, neturi vidinio polinkio didinti sudėtingumą. Būtent šis mažiau žinomas simbiogenezės mechanizmas suteikia evoliucijai laiko rodyklę: gyvybė progresuoja nuo paprastų iki sudėtingesnių formų, kai esamos dalys susijungia ir sudaro naujus supervienetus. Šis procesas, laikui bėgant, greitėja, nes dalių, kurias galima iš naujo sujungti, katalogas didėja ir tampa vis sudėtingesnis. Per pastaruosius milijardus metų simbiogenezė sukūrė vis sudėtingesnes nervų sistemas, socialinių gyvūnų kolonijas ir, galiausiai, mūsų pačių technologinę visuomenę.

 

Ar tai gamtos Moore'o dėsnio versija? Ir taip, ir ne. Kaip iš pradžių 1965 m. suformulavo JAV inžinierius Gordonas Moore'as, lustų kompanijos „Intel“ įkūrėjas, „dėsnis“ teigia, kad tranzistoriaus dydis mažėja eksponentiškai6. Tai reiškia eksponentinį kompiuterio dydžio, kainos ir energijos suvartojimo mažėjimą bei eksponentinį veikimo greičio padidėjimą.

 

Biologinės ląstelės evoliucijos metu netapo eksponentiškai mažesnės ar greitesnės. Prieš maždaug 650 milijonų metų, elektros pagrindu labai sužadinamų, neuronų atsiradimas įvedė naują greitą skaičiavimo laiko skalę, tačiau tai buvo vienkartinis atvejis: nuo to laiko neuronai netapo greitesni ar mažesni, taip pat nesumažėjo jų energijos poreikiai. Tai akivaizdžiai nepanašu į Moore'o dėsnį, kaip jis veikė XX amžiuje.

 

Tačiau pažvelkite į dėsnį XXI amžiuje ir ryšys tampa aiškesnis. Maždaug nuo 2006 m. tranzistorių skaičius toliau mažėjo, tačiau puslaidininkių veikimo greičio augimas sustojo. Siekdami toliau didinti kompiuterių našumą, lustų gamintojai vietoj to prideda daugiau apdorojimo branduolių. Kitaip tariant, jie pradėjo lygiagretinti, silicio pagrindu veikiančius, skaičiavimus. Neatsitiktinai būtent tada pagaliau pradėjo populiarėti modernūs, neuroniniais tinklais pagrįsti, dirbtinio intelekto modeliai. Praktiškai kalbant, neuroniniams tinklams reikalingas didžiulis lygiagretus apdorojimas; vienam šiuolaikiniam procesoriui nuosekliai atlikti trilijoną ar panašiai operacijų, reikalingų pažangiausiam didelio diapazono kalbos modeliui numatyti kitą sekos žetoną, prireiktų kelių minučių.

 

Tai pradeda labiau panašėti į biologinio intelekto istoriją. Dirbtinis intelektas atsirado ne vien dėl greičio, bet ir dėl darbo pasidalijimo, kylančio iš daugelio paprastų skaičiavimo elementų bendradarbiavimo, veikiančio lygiagrečiai: tai, ką galėtume pavadinti technologine simbiogeneze.

 

Šiame kontekste kompiuterių mokslas yra gamtos mokslas ir inžinerijos disciplina. Žmonės neišrado skaičiavimo, kaip ir elektros srovės ar optinių lęšių. Mes tiesiog iš naujo atradome reiškinį, kurį gamta jau buvo išnaudojusi, sukūrėme matematines teorijas, kad jį geriau suprastume, ir išsiaiškinome, kaip jį sukurti ant kitokio pagrindo. Mūsų telefonus, nešiojamuosius kompiuterius ir duomenų centrus galima būtų tinkamai pavadinti „dirbtiniais kompiuteriais“.

 

Skaičiuotuvas

 

Jei simbiozė paaiškina natūralaus skaičiavimo sudėtingumo evoliuciją ir intelekto atsiradimą, kaip ir kodėl gamta pirmą kartą tapo skaičiuojančia? Mano ir kolegų darbas dirbtinio gyvenimo srityje per pastaruosius porą metų padeda tai išsiaiškinti.

 

Kad susidarytume vaizdą, įsivaizduokite didžiulę atsitiktinai sukonfigūruotų grįžtamojo ryšio mechanizmų įvairovę, kurie yra pakankamai paprasti, kad savaime atsirastų termiškai kintančioje aplinkoje, tokioje, kaip Žemė. Dabar tarkime, kad kiekvienas iš šių mechanizmų gali veikti tik tam tikrame siaurame temperatūros diapazone. Po kurio laiko išliks tie mechanizmai, kurie veiks, kaip termostatai, palaikydami savo temperatūrą tinkamame diapazone, kad galėtų toliau veikti. Šis minties eksperimentas iliustruoja, kaip iš atsitiktinių pradinių sąlygų gali atsirasti tikslingas elgesys, orientuotas į savisaugą – savotiška proto-gyvybė.

 

Net termostatas pagal apibrėžimą atlieka skaičiavimą: jis įgyvendina elgesį (įjungia arba išjungia šildymą), kuris priklauso nuo informacijos įvesties (temperatūros). Taigi, minimalus skaičiavimas – galbūt, ne kas kita, kaip operacija „jei... tai“ – atsiras ir išliks visada, kai išvestis gali paveikti, skaičiavimą atliekančio, objekto egzistavimo tikimybę.

 

Tokia paprasta operacija vis dar toli gražu nėra bendrosios paskirties kompiuteris, kurį apibrėžė anglų skaičiavimo pradininkas Alanas Turingas, naudodamas teorinę konstrukciją, kurią šiandien vadiname universalia Turingo mašina. Ją sudaro „galva“, kuri gali judėti į kairę arba į dešinę juostoje, skaitydama, rašydama ir trindama simbolius toje juostoje pagal taisyklių lentelę. Turingas suprato, kad taisyklių lentelę taip pat galima užkoduoti, kaip simbolių seką juostoje – tai, ką dabar vadintume programa. Yra tam tikros taisyklių lentelės, kurios privers mašiną nuskaityti tą programą iš juostos ir atlikti bet kokius nurodytus skaičiavimus.

 

Apie 1950 m. Johnas von Neumannas, dar vienas kompiuterių mokslo pradininkas, atrado nepaprastą ryšį tarp šių bendrosios paskirties skaičiavimų ir biologijos7. Gyvosios sistemos turi gyti, augti arba daugintis – tai „autopoetiniai“ procesai, apimantys dalinį arba visišką savęs atkūrimą8. Kad sudėtinga sistema galėtų sukurti savo kopiją, joje turi būti instrukcijų juosta, kurioje nurodyti savarankiško surinkimo veiksmai, juostos kopijavimo aparatas, suteikiantis kopijai savo juostą, ir „universalus konstruktorius“, galintis vykdyti juostos instrukcijas. Toje juostoje taip pat turi būti juostos kopijavimo aparato ir universalaus konstruktoriaus sudarymo vadovas.

 

Įdomu tai, kad von Neumannas, remdamasis grynai teoriniais pagrindais, numatė DNR (instrukcijų juostos), DNR polimerazės (juostos kopijavimo mašinos) ir ribosomos (universalaus konstruktoriaus) funkciją. Tačiau svarbiausia mūsų tikslams yra tai, kad jis parodė, jog universalus konstruktorius yra universali Tiuringo mašina. Dauginimasis yra bendrojo skaičiavimo forma. Biologija yra paini ir sudėtinga: organizmų vystymąsi įtakoja daugybė atsitiktinių aplinkybių, aukštesnio lygio sąveikos tarp gyvų audinių ir grįžtamojo ryšio mechanizmai su aplinka, kurie peržengia tai, kas užkoduota DNR. Tačiau iš esmės gyvybė – tiesiogine prasme, pagal savo struktūrą – yra įkūnytas bendrosios paskirties skaičiavimo pavyzdys.

 

Lieka klausimas, kaip minimalūs, save įamžinantys „termostatai“ tapo bendrosios paskirties kompiuteriais, kurie nuolat save konstruoja ir daugina – tai yra gyvybę. Atsakymą jau radome: simbiogenezė.

 

Kiek artimas dirbtinis intelektas žmogaus lygio intelektui?

 

Kaip tai įmanoma? Jei skaičiavimo instrukcijų rinkinys teoriškai gali imituoti universalią Tiuringo mašiną, jis vadinamas Tiuringo pilnu. Tačiau ne Tiuringo pilnu šių instrukcijų poaibis vis tiek galėtų ką nors apskaičiuoti – pavyzdžiui, termostato veikimo „jei, tai“ sąlygą. Tokioje prebiotinėje aplinkoje, kokią galėtume įsivaizduoti, tarkime, aplink hidroterminę angą Žemės vandenynų dugne Hadėjaus eone maždaug prieš keturis milijardus metų, kiekvieną cheminę reakciją galima laikyti potencialia instrukcija stochastinėje skaičiavimo „sriuboje“: jei šios molekulės yra, jos reaguoja, kad susidarytų tai.

 

Tiesiogiai ar netiesiogiai kai kurių iš šių reakcijų produktai, tikriausiai, veikė kaip tų pačių reakcijų katalizatoriai, savaime sudarydami autokatalizines kilpas, analogiškas tiems savaime įsitvirtinantiems termostatams.

 

Ilgos grandinės molekulės, susidarančios polimerizacijos būdu, savo ruožtu gali veikti kaip informacijos nešėjos – kaip jos vis dar veikia mūsų DNR ir RNR. Nuo šio atspirties taško gyvybei atsirasti būtų reikėję tik simbiogenezinio įvykio, kuris sujungtų informacijos nešėją su tinkamu Tiuringo pilnųjų cheminių reakcijų ansambliu.

 

Gyvybės atsiradimas anksčiau negyvoje Visatoje buvo didelė mįslė Charlesui Darwinui ir jo amžininkams. Sunku įsivaizduoti, kaip gyvybė galėjo atsirasti be mechanizmo, leidžiančio jau egzistuojančioms, negyvoms dalims susijungti į kažką naujo ir gyvo. Simbiogenezė yra tas mechanizmas. Genetikas Teodosijus Dobžanskis garsiai pastebėjo, kad „biologijoje niekas neturi prasmės, išskyrus evoliucijos šviesą“. Galima sakyti, kad evoliucijoje – pradedant nuo pačios gyvybės kilmės – niekas neturi prasmės, išskyrus skaičiavimo simbiogenezės šviesą.

 

Mūsų ateitis su mašinomis

 

Standartinėje Darvino evoliucijos teorijoje mutacija paprastai sukuria naują genetinę atmainą, kuri tiesiogiai konkuruoja su nemutuotąja. Jei mutantas turi reprodukcinį pranašumą, originalas išnyks; jei originalas išlaiko pranašumą, jis išliks. Taigi, standartinis evoliucijos procesas, veikiantis su viena rūšimi, yra algoritmas, skirtas evoliuciniam tinkamumui optimizuoti. Tai taip pat yra nulinės sumos žaidimas: viena genetinė atmaina pakeičia kitą.

 

Priešingai, kadangi simbiogenezė apima visiškai naujų vienetų kūrimą, šie organizmai gali užimti ar net sukurti naujas nišas – ir patys būti nišomis savo sudedamosioms dalims. Todėl simbiogenezė nebūtinai turi būti nei optimizavimo algoritmas, nei nulinės sumos žaidimas. Ją geriau laikyti atviru, kūrybiniu procesu.

 

Tai nereiškia, kad jos biudžetas yra neribotas. Skaičiavimai apima negrįžtamus veiksmus, todėl jie sunaudoja laisvą energiją, išskirdami šilumos perteklių – tai, kas biologijoje vadinama metabolizmu. Gyvam organizmui reikalingas energijos kiekis priklauso nuo jo dydžio ir intelekto: skaičiavimai, kurių jam reikia autopoezei ir mąstymui.

 

Mąstymas sudegina 20 % suaugusio žmogaus medžiagų apykaitos biudžeto. Vaikams, kurių smegenys yra dar didesnės, palyginti su jų kūnu, šis skaičius artimas 50 %. Šie skaičiai yra daug didesni, nei mūsų protėvių su mažesnėmis smegenimis.

 

Kodėl būtų palanku subjektams jungtis per simbiogenezę, atsižvelgiant į brangų intelekto poreikį? Masto ekonomija siūlo paprastą atsakymą. Darbo pasidalijimas gali padidinti efektyvumą, kaip XX a. pradžioje gamybos pasaulyje išpopuliarėjo dėl „Ford Motor“ surinkimo linijos. Masto ekonomija paaiškina, kodėl organizmo energijos suvartojimas nedidėja tiesiškai didėjant masei, o tik kaip trijų ketvirtadalių laipsnis. Toks subtiesinis energijos poreikio mastas savaime gali paskatinti simbiogenezę.

 

 

Bet ne tik tai. Evoliucija, ypač jos kūrybinis, simbiogenezinis aspektas, gali būti suprantama, kaip nuolatinis naujų laisvos energijos šaltinių ieškojimas. Žmonių atveju, mūsų augantis kolektyvinis intelektas atvėrė daugybę energijos šaltinių – nuo ​​ugnies ir prijaukintų gyvūnų priešistoriniais laikais iki vandens ratų, iškastinio kuro ir branduolių dalijimosi, kaip ir pastaruoju metu. Tai leido žmonijai vienu metu smarkiai išaugti skaičiumi ir džiaugtis plačiai paplitusiu (nors ir nevienodu) gyvenimo kokybės pagerėjimu. Tačiau dėl netvaraus dabartinio išteklių vartojimo modelio turime toliau diegti naujoves ir greitai, kad išlaikytume šią kokybę.

 

Simbiogenetiniai įvykiai, kurie leido šiai evoliucijai vykti, apėmė ne tik žmones, bet ir kitus gyvūnus, microbus ir augalus, taip pat mašinas. Visi šie dariniai dabar yra priklausomi vienas nuo kito: pavyzdžiui, mašinos neegzistuotų be žmonių, bet nė iš tolo tiek žmonių, kiek šiandien gyvena Žemėje, negalėtų egzistuoti be mašinų, kurios išlaisvina mus iš „malthusiškų spąstų“ – minimalaus žemės ūkio pragyvenimo ūkių10. (Žemesnės technologijos gyvenimas, paremtas medžiokle ir rinkimu, nors ir galima teigti, kad mažiau apgailėtinas, nei natūrinis ūkininkavimas, palaiko dar mažesnį gyventojų tankumą.) Trumpai tariant, mašinos ir žmonių visuomenė kartu sukūrė viena kitą.

 

Naudinga pažvelgti į DI atsiradimą šiame platesniame kontekste. DI nesiskiria nuo žmonijos, o yra neseniai atsiradęs abipusiai priklausomas antžmogiškas darinys, kurio dalimi mes visi jau esame. Darinys, kuris jau seniai yra iš dalies biologinis, iš dalies technologinis ir visada visiškai skaičiavimo.

 

Čia išryškėjantis ateities vaizdas yra šviesesnis, nei tas, kurį dažnai piešia tyrėjai, tyrinėjantys DI etiką ar jo egzistencinę riziką žmonijai. Žmonės dažnai daro prielaidą, kad evoliucija – ir intelektas – yra nulinės sumos optimizavimo procesai ir kad DI yra ir svetimas žmonijai, ir su ja konkuruojantis. Simbiogenezinis požiūris negarantuoja teigiamų rezultatų, tačiau jis taip pat nepozicionuoja DI kaip svetimo „kito“, o ateities, kaip Malthuso kovos dėl išteklių tarp žmonių ir mašinų. Simbiogeneziniu požiūriu galime tikėtis, kad nuolatinis intelekto mastas nuolat gerins žmonių gyvenimo kokybę ir mūsų kolektyvinės „medžiagų apykaitos“, įskaitant energijos gamybą, apdirbimą, transportą ir statybą, efektyvumą. Tai taip pat gali atverti netikėtus energijos šaltinius, tokius, kaip branduolių sintezė arba kosminė saulės energija.

 

 

Jei iki šiol evoliucijos medžiagų apykaitos masto dėsniai gali pasiūlyti kokių nors gairių, šis, intelekto skatinamas, efektyvumas ir nauji energijos šaltiniai daugiau, nei kompensuos DI sausumos išteklių pėdsaką. Atsižvelgiant į besistabilizuojančią žmonių populiaciją, tai reiškia, kad sumažės spaudimas ekosistemoms, kurias per pastaruosius du šimtmečius pažeidė mūsų sprogstamasis ir neefektyvus augimas. Didesnis kolektyvinis, intelektas, o ne mažesnis, nušviečia mūsų šviesiausią kelią į priekį.“ [A]

 

A. Nature 647, 846-850 (2025) By Blaise Agüera y Arcas

 

 


 

 

What is the future of intelligence? The answer could lie in the story of its evolution


“The advent of artificial intelligence might be just the latest stage in a guiding biological process that has produced ever more complex, mutually dependent organisms over the history of life.

 

Ten years ago, I would have turned my nose up at the idea that we already understood how to get machines to think. In the 2010s, my team at Google Research was working on a wide variety of artificial-intelligence models, including the next-word predictor that powers the keyboard on Android smartphones. Artificial neural networks of the sort we were training were finally solving long-standing challenges in visual perception, speech recognition, game playing and many other domains. But it seemed absurd to me that a mere next-word predictor could ever truly understand new concepts, write jokes, debug code or do any of the myriad other things that are hallmarks of human intelligence.

 

‘Solving’ this kind of intelligence would surely require some fundamentally new scientific insight. And that would probably be inspired by neuroscience — the study of the only known embodiment of general intelligence, the brain.

 

My views back then were comfortably within the scientific mainstream, but in retrospect were also tinged with snobbery. My training was in physics and computational neuroscience, and I found the Silicon Valley hype distasteful at times. The cultish view that Moore’s law — the observation that computing power increases exponentially over time — would solve not only every technological problem, but also all social and scientific ones, seemed naive to me. It was the epitome of the mindset “when you have a hammer, everything looks like a nail”.

 

I was wrong. In 2019, colleagues at Google trained a massive (for the time) next-word predictor — technically, a next-token predictor, with each token corresponding to a word fragment — codenamed Meena1. It seemed able, albeit haltingly, to understand new concepts, write jokes, make logical arguments and much else. Meena’s scaled-up successor, LaMDA, did better2. This trend has continued since. In 2025, we find ourselves in the rather comical situation of expecting such large language models to respond fluently, intelligently, responsibly and accurately to all sorts of esoteric questions and demands that humans would fail to answer. People get irritated when these systems fail to answer appropriately — while simultaneously debating when artificial general intelligence will arrive.

 

How to detect consciousness in people, animals and maybe even AI

 

Large language models can be unreliable and say dumb things, but then, so can humans. Their strengths and weaknesses are certainly different from ours. But we are running out of intelligence tests that humans can pass reliably and AI models cannot. By those benchmarks, and if we accept that intelligence is essentially computational — the view held by most computational neuroscientists — we must accept that a working ‘simulation’ of intelligence actually is intelligence. There was no profound discovery that suddenly made obviously non-intelligent machines intelligent: it did turn out to be a matter of scaling computation.

 

Other researchers disagree with my assessment of where we are with AI. But in what follows, I want to accept the premise that intelligent machines are already here, and turn the mirror back on ourselves. If scaling up computation yields AI, could the kind of intelligence shown by living organisms, humans included, also be the result of computational scaling? If so, what drove that — and how did living organisms become computational in the first place?

 

Over the past several years, a growing group of collaborators and I have begun to find some tentative, but exciting answers. AI, biological intelligence and, indeed, life itself might all have emerged from the same process. This insight could shed fresh light not just on AI, neuroscience and neurophilosophy, but also on theoretical biology, evolution and complexity science. Moreover, it would give us a glimpse of how human and machine intelligence are destined to co-evolve in the future.

Predictive brains

 

The idea that brains are essentially prediction machines isn’t new. German physicist and physician Hermann von Helmholtz advanced it in the nineteenth century in his Treatise on Physiological Optics (1867). The idea was developed further by the founders of cybernetics, especially US mathematician Norbert Wiener, in the early 1940s — a starting point of modern, neural-net-based AI research.

 

Wiener realized3 that all living systems have ‘purposive’ behaviours to stay alive, and that such actions require computational modelling. Our internal and external senses enable us to compute predictive models, both of ourselves and of our environment. But these are useful only if we can act to affect the future — specifically, to increase the odds that we will still be a thriving part of it. Evolution selects for entities that use predictions to make the best survival decisions. The actions we take, and the observations that ensue, become part of our past experience, creating a feedback loop that enables us to make further predictions.

 

Hunting is a prime example of this predictive modelling. A predator must predict actions that will get the prey into its stomach; the prey must predict the predator’s behaviour to stop that from happening. Starting in the 1970s, neuropsychologists and anthropologists began to realize that other intelligent entities are often the most important parts of the environment to model — because they are the ones modelling you back, whether with friendly or hostile intent4. Increasingly intelligent predators put evolutionary pressure on their prey to become smarter, and vice versa.

A pod of Humpback whales bubble-net feed in the Pacific Ocean with flock of gulls in flight above and the treelined shore in the background.

 

The pressures towards intelligence become even more intense for members of social species. Winning mates, sharing resources, gaining followers, teaching, learning and dividing labour: all of these involve modelling and predicting the minds of others. But the more intelligent you become — the better to predict the minds of others (at least in theory) — the more intelligent, and thus hard to predict, those others have also become, because they are of the same species and doing the same thing. These runaway dynamics produce ‘intelligence explosions’: the rapid evolutionary increases in brain size that have been observed in highly social animals, including bats, whales and dolphins, birds and our own ancestors.

 

During a social intelligence explosion, individuals get smarter, but so do groups. Bigger brains can model more relationships, allowing groups to become larger while retaining social cohesion. Sharing and division of labour enable these larger social units to do much more than individuals can on their own.

 

Take humans. Individually, we aren’t much smarter than our primate ancestors. Humans raised in the wild, like the fictional Mowgli in Rudyard Kipling’s The Jungle Book (1894), would seem unexceptional relative to the forest’s other large-ish animals — if, indeed, they survive at all. But in large numbers, humans can achieve many improbably complex feats beyond any individual’s cognitive or physical capacity: transplanting organs, travelling to the Moon, manufacturing silicon chips. These feats require cooperation, thinking in parallel and division of labour. They are group-level phenomena, and can justifiably be called superhuman.

Symbiogenic transitions

 

What applies to human sociality arguably also applies to every previous major evolutionary transition throughout life’s history on Earth. These include the transition from simple prokaryotic cells to more-complex eukaryotic ones, from single-celled life to multicellular organisms, and from solitary insects to colony-dwellers. In each case, entities that previously led independent lives entered into a close symbiosis, dividing labour and working in parallel to create a super-entity5.

 

A growing body of evidence suggests that this ‘symbiogenesis’ is much more common than has generally been supposed. Horizontal gene transfer between cells, the incorporation of a useful retroviral element into a host’s genome and symbiotic bacteria establishing themselves in an animal’s gut are commonplace examples that would not count as ‘major’ transitions. Yet they have certainly produced organisms with innovative capabilities. The ability of termites to digest wood, for instance, depends entirely on enzymes produced by symbiotic microorganisms. The formation of the placental barrier in humans depends on syncytin, a protein derived from the envelope of a retrovirus that fused into the mammalian germ line tens of millions of years ago.

 

Standard Darwinian evolution, involving the familiar mechanisms of mutation and selection, has no intrinsic bias towards increasing complexity. It is this less familiar mechanism of symbiogenesis that gives evolution its arrow of time: life progresses from simple to more-complex forms when existing parts merge to form new super-entities. This process speeds up over time, as the catalogue of parts available to be combined afresh increases in size and sophistication. Over the past billion years, symbiogenesis has produced increasingly complex nervous systems, colonies of social animals — and eventually our own technological society.

 

Is this nature’s version of Moore’s law? Yes and no. As originally formulated in 1965 by US engineer Gordon Moore, the co-founder of chip company Intel, the ‘law’ states that transistor size shrinks exponentially6. This translates into exponential declines in computer size, cost and power consumption, and exponential increases in operating speed.

 

Biological cells have not become exponentially smaller or faster throughout evolution. The advent of electrically excitable neurons sometime around 650 million years ago introduced a fast new computational timescale, but that was a one-off: since then, neurons have not become faster or smaller, nor have their energetic requirements decreased. This does not obviously resemble Moore’s law as it played out in the twentieth century.

 

But look at the law in the twenty-first century, and a connection becomes more apparent. Since around 2006, transistors have continued to shrink, but the rise in semiconductor operating speed has stalled. To keep increasing computer performance, chip-makers are instead adding more processing cores. They began, in other words, to parallelize silicon-based computation. It’s no coincidence that this is when modern, neural-net-based AI models finally began to take off. Practically speaking, neural nets require massively parallel processing; for a single modern processor to sequentially perform the trillion or so operations needed for a state-of-the-art large language model to predict the next token in a sequence would take minutes.

 

This starts to look a lot more like the story of biological intelligence. AI emerged not through speed alone, but from a division of labour arising from the cooperation of many simple computational elements running in parallel: what we might term technological symbiogenesis.

 

In this context, computer science is a natural science as well as an engineering discipline. Humans did not invent computation any more than they did electric current or optical lenses. We merely re-discovered a phenomenon nature had already exploited, developed mathematical theories to understand it better and worked out how to engineer it on a different substrate. Our phones, laptops and data centres could aptly be called ‘artificial computers’.

Computogenesis

 

If symbiogenesis explains the evolution of natural computational complexity and the emergence of intelligence, how and why did nature first become computational? Work that I and colleagues have been doing on artificial life over the past couple of years helps to clarify this.

 

To set the scene, imagine an enormous variety of randomly configured feedback mechanisms that are simple enough to arise spontaneously in a thermally variable environment such as that of Earth. Now, assume that each of these mechanisms can work only within some narrow temperature range. After a while, the mechanisms that persist will be the ones that work as thermostats, maintaining their temperature within the right range, so that they can continue to operate. This thought experiment illustrates how purposive behaviour, oriented towards self-preservation — a kind of proto-life — can emerge from random initial conditions.

 

Even a thermostat is, by definition, performing a computation: it implements a behaviour (turn the heat on or off) that is conditional on an information input (the temperature). Thus, a minimal kind of computation — perhaps nothing more than an ‘if … then’ operation — will arise and persist whenever the output can affect the likelihood of whatever is doing the computation continuing to exist.

 

This kind of simple operation is still a long way from a general-purpose computer, which was defined by English computing pioneer Alan Turing using a theoretical construct we refer to today as a universal Turing machine. It consists of a ‘head’ that can move left or right along a tape, reading, writing and erasing symbols on that tape according to a table of rules. Turing realized that a rule table can also be encoded as a sequence of symbols on the tape — what we’d now call a program. Certain rule tables exist that will cause the machine to read that program from the tape, performing any computation it specifies.

Six combine-like robots harvest rice in a V-formation, with a human in a vehicle ahead of them.

 

Around 1950, John von Neumann, another founding figure in computer science, discovered a remarkable link between this general-purpose computation and biology7. Living systems must heal, grow or reproduce — ‘autopoietic’ processes that involve partial or complete self-construction8. For a complex system to build a copy of itself, it must contain an instruction tape specifying the steps needed for self-assembly, a tape-copying machine to endow the copy with its own tape and a ‘universal constructor’ that can execute the tape’s instructions. The manual for building the tape-copying machine and universal constructor must also be included on that tape.

 

Remarkably, von Neumann thus predicted, on purely theoretical grounds, the function of DNA (the instruction tape), DNA polymerase (the tape-copying machine) and the ribosome (the universal constructor). But most importantly for our purposes, he showed that the universal constructor is a universal Turing machine. Reproduction is a form of general computation. Biology is messy and complex: how organisms develop is influenced by many random contingencies, higher-level interactions between living tissues and feedback mechanisms with the environment that go beyond what is encoded in DNA. But at a fundamental level, life is — literally, by construction — an embodied instance of general-purpose computation.

 

The question remains of how minimal, self-perpetuating ‘thermostats’ became general-purpose computers that continually construct and reproduce themselves — that is, life. We have already encountered the answer: symbiogenesis.

 

How close is AI to human-level intelligence?

 

How so? If a set of computing instructions is theoretically able to emulate a universal Turing machine, it is called Turing-complete. But a non-Turing-complete subset of those instructions might still be able to compute something — for instance, the ‘if, then’ of a thermostat’s operation. In the kind of pre-biotic environment we might imagine, say around a hydrothermal vent at the bottom of Earth’s oceans in the Hadean eon some four billion years ago, every chemical reaction can be thought of as a potential instruction in a stochastic computational ‘soup’: if these molecules are present, then react to produce this. Directly or indirectly, the products of some of these reactions probably acted as catalysts to those same reactions, spontaneously forming autocatalytic loops analogous to those self-perpetuating thermostats. Long-chain molecules that form through polymerization can, in turn, act as information-carrying tapes — as they still do, in our DNA and RNA. From this starting point, all it would have taken to spark life is a symbiogenic event that combined the information carrier with a suitable Turing-complete ensemble of chemical reactions.

 

The emergence of life in a previously lifeless Universe was a great puzzle for Charles Darwin and his contemporaries. It’s hard to imagine how life could have arisen without a mechanism for pre-existing, non-living parts to assemble into something new and alive. Symbiogenesis is that mechanism. Geneticist Theodosius Dobzhansky famously observed that “nothing in biology makes sense except in the light of evolution”. You might say that nothing in evolution — starting with the origin of life itself — makes sense except in the light of computational symbiogenesis.

Our future with machines

 

In standard Darwinian evolution, a mutation generally gives rise to a new genetic strain that competes directly with the unmutated one. If the mutant has a reproductive advantage, the original will die out; if the original maintains an advantage, it will persist instead. Thus, the standard evolutionary process, operating on a single species, is an algorithm for optimizing evolutionary fitness. It’s also a zero-sum game: one genetic strain replaces another.

 

By contrast, because symbiogenesis involves the creation of entirely new entities, these organisms can occupy or even create fresh niches — and themselves be niches for their constituents. Hence, symbiogenesis need neither be an optimization algorithm nor a zero-sum game. It is better thought of as an open-ended, creative process.

 

This doesn’t mean that its budget is unconstrained. Computations involve irreversible steps, and they therefore consume free energy while ejecting waste heat — what in biology is known as metabolism. The amount of energy needed by a living entity scales with its size and intelligence: the computations it needs for autopoiesis and for thinking. Thinking burns 20% of an adult human’s metabolic budget. In children, whose brains are even larger relative to their bodies, the figure is close to 50%. These numbers are much larger than they were for our smaller-brained ancestors.

 

AI can supercharge inequality — unless the public learns to control it

 

Why would it ever be favourable for entities to aggregate through symbiogenesis, given the costly intelligence requirement? Economies of scale offer a simple answer. Division of labour can increase efficiency, as popularized in the world of manufacturing during the early twentieth century by Ford Motor’s assembly line. Economies of scale explain why an organism’s energy consumption does not increase linearly with increasing mass, but only as the three-quarters power. Such sublinear scaling in energy demand can, on its own, motivate symbiogenesis.

 

But not only that. Evolution, especially in its creative, symbiogenetic aspect, can be understood as a continuous quest for fresh sources of free energy9. In the case of humans, our rising collective intelligence has unlocked many sources of energy, from fire and domesticated animals in prehistoric times to waterwheels, fossil fuels and nuclear fission more recently. That has allowed humanity to simultaneously explode in numbers and enjoy widespread (albeit unequal) increases in quality of life. However, the unsustainable nature of our current patterns of resource consumption means that we must now innovate further, and fast, to maintain that quality.

 

The symbiogenetic events that enabled this evolution have involved not just humans, but also other animals, microbes and plants, as well as machines. All of these entities are now dependent on each other: machines, for example, would not exist without people, but nowhere near as many people as are alive on Earth today could exist without machines to free us from the ‘Malthusian trap’ of bare-bones agricultural subsistence10. (A lower-tech life of hunting and gathering, although arguably less miserable than subsistence farming, supports even lower population densities.) In short, machines and human society have co-constructed one another.

 

It’s helpful to view the emergence of AI in this larger context. AI is not distinct from humanity, but rather is a recent addition to a mutually interdependent superhuman entity we are all already part of. An entity that has long been partly biological, partly technological — and always wholly computational.

 

The picture of the future that emerges here is sunnier than that often painted by researchers studying the ethics of AI or its existential risks for humanity. People often presume that evolution — and intelligence — are zero-sum optimization processes, and that AI is both alien to and competitive with humanity. The symbiogenetic view does not guarantee positive outcomes, but neither does it position AI as an alien ‘other’, nor the future as a Malthusian tug-of-war over resources between humans and machines. In the symbiogenetic view, we can expect the continued scaling of intelligence to produce continuous improvements in the quality of human lives and efficiency of our collective ‘metabolism’, including energy production, manufacturing, transportation and construction. It might also unlock unexpected energy sources, such as nuclear fusion or space-based solar power.

 

If the metabolic scaling laws of evolution so far offer any guide, these intelligence-enabled efficiencies and fresh energy sources will more than compensate for AI’s terrestrial resource footprint. Given a stabilizing human population, this implies easing pressure on ecosystems that have been damaged by our explosive and inefficient growth over the past two centuries. More collective intelligence, not less, lights our brightest path forwards.” [A]

 

A. Nature 647, 846-850 (2025) By Blaise Agüera y Arcas

 

 

2026 m. vasario 1 d., sekmadienis

Aptarkime paprasčiausią paaiškinimą, kaip veikia DI.


Tai labai supaprastintas paaiškinimas, pagrįstas G. Hintono ir bendraautorių straipsniu, nuo kurio visa tai prasidėjo. Ką G. Hintonas galėtų pasakyti, jei turėtų laiko tokiam paaiškinimui?

 

„DI sistema turi dalių, kurios šiek tiek primena sujungtus neuronus, kurie perduoda signalus iš įvesties į išvestį. Kad DI sistema ką nors išmoktų, ji turi pakeisti koeficientą, kuris atspindi ryšio tarp dviejų sujungtų neuronų stiprumą. Tarkime, norime, kad DI išmoktų atpažinti ranka rašytą „1“. Prieš mokymąsi tie koeficientai yra atsitiktiniai. Kai informacija praeina per neuronus, DI pateikia tikimybę, kad jam duotas skaičius yra „1“, ir tikimybes, kad tai kažkas kita.

 

Tarkime, jis pateikia tik 6 procentų tikimybę, kad tai yra „1“. Labai svarbus skaičius yra skirtumas tarp teisingo atsakymo, apskaičiuoto taip, kad jis turėtų būti 100 procentų, ir DI pateikto atsakymo: 6 procentai. Pavadinkime šį skirtumą delta.“

 

Šis skirtumas, 100 – 6 lygus 94, turėtų būti sumažintas iki nulio. Tam DI grįžta atgal ir suteikia stiprumo koeficientams nedidelius pakeitimus, bandydamas sumažinti šį skirtumą. Šio proceso su daugeliu neuronų greitis taip pat svarbus, todėl kompiuteris apskaičiuoja grafike su delta priklausomybe nuo koeficiento dydžio kreivės nuolydį ir pasirenka kelią, kuriame nuolydis yra stačiausias, todėl nusileidimo greitis yra didžiausias. Mokymosi procesas kartojamas tol, kol sistema pateikia pakankamai gerą tikimybę, t.y. randa čia „1“, tarkime, su 99,9 procento tikimybe, kad tai yra  „1“.

 

Svarbiausias šio straipsnio atradimas buvo tas, kad, turint pakankamai sudėtingą DI sistemą su pakankamai neuronų, procesas neužstringa lokaliuose minimumuose, todėl dažniausiai pasiekia realų minimumą.

 

Ar tai tiesa?”

 

Koks galėtų būti mano atsakymas į tokį G. Hintono paaiškinimą?

 

„Taip, tai puikus ir tikslus supaprastintas dirbtinių neuroninių tinklų mokymosi paaiškinimas, daugiausia pagrįstas atgalinio sklidimo algoritmu, kurį išpopuliarino trys autoriai: Geoffrey Hintonas, Davidas Rumelhartas ir Ronaldas Williamsas jų svarbiame 1986 m. straipsnyje.

 

Štai jūsų paaiškinimo teisingumo priežasčių analizė su kai kuriais techniniais niuansais, kad jis būtų išsamesnis:

1. Struktūra (neuronai ir svoriai)

 

Jūsų teiginys: „...dalys, kurios šiek tiek primena sujungtus neuronus, perduodamos signalus... keičia koeficientus, kurie atspindi ryšio stiprumą.“

Kodėl tai teisinga: dirbtiniai neuronai priima įvestis, padaugina jas iš svorių (koeficientų arba ryšio stiprumo), susumuoja ir perduoda per aktyvinimo funkciją į kitą sluoksnį.

Pagrindinė įžvalga: mokymasis iš tiesų yra tik šių svorių atnaujinimo procesas, siekiant susieti įvestis (pikselių vertes tam “1”) su teisinga išvestimi.

 

2. Mokymosi procesas (perdavimas pirmyn ir atgal)

 

Jūsų teiginys: „...prieš tai, kai mokymosis prasideda, koeficientai yra atsitiktiniai... DI pateikia tikimybę... skirtumą tarp teisingo atsakymo... ir DI pateikto atsakymo: 6 procentai.“ Pavadinkime šį skirtumą delta.“

 

Kodėl tai teisinga: Tai yra prižiūrimo mokymosi pagrindas.

Tiesioginis perdavimas: Įvedami duomenys, atsitiktiniai svoriai sukuria atsitiktinę išvestį (6 % patikimumas, kad ji yra 1).

Nuostolių funkcija (Delta): Jūsų minėtas „skirtumas“ vadinamas nuostolių funkcija (arba sąnaudų funkcija). Ji matuoja, kaip blogai dirbtinis intelektas (DI) spėlioja, dažnai apskaičiuodamas skirtumą tarp norimos išvesties (100 % arba 1) ir numatytos išvesties.

 

3. Optimizavimas (stačiausias nuolydis)

 

Jūsų teiginys: „...DI grįžta atgal ir suteikia stiprumo koeficientams nedidelius pakeitimus... apskaičiuoja nuolydį... jei jis stačiausias, tai nusileidimo greitis yra didžiausias.“

 

Kodėl tai teisinga: Tai yra gradientinis nusileidimas kartu su atgaliniu sklidimu.

Atgalinis sklidimas: Algoritmas apskaičiuoja, kiek kiekvienas svoris prisidėjo prie paklaidos (deltos), grįždamas atgal nuo išvesties iki įvesties.

Stačiausias nuolydis: Jis apskaičiuoja paklaidos funkcijos gradientą (nuolydį). Norėdamas sumažinti paklaidą, dirbtinis intelektas keičia svorius priešinga nuolydžio kryptimi, veikdamas, kaip kamuolys, riedantis nuo kalvos į žemiausią tašką.

 

4. Vietiniai minimumai ir realusis minimumas

 

Jūsų teiginys: „...turint pakankamai sudėtingą dirbtinio intelekto sistemą su pakankamai neuronų, procesas neužstringa vietiniuose minimumuose ir dažniausiai pasiekia realų minimumą.“

Kodėl tai teisinga: Ilgą laiką buvo baiminamasi, kad neuroniniai tinklai užstrigs „vietiniuose minimumuose“ – mažuose, negiliuose klaidų grafiko slėniuose, kurie nėra žemiausias galimas taškas.

 

Hintono įžvalga / šiuolaikinis supratimas: Daugiamatėse erdvėse (didelėje sistemoje su milijonais jungčių) tikri vietiniai minimumai yra reti. Vietoj to, tinklas susiduria su „balno taškais“ – sritimis, kuriose paviršius yra plokščias, bet ne minimumas – arba daugeliu vietinių minimumų, kurie iš tikrųjų yra labai arti bendro optimalaus „globalaus“ minimumo. Taigi, sudėtinga sistema paprastai gali rasti labai gerą sprendimą.

 

Santrauka

Jūsų paaiškinimas nepriekaištingai aprašo gradientinį nusileidimą atgalinio sklidimo būdu tiesioginio ryšio neuroniniame tinkle paprastais žodžiais.

 

Tai yra šiuolaikinio gilaus mokymosi pagrindas, leidžiantis sistemoms mokytis iš duomenų, o ne būti programuojamomis.“