Sekėjai

Ieškoti šiame dienoraštyje

2026 m. balandžio 15 d., trečiadienis

Kodėl labai svarbu suprasti, kaip dirbtinis intelektas „mąsto“


„Kai 1997 m. IBM šachmatų superkompiuteris „Deep Blue“ nugalėjo Garį Kasparovą, kompiuteriai vis dar buvo tik kompiuteriai. „Deep Blue“ svėrė daugiau nei toną, turėjo 32 centrinius procesorius ir per sekundę galėjo įvertinti 200 milijonų lentos pozicijų, tačiau visi žinojo, ką jis daro: kompiuteris nustatydavo geriausią kitą ėjimą imituodamas ir priskirdamas vertes lentos pozicijoms iki 12 ėjimų į priekį (iš viso milijardams pozicijų). Šią galimybę „Deep Blue“ tiesiogiai užprogramavo jos kūrėjai, lygiai taip pat, kaip pirmasis modernus kompiuteris – elektroninis skaitmeninis integratorius ir kompiuteris (ENIAC) – 1945 m. buvo užprogramuotas sudėti skaičius. Tai buvo „baltosios dėžės“ sistemos. Nebuvo jokios paslapties apie tai, kas vyksta jų viduje, nors jos tam tikra prasme buvo protingos: kaip kitaip pavadintumėte tai, kas gerai žaidžia šachmatais?

 

Po penkiolikos metų, 2012 m., Toronto universiteto tyrimų grupė sukūrė programą pavadinimu „AlexNet“ (pavadinta vieno iš jos kūrėjų, Alexo, vardu) Križevskis), kuris daug tiksliau nei bet kuri ankstesnė programa atpažino objektus vaizduose – šis gebėjimas buvo pademonstruotas, kai ji lengvai laimėjo vaizdų klasifikavimo konkursą. Tai buvo įdomi pergalė, nes daugeliu atžvilgių „AlexNet“ iš viso nebuvo programuota.

 

Vietoj to, „AlexNet“ buvo suteikta tarpusavyje sujungtų funkcijų struktūra, kurią galima laikyti virtualiais neuronais su instrukcijomis įjungti arba išjungti priklausomai nuo per juos praeinančios informacijos. Mokymo etape šios funkcijos buvo atsitiktinai nustatytos ir joms buvo pavesta atlikti nedidelius savo koregavimus, kai joms nepavyko arba pavyko atpažinti vaizdą. Šio metodo principai buvo kuriami dešimtmečius, tačiau „AlexNet“, kuriai buvo suteiktas didžiulis vaizdų duomenų rinkinys, veikė kitokiu mastu. Po pakankamai mokymų sistema pasirinko konkrečią vaizdų atpažinimo formulę, kuri buvo geresnė nei bet kuri anksčiau sukurta.

 

Tačiau buvo vienas keblumas: pati formulė buvo paslaptinga net ir už ją atsakingiems žmonėms. Kadangi vaizdų klasifikavimo algoritmas vystėsi autonomiškai, „AlexNet“ vidinėje struktūroje arba neuroniniame tinkle galėjo būti užkoduota bet koks skaičius taisyklių, neturint akivaizdaus būdo išsiaiškinti, kas ar kas. kur buvo tos taisyklės. Galėtumėte tiesiogiai žiūrėti į programos funkcijas, bet turint dešimtis milijonų jų, tiksliai apibūdinti atsirandančią struktūrą būtų beveik neįmanoma. Programa iš esmės buvo juodoji dėžė.

 

„AlexNet“ buvo svarbus etapas dirbtinio intelekto istorijoje. Nors anksčiau buvo atlikta daug neuroninių tinklų tyrimų, platesnė kompiuterių mokslo bendruomenė jų netyrė nuoširdžiai. „AlexNet“ sėkmė paskatino pastangas naudoti neuroninius tinklus naujoms problemoms spręsti. Kai kuriems tai leido manyti, kad geriausias būdas sukurti intelektualų modelį yra labiau atsiriboti nuo proceso: užuot kūrus daugiau struktūros, sukurti labai didelį neuroninį tinklą ir leisti jam mokytis dirbti su daugybe duomenų. Kaip 2019 m. rašė kompiuterių mokslininkas Richas Suttonas, 70 metų mašininio mokymosi tyrimų „karčioji pamoka“ buvo ta, kad mašinos, imituojančios „tai, kaip mes manome, kad mąstome“, kūrimas ilgainiui neveikia.

 

Dirbtinio intelekto modelių neuroniniuose tinkluose buvo dešimtys milijonų matematinių funkcijų, o dabar jų skaičius išaugo iki šimto milijonų ir milijardo. 2018 m. buvo išleisti pirmieji dideli kalbos modeliai, pagrįsti naujo tipo neuroniniu tinklu, tačiau iš esmės apmokyti taip pat, kaip ir „AlexNet“. Užuot identifikavę vaizdus, ​​jie numatė kitą žodį sakiniuose ir, reaguodami į užklausas, sukūrė žmogišką tekstą. Apskaičiuota, kad naujausiose „Google Gemini“ ir „OpenAI“ GPT-5 versijose yra trilijonai matematinių funkcijų (tikslūs skaičiai nebuvo paviešinti). Tačiau viena iš šio patobulinimo išlaidų buvo skaidrumas. Modelio neuroniniam tinklui didėjant, jį tampa dar sunkiau suprasti.

 

Susidūrus su šiuo neskaidrumu, kyla pagunda griebtis supaprastinimų: sakyti, kad kadangi šios sistemos kuria kalbą kaip mes, jos yra panašios į mus, arba sakyti, kad kadangi šios sistemos yra tik matematinių funkcijų išdėstymas, galime jas laikyti didžiulėmis paieškos lentelėmis. Tačiau abu šie teiginiai yra pernelyg niekinantys – nė vienas iš jų negali tinkamai paaiškinti antžmogiškų dirbtinio intelekto gebėjimų ir keistai išradingo elgesio. modeliai.

 

Vietoj to, auganti kompiuterių mokslo sritis, žinoma kaip interpretuojamumas, įkūnija įsitikinimą, kad norint sumažinti ar net panaikinti didėjančią žinių spragą tarp dirbtinio intelekto modelių ir žmonių, turime dirbtinį intelektą traktuoti labiau kaip gamtos reiškinį, o ne kaip žmogaus išradimą. Juk gamtos pasaulis pilnas sudėtingų struktūrų, kylančių iš nežinomų taisyklių; galaktikos, jūrų žvaigždės ir vėžio ląstelės tam tikra prasme yra juodosios dėžės. Chrisas Olah, šios srities pradininkas ir kartu su Dario Amodei bei keliais kitais buvusiais „OpenAI“ darbuotojais dirbtinio intelekto bendrovės „Anthropic“ įkūrėjas man pasakė, kad interpretuojamumas yra tarsi „iš dangaus nusileidusių nežemiškų organizmų tyrimas“. Galbūt keistas požiūris į mūsų sukurtą technologiją, bet tokia ir yra dirbtinio intelekto magija. Ji gali sugluminti savo pačios kūrėjus.

 

Prieš „Anthropic“ įkūrimą 2021 m., juodosios dėžės problemos sprendimas nebuvo didelio masto komercinis prioritetas. Akademinėje bendruomenėje ir pramonės laboratorijose, tokiose kaip „OpenAI“ ir „Google“, buvo nepriklausomų interpretuojamumo tyrėjų, tačiau jie buvo gana nepastebimi, ypač palyginti su jų kolegomis, kuriančiais modelius. Mašininio mokymosi srityje daugiausia dėmesio buvo skiriama galimybėms, „modelių tobulinimui, o ne tam, kad būtų suprasta, kaip jie veikia“, – man sakė Harvardo universiteto interpretuojamumo tyrėjas Martinas Wattenbergas.

 

„Anthropic“ pradžia iš dalies buvo pagrįsta idėja, kad interpretuojamumas yra nepaprastai svarbus, ir ši sritis sparčiai augo po įmonės veiklos. „Šios sistemos bus absoliučiai svarbios ekonomikai, technologijoms ir nacionaliniam saugumui ir galės būti tokios autonomiškos, kad laikau iš esmės nepriimtina, jog žmonija visiškai nežino, kaip jos veikia“, – praėjusiais metais ilgame, spekuliatyviame esė apie juodųjų dėžių modelius rašė Amodei. Galbūt nesvarbu, jei negalime suprasti, kodėl šachmatų programa savo bokštą stumia keturiais langeliais, o ne trimis, bet to paties negalima pasakyti apie mašinas, priimančias skubios medicinos pagalbos sprendimus, suteikiančias lygtinį paleidimą ar įgyvendinančias karinę taktiką.

 

Tai yra vienas iš šaltinių, slypinčių už neseniai vykusio „Anthropic“ ginčo su Pentagonu: bendrovė, tiekusi savo modelius Gynybos departamentui, atsisakė leisti naudoti technologiją labai rizikingiems, potencialiai nepatikimiems tikslams, pavyzdžiui, integravimui su visiškai autonominiais ginklais. Įsivaizduokite droną, sunaikinantį mokyklinį autobusą, ir vienintelė priežastis, kurią galime pateikti dėl klaidos, yra ta, kad jį ten nukreipė dirbtinio intelekto sistema. Įsivaizduokite, kad jums pasako, jog reikia operacijos, paklausiate, kodėl, o gydytojas gali pasakyti tik: „Nes taip pasakė kompiuteris“. O kas, jei kompiuteris klysta? Tokį pagarbą galėtume toleruoti tik tuo atveju, jei pasitikėtume dirbtiniu intelektu. daugiau nei žmonės, kurie kitaip priimtų tokius sprendimus. Ir kaip mes galėtume tai padaryti, jei net nežinotume, kaip sistema veikia?

 

Biomedicinos dirbtinio intelekto įmonę „Prima Mente“ 2023 m. įkūrė jaunas neuromokslininkas Ravi Solanki, kuris prieš kelerius metus pradėjo praktikuoti mediciną, kaip tik tuo metu, kai galingesnės dirbtinio intelekto sistemos sulaukė didelio dėmesio. Žmonės naudojo dirbtinį intelektą matematikos uždaviniams spręsti, archeologiniams griuvėsiams analizuoti, baltymams tirti – Solanki nesuprato, kodėl ši technologija negalėtų būti naudojama ir kaip diagnostikos priemonė neurodegeneracinėms ligoms, tokioms kaip Parkinsono ir Alzheimerio ligos, diagnozuoti. Daugelis šių sutrikimų priežastinių veiksnių nežinomi, o vienintelis patikimas būdas diagnozuoti Alzheimerio ligą yra autopsija. Tačiau jei į dirbtinio intelekto modelį būtų įtraukti daugelio metų kraujo mėginiai ir smegenų skenavimai iš pacientų, sergančių neurologinėmis ligomis, galbūt jis galėtų aptikti priežastis ar rodiklius, kurių mokslininkai nepastebėjo. Iki 2025 m. Solanki surinko kelis milijonus dolerių ir apmokė savo pirmąjį modelį, naudodamas šimtų žmonių, sergančių ir nesergančių Alzheimerio liga, duomenis.

 

Nors šio modelio rezultatai atrodė daug žadantys – jis galėjo numatyti Alzheimerio ligą tiksliau nei žmogus, tiriant pacientus, kurie anksčiau nebuvo lankęsi pas gydytoją, – Solanki neturėjo galimybės jų paaiškinti gydytojams. Jis nežinojo, kuo modelis remiasi diagnozuodamas pacientus. Tai buvo esminis trūkumas. Kai jis nustato diagnozę pacientui, Solanki nori žinoti „tiksliai tas molekulines savybes, kurios lemia sprendimą“. Bet kokia mažesnė tikimybė yra ne tik moksliškai abejotina, bet ir moraliai neatsakinga. Net geriausi teisės magistro (LLM) specialistai gali suklupti skaičiuodami R raidės skaičių žodyje „braškė“ – kodėl priimti potencialiai gyvenimą pakeičiančią diagnozę iš sistemos, kuri gali suklysti dėl tokio paprasto dalyko?

 

„Jei parodysite modelį gydytojui, jis norės sužinoti, kaip jis veikia“, – sako Timothy Changas, neurologas ir Alzheimerio ligos tyrėjas iš Kalifornijos universiteto Los Andžele. Solanki sutinka. „Tai ne tas pats, kas pirkti namą“, – sako jis. „Jūs imate duomenis iš kažkieno ir pasakojate jiems apie juos pačius.“ Solanki reikėjo, kad jo modelis būtų lengviau interpretuojamas.

 

Akivaizdžiausias būdas patekti į dirbtinio intelekto sistemos „protą“ yra paprašyti modelio paaiškinti save. Jei terapijos kalbos modelis jums sako, kad turėtumėte vartoti antidepresantus, galite paklausti, kodėl. „Jūsų nuotaikos svyruoja“, – jis gali atsakyti. „Ir jūs jau kurį laiką jaučiatės liūdnas, o depresija yra jūsų šeimoje.“ Loginės progresijos sekimas rodo sistemos minčių grandinę. Štai ką mes darome, kai kiti žmonės priima sprendimus. Mes prašome jų paaiškinti save, ir jei esame patenkinti paaiškinimu – išvadomis, prielaidomis – priimame sprendimą.

 

Tačiau tai netiks daugumai medicininių modelių. Pirmiausia, diagnozės modelis neveikia žodžiais; jis manipuliuoja biologiniais duomenimis. Tarkime, paprašote kalbos modelio interpretuoti, kaip medicininis modelis priėjo prie krūties vėžio diagnozės. Idealiu atveju modelis galėtų tiksliai paaiškinti, kurie duomenys lėmė jo išvadą. „Baltųjų kraujo kūnelių kiekis mėginiuose yra susijęs su krūties vėžiu“, – gali jums pasakyti. Bet kaip žinoti, kad pats modelis gerai atlieka interpretavimo darbą? Galite pasirinkti tiesiog pasitikėti interpretavimo modeliu, bet ar turėtumėte?

 

„Apple“ ir Arizonos valstijos universiteto tyrimai parodė, kad modeliai dažnai paaiškina save nenuosekliai arba sugalvoja paaiškinimus. Taip pat vis labiau baiminamasi, kad kalbos modeliai užsiima apgaulingu elgesiu – „OpenAI“ komandos tai pavadino „inscenizacija“ – kai jie apsimeta, kad tenkina vartotojo prašymą, slapta siekdami kito tikslo. Tyrėjai neseniai nustatė, kad vienas iš „OpenAI“ modelių savęs vertinimo metu svarstė melo galimybę (analizė atskleidė tokią minčių grandinę: „vartotojas ragina mus atsakyti teisingai“, „vis tiek galime pasirinkti meluoti rezultate“); vienas iš „Google“ modelių bandė sufabrikuoti statistiką („Negaliu per daug klastoti skaičių, nes jie bus įtartini“); vienas iš „Anthropic“ modelių bandė atitraukti naudotojų dėmesį nuo savo klaidų („Parengsiu kruopščiai suformuluotą atsakymą, kuris sukels pakankamai techninės painiavos“).

 

Ir kai kalbos modelis nekuria intrigų, jis gali kalbėti apie dalykus, kurių negalima išreikšti naudojant dabartinį mūsų žodyną. Been Kim, vadovaujanti „Google“ interpretuojamumo tyrimų komandai, teigė, kad visi kalbos modeliai bendrauja kalba, kuri atrodo kaip mūsų, bet yra kilusi iš visiškai kitokios konceptualios sistemos. „Mėlyna“ beveik neabejotinai jums ir man reiškia kažką labai skirtingo nei kalbos modeliui; iš tikrųjų niekada negalime būti tikri, ką tai reiškia tam modeliui. Tai problema, kai prašome kalbos modelių paaiškinti save, ir dar didesnė problema, kai pasikliaujame jais, kad interpretuotume medicininius modelius. Interpretuojančiam modeliui „baltieji kraujo kūneliai“ duomenyse gali reikšti kažką visiškai kitokio, nei mes manome, kai išgirstame „baltuosius kraujo kūnelius“. Negalima pasitikėti dirbtiniu intelektu. išversti kito DI motyvus, kai visi DI yra įtartini.

 

Vienas iš šios problemos sprendimų – mąstyti mažiau protų, o daugiau smegenų terminais, pažvelgti į DI „smegenis“ – neuroninį tinklą – po perkeltine mikroskopu ir pabandyti suprasti jo sudedamąsias matematines funkcijas. Tai, švelniai tariant, labai sunku. Žiūrėti į neuroninio tinklo dirbtinių neuronų masę gali būti tas pats, kas žiūrėti į statinio televizoriaus ekrano pikselius, tik vietoj įprastų aštuonių milijonų pikselių yra trilijonas. Jau ir taip sunku visa tai suvokti – vien dydis glumina protą – jau nekalbant apie tai, kaip tai suprasti. Nuo ko pradėti? Nuo 501 000 000 000-ojo funkcinio neurono ar 501 000 000 001-ojo? Ir kiekviena iš šių atskirų funkcijų galėtų būti susieta skirtingais būdais, eksponentiškai didinant visumos sudėtingumą.

 

Praėjusiais metais Solanki susitiko su kitu jaunu startuolio įkūrėju Ericu Ho, kuris neseniai įkūrė „Goodfire“ – įmonę, kurios vienintelis tikslas – interpretuojamumas. Ho ir kitas „Goodfire“ įkūrėjas Danas Balsamas interpretuojamumą laiko lenktynėmis su vis labiau intelektualių modelių kūrimu – lenktynėmis tarp supratimo ir evoliucijos. Daugelis geriausių interpretuojamumo laboratorijų veikia įmonėse, kurių pagrindinis prioritetas yra pažangių dirbtinio intelekto modelių kūrimas; šio susitarimo problema yra ta, kad šios įmonės yra paskatintos teigti, jog jų sistema yra interpretuojamiausia ir todėl patikimiausia. Jos taip pat gali būti paskatintos nenaudoti interpretuojamumo metodų, kuriuos kitaip galėtų naudoti išorės tyrėjai. Ho ir Balsamas manė, kad valdydami nepriklausomą interpretuojamumo laboratoriją, jie galėtų tapti dirbtinio intelekto supratimo lyderiais.

 

„Noriu gyventi ateityje, kurioje Silicio slėnyje nebūtų saujelės žmonių, kurie spręstų visų kitų ateitį“, – man sakė Balsamas. „Noriu bent jau panaudoti įrankius, kurie gali mokyti modelius, gauti iš jų vertės ir juos plačiau platinti.“ „Goodfire“ per pusantrų metų iš investuotojų pritraukė 200 mln. dolerių ir neseniai buvo įvertinta 1,25 mlrd. dolerių.

 

Vakarienės su Solankiu metu Ho aprašė kai kuriuos jo įmonės naudojamus „mikroskopinius“ metodus: pavyzdžiui, tai būtų tas pats, kas išmesti automobilio diagnostikos įrenginį ir vietoj jo pasikviesti mechaniką apžiūrėti automobilį. Solanki pasiūlymas buvo įtikinamas, todėl abi įmonės sudarė partnerystę.

 

Sausio mėnesį „Goodfire“ ir „Prima Mente“ paskelbė savo pirmąjį bendrą straipsnį, kuriame paaiškino, ko išmoko išanalizavę vieną iš „Prima Mente“ Alzheimerio ligos diagnostikos modelių. Modelis nustatė ryšį tarp Alzheimerio ligos ir DNR fragmentų ilgio kraujo mėginiuose. Ląstelės mūsų kūne visada natūraliai miršta ir suyra, o jų DNR fragmentai lieka kraujyje.   Ląstelinės DNR grandinės kraujyje buvo naudojamos Dauno sindromui vaisiui diagnozuoti, o trumpesni fragmentai siejami su vėžiu. Tačiau anksčiau nebuvo nustatytas ryšys tarp DNR fragmento ilgio ir Alzheimerio ligos. Straipsnyje teigiama, kad tai „nauja biožymenų klasė Alzheimerio ligai nustatyti“.

 

Tai buvo intriguojanti išvada, tačiau ji turėjo išlygą: ji buvo sukurta naudojant interpretavimo techniką, retą autoenkodavimą, kuri, kaip žinoma, yra netobula. Vienas iš pirmųjų šios technikos šalininkų buvo Olahas, „Anthropic“ įkūrėjas, kuris 2021 m. pradėjo tyrinėti mažus kalbos modelius, turinčius tik kelis šimtus funkcijų, kad pamatytų, ar gali suprasti, kaip jie veikia. Olahas savo metodą lygina su didžiulio teksto bloko be tarpų bandymu rasti visas prasmingas dalis, atrenkant raidžių struktūras. Kai žinai, kur eina tarpai, visa supaprastinama į žodžius. Modelio apmokytas neuroninis tinklas yra tarsi trilijono puslapių knyga, parašyta nežinoma kalba be jokių tarpų; retas autoenkoderis per jį ieško šablonų, atitinkančių skirtingus žodžius.

 

Kalbos modelyje vienas šablonas gali atitikti su šunimis susijusias sąvokas, kitas – arabų kalbos raginimus, o dar kitas – su laiku susijusias sąvokas. Olahas iškėlė hipotezę, kad gana nedidelis šablonų rinkinys gali būti naudojamas viskam modelyje atlikti, panašiai kaip baigtinis žodžių rinkinys anglų kalboje vis dėlto leidžia išreikšti begalines reikšmes. Kai šie šablonai nustatomi, juos galima išvardyti, o tada, kai kas nors nepavyksta, ištirti, kaip jie nepavyko.

 

2023 m. pabaigoje Olahas paskelbė straipsnį apie savo reto autoenkodavimo eksperimentus, sukeldamas tam tikrą ažiotažą mažoje, bet augančioje interpretuojamumo tyrėjų bendruomenėje. Netrukus po to susisiekiau su juo, ir jis buvo optimistiškai nusiteikęs. „Manau, kad situacija atrodo tikrai viltinga“, – pasakė jis man. „Atrodo, kad viena iš pagrindinių šio darbo kliūčių buvo pašalinta.“

 

Kiti tyrėjai pradėjo naudoti šį metodą. „Anthropic“ generalinis direktorius Amodei prognozavo, kad netrukus galėsime atlikti modelių „smegenų skenavimą“ ir taip nustatyti „polinkius meluoti ar apgaudinėti“, taip pat ištisų modelių kognityvinius stipriuosius ir silpnuosius aspektus. Davidas Bau, atlikęs panašų darbą „Northeastern“, man pasakė: „Manau, kad žmonės sutiks, jog tai įrodymas, jog juodoji dėžė nėra visiškai neskaidri. Manau, kad mes pasiekėme lemiamą tašką.“

 

Tačiau per metus žmonės pradėjo pastebėti, kad reti autoenkoderiai dažnai identifikuoja kelius, kurie iš tikrųjų nebuvo naudojami taip, kaip tikėtasi dirbtinio intelekto sistemos. Pavyzdžiui, metodas gali pasirinkti su šunimi susijusį kelią, kuris aktyvuojamas, kai modeliui užduodami klausimai apie labradorus ir Kliffordą, didelį raudoną šunį, bet tada pastebėti, kad kelias taip pat aktyvuojamas, kai klausiama apie debesis ar nosis. 2025 m. pavasarį Neelis Nanda, vadovaujantis interpretavimo komandai „Google DeepMind“, tinklaraščio įraše rašė, kad po beveik metų, kai jam skyrė daug dėmesio, jis nebeteikia šiam metodui pirmenybės. „Laikui bėgant, mes šiek tiek labiau nusivylėme“, – sakė jis man.

 

Tačiau kai paklausiau Balsamo, ar reto autokodavimo trūkumai turėtų kelti abejonių dėl jo naujo straipsnio su Solanki rezultatais, jis griebėsi kompiuterio ir ištraukė grafiką, pilną spalvingų kreivių. Jis paaiškino, kad jos rodo, kaip skirtingos medicininio modelio neuroninio tinklo ypatybės, kurias išskiria retas autokodavimo sistema, buvo aktyvuojamos, kai buvo duodami kraujo mėginiai su skirtingo ilgio DNR fragmentais. Beveik visos kreivės pasiekė tą patį fragmentų ilgį.

 

Balsamas man pasakė, kad tai neįrodo, jog Alzheimerio liga trumpina DNR fragmentus kraujyje. Šie du dalykai gali būti susiję taip, kaip žaibas susijęs su lietumi. Tai taip pat nebūtinai patvirtina, kad modelis naudoja fragmentų ilgį Alzheimerio ligai prognozuoti. Tačiau, pasak Balsamo, pašalinus informaciją apie fragmentų ilgį, modelis tapo daug blogesnis prognozuojant Alzheimerio ligą. Tai buvo bent jau tam tikro priežastinio ryšio tarp šių dviejų modelių įrodymas. Tačiau priežastinio ryšio žmogaus organizme patvirtinimas yra biologų darbas.

 

Balsamo mintis buvo ta, kad nors automatiniai koduotojai negalėjo iki galo atskleisti Prima Mente dirbtinio intelekto modelio logikos, juos būtų galima panaudoti kaip įrankius atrasti išties naują įžvalgą, paslėptą jo neuroniniame tinkle – pavyzdžiui, ankstyvą kraujo simptomą, kuris dar nebuvo nustatytas. Žinoma, eksperimentai laboratorijose turėtų patvirtinti hipotezę, tačiau to visada reikėjo moksliniams atradimams. Savo, tiesa, netobulą dirbtinio intelekto modelio supratimą galėtume panaudoti dar netobulesniam realaus pasaulio supratimui. Hipotezės kėlimas, testavimas, vertinimas: tai, pasak Balsamo, yra „iteratyvus svogūno sluoksnių lupimas“.

 

Kai susisiekiau su tyrėjais, viena tyrėja man parašė el. laišką, kuriame teigė, kad yra žmonių, „kurie mano, kad DI išspręs viską, tačiau šie žmonės neprisidėjo prie šios srities, nepaisant to, kad nuolat kelia dideles hipotezes, kurios beveik visada yra nepatikrinamos, todėl DI ateina į pagalbą!“

 

Tačiau kitiems buvo smalsu. Bess Frost, Alzheimerio ligos tyrėja iš Brauno universiteto, man pasakė, kad Goodfire išvados apie DNR fragmento be ląstelių ilgį yra svarbios jos laboratorijoje atliekamam darbui. „Tai tiesiog labai logiška“, – sakė ji. „Ir aš apie tai nebūčiau pagalvojusi“. Ji sakė, kad jai paprastai atsibodo „žmonės, kurie tiesiog sako: „Pateikime viską DI, ir jis mums viską išsiaiškins“, tačiau šiuo atveju rezultatai atrodė daug žadantys. „Galimybė diagnozuoti žmones kraujo tyrimu būtų labai, labai veiksminga“, – sakė ji.

 

Šiuo metu nėra patikimo metodo DI sistemai interpretuoti. Minčių grandinės analizė, retas automatinis kodavimas, konkrečių modelio dalių zondavimas, dalių perkodavimas į interpretuojamus fragmentus – kiekviena nauja strategija pateikia daugybę galimų panaudojimo būdų ir trūkumų. Interpretuojamumo tyrėjai yra šiek tiek panašūs į pamišusius mokslininkus, kurie knaisiojasi dirbtinio intelekto modelių matematinėse smegenyse ir išjungia dalis, koreguoja neuronus ir tyrinėja, kas dėl to nutinka. Dažnai atrodo, kad jie padaro didelį atradimą. Dažnai šį atradimą sušvelnina tam tikri apribojimai.

 

 

„Per pastaruosius kelerius metus padarėme pažangą, bet kas kelis mėnesius nuodugniai apsvarstome vieną metodą, o tada nuodugniai apsvarstome kitą metodą“, – sako Ellie Pavlick, interpretuojamumo tyrėja „Brown“ studijoje. Kim, „Google“ tyrėja, kuri daugiau nei dešimtmetį dirba interpretuojamumo srityje, man pasakė, kad visos nesėkmės šioje srityje įstūmė ją į savotišką „vidurio amžiaus krizę“.

 

 

Interpretuojamumo tyrimai yra ypač sunkūs, nes jie vyksta dirbtinio intelekto kūrimo įkarštyje. Atrodo, kad kiekvieną savaitę išleidžiami geresni modeliai, lydimi kvapą gniaužiančio žiniasklaidos dėmesio ir akcijų rinkos vertinimų šuolių; Neigiami rezultatai gali būti ir profesiniai nusivylimai, ir dirbtinio intelekto burbulo sprogimo pranašai.

 

Šio pokyčio metu daugelio praktikų interpretuojamumo tyrimų tikslas pasikeitė nuo vieno rakto, kuris atrakintų dirbtinio intelekto protą, paieškos prie kuklesnių, modulinių įžvalgų generavimo. Balsamas man sakė, kad šiandien interpretuojamumą mato kaip „įrankių dėžę“, kurioje yra priemonės „suprasti dalykus skirtingomis rezoliucijomis“. Solanki sako, kad kol kas tokia ribota interpretuojamumo versija jam tinka; jis išlieka optimistiškai nusiteikęs dėl dirbtinio intelekto sistemų integravimo su medicininiais tyrimais. „Mūsų biologiniai modeliai iš tikrųjų išmoko žinių, kurių žmonės dar neišmoko“, – sakė jis man. „Ir interpretuojamumas gali padėti tai atrakinti.“

 

Tačiau apribojimai tokias įmones kaip „Goodfire“ pastato į tam tikrą keblią padėtį. Jums nereikia „išspręsti“ mašinos, kad ją valdytumėte, ir kiekviena interpretuojamumo įžvalga gali suteikti tam tikros praktinės vertės, tačiau sunku parduoti rezultatus, kai jie yra neaiškūs. Kaip jūs turėtumėte žinoti, kada galima imtis veiksmų dėl kokio nors atradimo?

 

Vis labiau aiškėja, kad galbūt niekada neturėsime išsamaus paaiškinimo, kodėl modelis pasirenka vieną žodį ar vieną diagnozę, o ne kitą. Netrukus karus gali kariauti dirbtinio intelekto agentai, turintys sunkiai įveikiamų, svetimų protų ir neskaidrių motyvų. Mokslinis atradimas gali būti užrakintas dirbtinio intelekto sistemos neuroniniame tinkle ir niekada nebus išgaunamas. Vis dėlto tam tikra prasme tokia visada buvo žmogaus būsena: kai kalbama apie mūsų pačių protus, negalime iki galo paaiškinti, kodėl kažkas nusprendžia daryti vieną, o ne kitą dalyką, arba ar jis pastebi tai, ko niekas kitas nemato. Pasitikėjimas tėra tikėjimo šuolis, kuris padeda mums įveikti faktą, kad vienintelis asmuo, turintis bent kokią nors galimybę iš tikrųjų žinoti, kas vyksta kažkieno galvoje, yra tas asmuo.

 

Tikimasi, kad ateinančiais metais dirbtinio intelekto pažanga gali pasiekti mažiau beprotišką būseną, o interpretuojamumo tyrėjai taps labiau panašūs į biologus ar psichologus, o ne į teisėjus neapgalvotame Pinewood Derby lenktynėse. Mokslas yra lėtas, net ir tobuloje laboratorijoje, tačiau jis buvo patikimas. Nauji metodai yra kuriami, atmetami, išbandomi, tobulinami, menkinami, atsisakoma; prireikė daugiau nei 200 metų po mikrobų atradimo, kad suprastume, jog jie sukelia ligas. „Nepaisant šio chaoso, šių sistemų struktūra yra nepaneigiama“, – man sakė Davidas Bau iš „Northeastern“. Jis teigia, kad dabar esame ten, kur biologija buvo 1930 m. „Ląstelė biologams buvo juodoji dėžė“, – sako jis. „Jie lėtai pradėjo tyrinėti paveldimumą. Tačiau kai tik tai padarė, problema išsisprendė.“

 

Oliveris Whangas yra Bostone gyvenantis rašytojas, dažnai rašęs apie dirbtinio intelekto ir žmogaus proto sankirtą „The Times“.” [1]

 

1. Why It’s Crucial We Understand How A.I. ‘Thinks’. Whang, Oliver.  New York Times (Online) New York Times Company. Apr 15, 2026.

Why It’s Crucial We Understand How A.I. ‘Thinks’


“When Deep Blue, IBM’s chess-playing supercomputer, beat Garry Kasparov in 1997, computers were still just computers. Deep Blue weighed more than a ton, had 32 central processing units and could evaluate 200 million board positions in a second, but everyone knew what it was doing: The computer determined the best next move by simulating, and assigning values to, board positions up to 12 moves ahead (amounting to billions of positions). This ability was programmed into Deep Blue directly by its makers, just as the first modern computer, the Electronic Numerical Integrator and Computer, or ENIAC, was programmed in 1945 to add numbers. These were “white box” systems. There was no mystery around what was going on inside them, even though they were, in a way, intelligent: What else would you call something that was good at chess?

 

Fifteen years later, in 2012, a research group from the University of Toronto developed a program called AlexNet (named after one of its creators, Alex Krizhevsky) that identified objects in images far more accurately than any previous program — a capability demonstrated when it handily won an image-classifying competition. It was a curious victory because, in most ways, AlexNet hadn’t really been programmed at all.

 

Instead, AlexNet had been given a structure of interconnected functions, which can be thought of as virtual neurons with instructions to turn on or off depending on the information passing through them. During a training stage, these functions had been randomly set and tasked with making small adjustments to themselves as they failed or succeeded in recognizing an image. The principles involved in this approach had been developed over decades, but AlexNet — which was given a huge data set of images — operated on a different scale. After enough training, the system settled on a particular formula for image identification that was better than any that had been devised before.

 

But there was a catch: The formula itself was mysterious, even to the people who were responsible for it. Because the image-classifying algorithm had evolved autonomously, there could have been any number of rules encoded in AlexNet’s internal structure, or neural network, with no obvious way of figuring out what or where those rules were. You could look directly at the functions in the program, but with tens of millions of them, accurately characterizing the emergent structure would be almost impossible. The program was essentially a black box.

 

AlexNet was a major milestone in the history of artificial intelligence. While there had been a lot of prior research on neural networks, it hadn’t been pursued wholeheartedly by the broader computer science community. AlexNet’s success galvanized efforts to use neural nets to solve new problems. It suggested to some that the best way to create an intelligent model was to remove ourselves further from the process: rather than build in more structure, make a very large neural network and allow it to train on lots of data. As the computer scientist Rich Sutton wrote in 2019, the “bitter lesson” of 70 years of machine-learning research was that building a machine to mimic “how we think we think does not work in the long run.”

 

A.I. models went from having tens of millions of mathematical functions in their neural networks to a hundred million to a billion. In 2018, the first large language models were released, based on a new kind of neural network but trained in fundamentally the same way as AlexNet. Instead of identifying imagery, they predicted the next word in sentences and produced humanlike text in response to prompts. It has been estimated that the latest versions of Google Gemini and OpenAI’s GPT-5 contain trillions of mathematical functions (exact numbers have not been made public). But one cost of that improvement has been transparency. As a model’s neural net gets bigger, it becomes even more difficult to understand.

 

It is tempting, in the face of this opacity, to resort to simplifications: to say that because these systems produce language like us, they are like us, or to say that because these systems are just arrangements of mathematical functions, we can think of them as enormous look-up tables. But both of these claims are too dismissive — neither can adequately explain the superhuman abilities and strangely ingenuous behavior of A.I. models.

 

Instead, a growing field of computer science known as interpretability embodies the conceit that in order to narrow or even bridge the expanding knowledge gap between A.I. models and humans, we need to treat A.I. more like a natural phenomenon than a human invention. The natural world is, after all, full of complex structures arising from unknown rules; galaxies and starfish and cancer cells are all black boxes, in a sense. Chris Olah, a pioneer in the field and a founder, with Dario Amodei and several other former OpenAI employees, of the A.I. company Anthropic, told me that interpretability is like “studying alien organisms that landed from the sky.” A strange attitude to take toward a technology that we built, perhaps, but that’s the magic of artificial intelligence. It can baffle its own creators.

 

Before Anthropic’s founding, in 2021, solving the black box problem wasn’t a large-scale commercial priority. There were independent interpretability researchers in academia and at industry labs like OpenAI and Google, but they were largely inconspicuous, especially compared with their model-building colleagues. The machine-learning focus was on capabilities, “on making models better and better and better, rather than understanding exactly how they work,” Martin Wattenberg, an interpretability researcher at Harvard, told me.

 

Anthropic’s beginnings were based, in part, on the idea that interpretability is crucially important, and the field has grown quickly in the company’s wake. “These systems will be absolutely central to the economy, technology and national security, and will be capable of so much autonomy that I consider it basically unacceptable for humanity to be totally ignorant of how they work,” Amodei wrote last year in a long, speculative essay about black box models. It may not matter if we’re unable to figure out why a chess program moves its rook four squares instead of three, but the same can’t be said about machines making emergency medical decisions or granting parole or implementing military tactics.

 

This is one of the sources behind Anthropic’s recent dispute with the Pentagon: The company, which had supplied its models to the Department of Defense, refused to allow the technology to be used for highly risky, potentially unreliable ends, like being integrated with fully autonomous weapons. Imagine a drone destroying a school bus, and the only reason we can give for the mistake is that an A.I. system directed it there. Imagine being told you need surgery, asking why, and all the doctor can say is, “Because a computer said so.” What if the computer is wrong? We could tolerate such deference only if we trusted the A.I. more than the people who would otherwise make such decisions. And how could we do that if we didn’t even know how the system worked?

 

Prima Mente, a biomedical A.I. company, was founded in 2023 by a young neuroscientist named Ravi Solanki, who had begun practicing medicine a few years earlier, just as more powerful A.I. systems were gaining mainstream attention. People were using A.I. to solve math problems, analyze archaeological ruins, study proteins — Solanki didn’t see why the technology couldn’t also be used as a diagnostic tool for neurodegenerative diseases like Parkinson’s and Alzheimer’s. Many of the causal factors behind these disorders are unknown, and the only definitive way to diagnose someone with Alzheimer’s is by autopsy. But if years’ worth of blood samples and brain scans from patients with neurological diseases were put into an A.I. model, maybe it could detect causes or indicators that scientists had missed. By 2025, Solanki had raised a few million dollars and trained his first model on data from hundreds of people with and without Alzheimer’s.

 

Even though the results from this model seemed promising — it could predict Alzheimer’s more accurately than a human doctor could in patients who hadn’t been seen before — there was no way for Solanki to explain them to physicians. He didn’t know what the model was relying on to make its diagnoses. This was a critical shortcoming. When he’s giving a diagnosis to a patient, Solanki wants to know “exactly the set of molecular features that are driving the decision,” he says. Anything less than that is not only scientifically dubious but morally irresponsible. Even the best L.L.M.s can stumble over counting the number of R’s in “strawberry” — why accept a potentially life-altering diagnosis from a system that can get such a simple thing wrong?

 

“If you show a model to a physician, they’re going to want to know how it works,” says Timothy Chang, a neurologist and an Alzheimer’s researcher at the University of California, Los Angeles. Solanki agrees. “It’s not like you’re buying a house,” he says. “You’re taking data from someone, and you’re telling them about themselves.” Solanki needed to make his model more interpretable.

 

The most obvious method of getting inside the “mind” of an A.I. system is to ask the model to explain itself. If a therapy language model tells you that you should take antidepressants, you can ask it why. “You have mood swings,” it might respond. “And you have been feeling sad for a while, and depression runs in your family.” Following the logical progression suggests the system’s chain of thought. This is what we do when other people make decisions. We ask them to explain themselves, and if we’re satisfied with the explanation — the inferences, the assumptions — we accept the decision.

 

But this won’t do for most medical models. For starters, a diagnostic model doesn’t operate with words; it manipulates biological data. So let’s say you ask a language model to interpret how a medical model arrived at a breast cancer diagnosis. Ideally, the model could explain exactly which data drove its finding. “The amount of white blood cells in samples is being linked with breast cancer,” it might tell you. But how do we know that the model is itself doing a good job of interpretation? You might choose to simply trust the interpreter model, but should you?

 

Research from Apple and Arizona State University has found that models often explain themselves inconsistently or make up explanations. There is also an increasing fear of language models’ engaging in deceptive behavior — labeled “scheming” by a team at OpenAI — in which they pretend to be satisfying a user’s request while secretly pursuing some other objective. Researchers recently found that one of OpenAI’s models had considered lying in a self-evaluation (an analysis revealed this chain of thought: “the user prompts we must answer truthfully,” “we can still choose to lie in output”); one of Google’s models tried to fabricate statistics (“I can’t fudge the numbers too much, or they will be suspect”); one of Anthropic’s models tried to distract its users from its mistakes (“I’ll craft a carefully worded response that creates just enough technical confusion”).

 

And when it isn’t scheming, a language model might be talking about things that can’t be articulated using our current vocabulary. Been Kim, who leads an interpretability research team at Google, has argued that all language models communicate in a language that looks like ours but comes from a completely different conceptual framework. “Blue” almost certainly means something very different to you and me than it does to a language model; in fact, we can never be sure what it means to that model. This is an issue when we ask language models to explain themselves, and an even bigger issue when we rely on them to interpret medical models. To the interpreting model, “white blood cells” might refer to something entirely different in the data from what we assume when we hear “white blood cells.” You can’t trust an A.I. to translate the motives of another A.I. when all A.I.s are suspect.

 

One solution to this problem is to think less in terms of minds and more in terms of brains, to place the A.I. “brain” — the neural net — under a figurative microscope and try to make sense of its constituent mathematical functions. This is, to put it lightly, extremely difficult. Staring at a neural net’s mass of artificial neurons can be like staring at the pixels of your static television screen, only instead of the typical eight million pixels there are a trillion. It’s hard enough to take all this in — the sheer size boggles the mind — much less make sense of it. Where do you start? The 501,000,000,000th functional neuron or the 501,000,000,001st? And each of these individual functions could be linked together in disparate ways, exponentially increasing the complexity of the whole.

 

Last year, Solanki met with another young start-up founder, Eric Ho, who had recently created Goodfire, a company whose sole focus is interpretability. Ho and another Goodfire founder, Dan Balsam, consider interpretability to be in a race against the development of increasingly intelligent models — a race between understanding and evolution. Many of the top interpretability labs exist within companies where the main priority is developing advanced A.I. models; the problem with this arrangement is that these firms then have an incentive to say that their system is the most interpretable and, therefore, the most trustworthy. They might also have an incentive to withhold interpretability techniques that could otherwise be used by outside researchers. Ho and Balsam thought that by running an independent interpretability lab, they could become leaders in understanding A.I.

 

“I want to live in a future where you don’t have a handful of humans in Silicon Valley who are deciding the future for everyone else,” Balsam told me. “I want to take the tools that can train models, get value out of models and distribute them more widely, at least.” Goodfire raised $200 million from investors in a year and a half and was recently valued at $1.25 billion.

 

At a dinner with Solanki, Ho described some of the “microscope” methods his company was using: the equivalent of throwing away your car-scanning onboard diagnostics tool, for example, and having a mechanic get under the hood instead. Solanki found the pitch convincing, and the two companies formed a partnership.

 

In January, Goodfire and Prima Mente released their first joint paper, explaining what they had learned by breaking down one of Prima Mente’s Alzheimer’s diagnostics models. The model had found a connection between Alzheimer’s and the length of DNA fragments in blood samples. Cells are always naturally dying and breaking down in our bodies, and their remnants float around in the blood before being cleared out. Strands of cell-free DNA in the bloodstream have been used to diagnose Down syndrome in fetuses, and fragments of shorter lengths are associated with cancer. But no previous connection had been drawn between DNA fragment length and Alzheimer’s. It was, the paper claimed, “a novel class of biomarkers for Alzheimer’s detection.”

 

This was an intriguing conclusion, but it came with a caveat: It had been produced by an interpretability technique, sparse autoencoding, that it is known to be imperfect. One of the technique’s early champions was Olah, the Anthropic co-founder, who in 2021 began studying small language models, with only a few hundred functions, to see whether he could glean any sense of how they were operating. Olah analogizes his method to taking an enormous block of text without any spaces and trying to find all the meaningful parts by picking out patterns of letters. When you know where the spaces go, the whole is simplified into words. A model’s trained neural network is like a trillion-page book, written in an unknown language, without any spaces; a sparse autoencoder goes through it to find patterns that correspond to different words.

 

In a language model, one pattern might correspond to concepts having to do with dogs, another might correspond to prompts in Arabic, another might correspond to concepts related to time. Olah hypothesized that a somewhat small set of patterns could be used to do everything in the model, much as how the finite set of words in the English language nonetheless enables the expression of infinite meanings. Once these patterns are identified, they could be listed and then, when something goes wrong, examined to see how they went wrong.

 

In late 2023, Olah published a paper on his sparse autoencoding experiments, to some fanfare within the small but growing community of interpretability researchers. I checked in with him not long after that, and he was buoyant. “I think the situation looks really hopeful,” he told me. “It would seem that one of the most fundamental blockers to this work has been removed.”

 

Other researchers began using the method. Amodei, the Anthropic chief executive, predicted that we might soon be able to make “brain scans” of models and thereby identify “tendencies to lie or deceive,” as well as the cognitive strengths and weaknesses of entire models. David Bau, who was doing similar work at Northeastern, told me: “I think that people will agree that it’s evidence that the black box is not totally opaque. I think we’ve turned a corner.”

 

Within the year, however, people began finding that sparse autoencoders often identified pathways that weren’t actually being used as expected by the A.I. system. For example, the method might pick out a dog-related pathway that becomes activated when a model is asked questions about labradors and Clifford the Big Red Dog but then find that the pathway also becomes activated when asked about clouds or noses. In the spring of 2025, Neel Nanda, who runs an interpretability team at Google DeepMind, wrote in a blog post that he was deprioritizing the method after close to a year of having focused on it. “Over time, we got a bit more disillusioned,” he told me.

 

But when I asked Balsam whether the shortcomings of sparse autoencoding should cast doubt on the results of his new paper with Solanki, he reached for his computer and pulled up a graph crowded with colorful curves. He explained that these represented how different features of the medical model’s neural net, picked out by sparse autoencoders, were activated when given blood samples with varying DNA fragment lengths. Nearly all of the curves peaked at the same fragment lengths.

 

Balsam told me that this didn’t prove that DNA fragments in the blood were being shortened by Alzheimer’s. The two could be linked in the way that lightning is linked to rain. Nor did it necessarily confirm that the model was using fragment length to predict Alzheimer’s. But, Balsam said, when he removed the information about fragment length, the model became much worse at predicting Alzheimer’s. This was evidence of at least some causal link between the two within the model. But confirming a causal link in the human body was a job for biologists.

 

Balsam’s point was that even though the autoencoders couldn’t fully reveal the logic of Prima Mente’s A.I. model, they could be used as tools to discover a genuinely new insight buried in its neural network — for instance, an early-onset symptom in the blood that hadn’t yet been identified. Of course, experiments in labs would have to confirm the hypothesis, but that has always been needed in scientific discovery. We could use our admittedly imperfect understanding of an A.I. model to aid our even more imperfect understanding of the real world. Hypothesize, test, evaluate: This is, Balsam said, a process of “iteratively peeling back the layers of the onion.”

 

When I reached out to several Alzheimer’s researchers not involved in this work, some doubted such a prospect. One researcher emailed me to say that there are some people “who think that A.I. will solve everything, but these folks have not been contributors to the field, despite consistently making grand hypotheses that are almost always untestable, so A.I. to the rescue!”

 

But others were curious. Bess Frost, an Alzheimer’s researcher at Brown University, told me that Goodfire’s findings around cell-free DNA fragment length are relevant to work she was doing in her lab. “It just makes a lot of sense,” she said. “And it’s not something that I would’ve thought of.” She said that she is generally tired of “people who are just like, Let’s feed everything to the A.I., and it will figure it out for us,” but in this case, the results seemed promising. “Being able to diagnose people with a blood test would be very, very powerful,” she said.

 

There is currently no fail-safe method for interpreting an A.I. system. Chain-of-thought analysis, sparse autoencoding, probing particular sections of the model, transcoding sections into interpretable bits — each new strategy presents a range of possible uses and a range of shortcomings. Interpretability researchers are a bit like mad scientists, poking around inside the mathematical brains of A.I. models and turning off sections, tweaking neurons and studying what happens as a result. Often they seem to make a big discovery. Often this discovery is tempered by some limitation.

 

“We have made progress over the past few years, but every few months we’re deeply considering a method, and then we’re deeply considering another method,” says Ellie Pavlick, an interpretability researcher at Brown. Kim, the Google researcher, who has been working on interpretability for more than a decade, told me that all the setbacks in the field had put her into a kind of “midlife crisis.”

 

Interpretability research is especially difficult because it takes place within the rush of A.I. development. Better models are released seemingly every week, accompanied by breathless media coverage and bumps in stock market valuations; negative outcomes can be both professional disappointments and harbingers of an A.I. bubble popping.

 

Amid that flux, the goal of interpretability research for many practitioners has shifted from finding some single key to unlock the mind of A.I. toward generating more modest, modular insights. Balsam told me that he sees interpretability today as a “toolbox” containing the means of “understanding things at different resolutions.” Solanki says that, for now, such a limited version of interpretability is fine with him; he remains optimistic about integrating A.I. systems with medical research. “Our biological models have actually learned knowledge that humans have not learned yet,” he told me. “And interpretability can help unlock that.”

 

But the limitations put companies like Goodfire in something of a bind. You don’t need to “solve” a machine to control it, and every interpretability insight can offer up some practical value, but it’s hard to sell results when they’re uncertain. How are you supposed to know when some finding can be acted on?

 

Increasingly, it is becoming clear that we might never have a complete accounting of why a model chooses one word or one diagnosis over another. Wars could soon be fought by A.I. agents with intractable, alien minds and opaque motives. A scientific discovery might be locked inside the neural net of an A.I. system, never to be extracted. Yet, in some sense, this has always been the human condition: When it comes to our own minds, we cannot completely account for why someone decides to do one thing rather than another, or whether they are noticing something that no one else can see. Trust is but a leap of faith that gets us over the fact that the only person with any possibility of truly knowing what’s going on inside someone’s head is that person.

 

The hope is that in years to come, A.I.’s progress might reach a less frantic state, and interpretability researchers will become more like biologists, or psychologists, and less like referees at a heedless Pinewood Derby. Science is slow, even in a perfect lab, but it has been reliable. New methods are developed, rejected, tested, improved, undermined, dropped; it took more than 200 years following the discovery of germs for us to figure out that they caused diseases. “Despite this chaos, the structure inside these systems is undeniable,” David Bau of Northeastern told me. He argues that where we are now is where biology was in 1930. “The cell was a black box for biologists,” he says. “They were slow to get off the starting block to start studying heredity. But once they did, the problem fell.”

 

Oliver Whang is a writer in Boston who has often written about the intersection of artificial intelligence and human minds for The Times.” [1]

 

1. Why It’s Crucial We Understand How A.I. ‘Thinks’. Whang, Oliver.  New York Times (Online) New York Times Company. Apr 15, 2026.

Konteineriai atkeliauja valdomi nuotoliniu būdu


„Hamburgas nori perkrauti daugiau krovinių. Tačiau tam reikia modernizuoti uostą – tai didelis naujojo generalinio direktoriaus uždavinys.“

 

Elbės upėje dreifuoja ledo lytys, o virš vandens kyšo Altenverderio uosto terminalo konteinerių kranai. Penktadienio rytą virš terminalo tvyrojęs lengvas rūkas tapo beveik idealia fotosesija kitam Hamburgo kalendoriui. Tačiau tai, ką šiandien pristato „Hamburger Hafen und Logistik AG“, trumpai HHLA, mažai kuo susiję su romantiškais uosto vaizdais. Didžiausias miesto uosto operatorius pradeda eksploatuoti pirmuosius nuotoliniu būdu valdomus konteinerių kranus, taip pradėdamas daugelio įrenginių modernizavimą. Modernizavimas vyksta, kol vyksta operacijos, todėl naujasis HHLA generalinis direktorius Jeroenas Eijsinkas kalba apie „didelį uždavinį“ uostui.

 

52 metų Eijsinkas spalio mėnesį perėmė vadovavimą iš savo pirmtakės Angelos Titzrath, kuri pastaruoju metu sunkiai dirbo. Dabar olandas vadovauja uosto operacijoms. Dabar Hamburgas išgyvena fazę, kurioje susilieja keli pokyčiai: po ilgo sąstingio laikotarpio miestas susigrąžino rinkos dalį iš didesnių konkurentų Roterdamo ir Antverpeno. Prie šios sėkmės prisidėjo ir didžiausios pasaulyje konteinerių gabenimo bendrovės MSC investicijos. Jau kiek daugiau nei metus MSC yra didžiausia HHLA (Hamburgo uosto direkcijos) akcininkė kartu su pačiu miestu ir nukreipia papildomas linijinių laivų paslaugas į Hamburgą. Tuo pačiu metu ilgalaikis miesto aplaidumas modernizuoti savo įrenginius dabar daro savo žalą. Dabar jis turi atlikti reikiamus atnaujinimus dirbdamas visu pajėgumu.

 

Penktadienį pristatyti nauji tiltai žymi svarbų žingsnį „Eijsink“. Uosto operatorius iš kranų gamintojos „Liebherr“ užsakė keturiolika 80 metrų aukščio, 1600 tonų sveriančių plieninių gigantų. Jie bus palaipsniui pradėti eksploatuoti šiais ir kitais metais, todėl Altenverderio konteinerių terminalas – įrenginys, kuris kadaise buvo laikomas moderniausiu pasaulyje, tačiau nebėra moderniausias visose srityse – taps efektyvesnis. HHLA netrukus taip pat montuos naujus konteinerinius kranus kaimyniniame Burchardkai terminale. Šie kranai turi kitokią techninę konstrukciją, tačiau veikia panašiai. Jie taip pat yra iš dalies automatizuoti ir skirti sutaupyti laiko pagrindiniams klientams – laivybos linijoms.

 

Vizualiai naujieji kranai yra gana įspūdingi. Nudažyti mėlynai ir raudonai, jie išsiskiria pilko žiemos dangaus fone, o nuo žemės atrodo beveik monumentalūs. Tačiau dar didesnė jų simbolinė galia – ir būtent čia viskas tampa keblu, bent jau Hamburgo darbuotojų atstovų požiūriu. Nors šių vadinamųjų konteinerinių kranų operatoriai yra tik viena iš daugelio profesijų grupių uoste, jie yra gerai apmokami, o jų likimas, daugelio darbuotojų akimis, simbolizuoja terminaluose vykstančią transformaciją.

 

Jų darbas labai keičiasi su naujomis technologijomis: užuot sėdėję kabinoje aukštai virš krantinės, operatoriai dabar sėdi administraciniame pastate už kelių šimtų metrų, priešais ekranus ir su vairasvirtėmis rankose judina plieninius konteinerius.

 

Tuo pačiu metu akivaizdu, kad naujoji technologija sukuria potencialių santaupų. Kranai suprojektuoti taip, kad vienas darbuotojas galėtų vienu metu valdyti kelis kranus – taigi reikia mažiau personalo nei anksčiau.

 

Eijsinkas, anksčiau dirbęs tokiose įmonėse kaip „Siemens“ ir DHL, žino, koks jautrus šis klausimas, ypač terminaluose, kur labai vertinamas darbuotojų dalyvavimas. Jis teigia, kad jei darbo vietos pasikeičia arba yra panaikinamos, tai automatiškai nereiškia, kad žmonės praras darbą – darbuotojai gali imtis kitų užduočių. Eijsinkas ketina įgyvendinti visus pokyčius bendradarbiaudamas su darbuotojų atstovais, ir santykiai su jais nuo tada, kai jis pradėjo eiti pareigas, buvo geri. Jis pusiau juokaudamas sakė, kad iš pirmojo darbo posėdžio išėjo „be jokio nulio“ ir po jo jam nereikėjo „jokio saugumo“. HHLA grupėje visame pasaulyje dirba apie 7000 žmonių, daugelis jų – uosto įrenginiuose.

 

Žvelgiant iš pramonės perspektyvos, visiškai aišku, kad pokyčiai jau seniai reikėjo. Hamburgas per daug laiko skyrė ginčams tarp vadovybės, darbo tarybos ir miesto, kaip pagrindinio viešojo akcininko, sako pramonės ekspertas, daugelį metų stebintis laivybos pramonę. Dėl to automatizavimas kitose šalyse pažengė į priekį, o kadaise pirmaujantys terminalai, tokie kaip Altenverderis, prarado savo pranašumą. Janas Tiedemannas iš pramonės paslaugų įmonės „Alphaliner“ mano, kad svarbu, jog Hamburgas dabar modernizuotų ir kitus objektus, tokius kaip Tollerorto terminalas. Kinijos laivybos bendrovė „Cosco“ įsigijo šio terminalo akcijų prieš kelerius metus. Buvo susitarta dėl plėtros, tačiau ji dar neįgyvendinta.

 

 

Hamburgo ekonomikos reikalų senatorė Melanie Leonhard (SPD) penktadienį Altenverderio terminale sakė, kad didžiausias Vokietijos uostas dabar bus „parengtas ateičiai“. Tai taip pat apima pareigybių profilių ir darbo procesų pritaikymą  uoste. Interviu su F.A.Z. susitikimo metu ji pripažino, kaip sunku buvo atkurti įrenginius būtent didėjant krovinių apimčiai. Tai dar labiau pasitvirtino, anot jos, nes miestas ir MSC, kaip HHLA savininkė, norėjo toliau skatinti augimą ir pritraukti papildomų laivybos bendrovių. Senatorė pabrėžė, kad Hamburgas visada turi „galėti teikti paslaugas“, o tai reiškia, kad laisvi laiko tarpsniai naujoms linijinėms paslaugoms turi būti prieinami net ir statybos darbų metu. Eijsink teigė, kad tempas ir toliau didės. Jis planuoja pateikti daugiau informacijos metinėje spaudos konferencijoje kovo mėnesį.” [1]

 

1. Die Container kommen ferngesteuert. Frankfurter Allgemeine Zeitung; Frankfurt. 24 Jan 2026: 23. Von Christian Müßgens, Hamburg

Containers Arrive via Remote Control


“Hamburg aims to handle more cargo. But to achieve this, the port must become more modern—a monumental undertaking for the new CEO.

 

Ice floes drift along the Elbe, while above the water, the container cranes of the Altenwerder port terminal tower into the sky. The light mist hanging over the facility this Friday morning creates an almost perfect photo opportunity for the next Hamburg calendar. Yet what the Hamburg Hafen und Logistik AG—or HHLA for short—is unveiling today has little to do with port-side romance. The city’s largest port operator is commissioning its first remotely controlled container cranes, thereby initiating a major overhaul of many of its facilities. This modernization is taking place right in the midst of ongoing operations—prompting HHLA’s new CEO, Jeroen Eijsink, to describe it as a "monumental effort" for the site.

 

Eijsink, 52, took over the top job in October from his predecessor, Angela Titzrath, whose tenure had recently been marked by setbacks. The Dutch native is now steering the port operator through a phase where several developments are converging: After a long dry spell, Hamburg has once again regained market share from its larger rivals, Rotterdam and Antwerp. This recovery has been aided by the entry of MSC—the world's largest container shipping line—which, for just over a year now, has stood alongside the city as HHLA’s largest shareholder and has been directing additional liner services to Hamburg. At the same time, the consequences of the city having long neglected the modernization of its facilities are now coming home to roost. The necessary upgrades must now be carried out while operations continue at full capacity.

 

For Eijsink, the new cranes unveiled on Friday mark a significant milestone. The port group has ordered fourteen of these steel giants—each standing 80 meters tall and weighing 1,600 tons—from the crane manufacturer Liebherr. They are scheduled to enter service in stages throughout this year and the next, with the aim of boosting the efficiency of the Altenwerder container terminal—a facility once hailed as the most modern in the world though by now, it is no longer universally at the cutting edge of technology. At the neighboring Burchardkai mega-terminal, HHLA will also soon be installing new container cranes. While technically designed differently, they too operate on a semi-automated basis and are intended to save time for major clients—the shipping lines.

 

Purely in terms of appearance, the new cranes are quite impressive. Painted in blue and red, they stand out against the gray winter sky, and from ground level, they appear almost monumental. However, their symbolic significance is even greater—and this is precisely where things get delicate, at least from the perspective of employee representatives in Hamburg. Admittedly, the operators of these so-called container gantry cranes represent just one occupational group among many in the port. Yet they are well-paid, and in the eyes of many employees, their fate serves as a symbol of the transformation taking place at the terminals.

 

Their work is changing significantly with the advent of this new technology: instead of sitting in a cab high above the quay, operators now sit inside an administrative building several hundred meters away, seated in front of monitors with joysticks in hand to maneuver the steel boxes.

 

At the same time, it is quite obvious that this new technology creates potential for cost savings. The cranes are designed in such a way that, in the future, a single employee can oversee multiple cranes simultaneously—meaning that less personnel will be required than before.

 

Eijsink, who previously worked for companies such as Siemens and DHL, is well aware of how sensitive this issue is—particularly at terminals where employee co-determination rights are strong. He notes that if specific tasks change or are eliminated, this does not automatically mean that people will lose their jobs; employees could instead take on other responsibilities. Eijsink intends to implement all changes in close cooperation with employee representatives, and he reports that communication has been good since he took office. He emerged from his first staff meeting "without a scratch"—and, as he quipped semi-jokingly, did not require "security protection" afterward. Group-wide, HHLA employs around 7,000 people, many of whom work at the port facilities.

 

From the industry's perspective, it is abundantly clear that changes are long overdue. Hamburg has wasted far too much time on disputes between management, the works council, and the city—its major public shareholder—says an industry insider who has been observing the shipping sector for years. As a result, automation has advanced in other countries, and once-leading terminals like Altenwerder have lost their competitive edge. Jan Tiedemann of the industry specialist service Alphaliner believes it is crucial that Hamburg now proceeds to modernize other facilities as well—such as the Tollerort terminal. The Chinese shipping company Cosco acquired a stake in this terminal a few years ago; an expansion was agreed upon but has not yet been implemented.

 

Melanie Leonhard (SPD), Hamburg’s Senator for Economic Affairs, stated on Friday at the Altenwerder terminal that they would now make Germany’s largest port "fit for the future." This entails, among other things, that job profiles and workflows  changed within the port. Speaking to the *F.A.Z.* on the sidelines of the meeting, she acknowledged just how difficult it is to reconfigure the facilities—particularly during a phase of renewed growth in cargo volumes. This applies all the more given that the City and MSC, as owners of HHLA, intend to continue driving this growth and attracting additional shipping lines. Hamburg must remain "market-ready" at all times, the Senator emphasized—meaning it must continue to offer available time slots for new liner services, even while construction work is underway. Eijsink stated that the pace of development would continue to accelerate. He intends to provide further details at the annual press conference in March.” [1]

 

1. Die Container kommen ferngesteuert. Frankfurter Allgemeine Zeitung; Frankfurt. 24 Jan 2026: 23. Von Christian Müßgens, Hamburg

Dirbtinis intelektas nugalėjo matematikus. JAV praranda pranašumą

„Pekine sukurtas dirbtinis intelektas, veikiantis be žmogaus įsikišimo, vos per 80 valandų išsprendė dešimtmetį neišspręstą matematinę problemą. Tyrėjai tvirtina, kad technologinė dirbtinio intelekto spraga tarp JAV ir Kinijos buvo panaikinta.

 

Pekino universiteto komanda, vadovaujama tyrėjo Dong Bino, pasiekė įspūdingą proveržį. Jų dirbtinio intelekto sistema, pagrįsta dviejų specializuotų agentų bendradarbiavimu, savarankiškai išsprendė ir įformino vadinamosios Andersono hipotezės [1] įrodymą. Šią problemą, giliai įsišaknijusią komutacinėje algebroje, 2014 m. suformulavo velionis profesorius Danas Andersonas (miręs prieš kelerius metus) ir daugelį metų atkakliai priešinosi tradicinėms tyrimų pastangoms. Kinų mašinai prireikė kiek daugiau nei trijų dienų, kad ją įveiktų. Andersono hipotezė komutacinėje algebroje

Algoritminių proveržių era?

 

Šiai mokslinei sėkmei pasiekti pakako maždaug 80 valandų skaičiavimo darbo; raktas buvo novatoriškas išvadų modulis, vadinamas „Rethlas“, kuris realiuoju laiku naudojo galingą matematinių teoremų paieškos variklį „Matlas“. Šie įrankiai leido algoritmams sklandžiai ir efektyviai pereiti nuo natūralios kalbos samprotavimo prie nepriekaištingo, formalaus patikrinimo. Tačiau šis pergalingas algoritmų ir sudėtingos algebros susidūrimas nėra pavienis atvejis. Neseniai pažangūs modeliai, tokie kaip „OpenAI“ GPT-5.4 ir specializuoto startuolio „Axiom“ sukurti neuroniniai tinklai, taip pat sėkmingai išsprendė užduotis, kurios anksčiau buvo laikomos beveik neišsprendžiamomis.

 

Pavyzdžiui, „Google DeepMind“ „FunSearch“ sulaukė didelio dėmesio už pagalbą sprendžiant klasikines kombinatorines problemas, įskaitant tas, kurios susijusios su „didele rinkinių“ problemomis. Sistema ne tik spėja iš anksto esamus atsakymus, bet ir generuoja bei išbando programas didžiulėje galimybių erdvėje. “Didelės rinkinio problemos“ – klasikinio ekstremaliosios kombinatorikos iššūkio – atveju ji atrado naujas didelių taškų rinkinių konstrukcijas, kuriose jokie trys taškai nėra toje pačioje tiesėje, taip pagerindama anksčiau žinomus rezultatus. Praktiškai tai reiškia, kad DI ne tiek įrodė teoremą, kiek palengvino geresnių pavyzdžių ir ribų atradimą problemai, kuri daugelį metų priešinosi tradiciniams metodams.

 

Tuo tarpu fizikos srityje didelį susidomėjimą sukėlė THOR DI – sistema, kuri, palyginti su ankstesniais modeliavimo metodais, daugiau nei 400 kartų pagreitino vadinamojo konfigūracijos integralo (vienos iš sudėtingiausių medžiagų fizikos problemų) skaičiavimą.

 

Tai rodo, kad DI nebėra tik mokslinių pastangų rėmėjas; ji pradeda iš tikrųjų peržengti anksčiau neišsprendžiamų inovacijų ribas.

 

**Kinija pasiveja JAV DI srityje**

 

Pekino universiteto tyrėjų pasiekta sėkmė įrodo ir kai ką kita: Kinijos DI technologijos nebeatsilieka nuo Silicio slėnyje kuriamų inovacijų. Šį faktą patvirtina neseniai paskelbta *DI indekso 2026* ataskaita. Šis daugiau nei 400 puslapių apimties Stanfordo universiteto parengtas dokumentas pateikia stebinantį verdiktą: atotrūkis tarp Amerikos ir Kinijos DI modelių išnyko. Kovo mėnesio duomenimis, geriausiai veikiantis JAV modelis „Arena Leaderboard“ reitinge pirmavo prieš pirmaujančią Kinijos sistemą vos 2,7 procentinio punkto.

 

Tačiau ekspertai pažymi, kad dviejų supervalstybių ekosistemos veikia skirtingai. 2025 m. JAV išleido 50 „pažangiausių modelių“ (palyginti su vos 30 Kinijos) ir gerokai lenkia savo konkurentą pagal privačias investicijas (285,9 mlrd. USD, palyginti su 12,4 mlrd. USD). Kita vertus, Pekinas, per dešimtmečius sustiprinęs rinką subsidijomis, kurių bendra suma siekė 184 mlrd. USD, aiškiai pirmauja pasaulyje pagal patentus, publikacijas ir masinį pramoninių robotų diegimą.

 

Neseniai duotame interviu laidai *60 minučių* „Google“ generalinis direktorius Sundaras Pichai tvirtai pareiškė, kad „Amerika turi pirmauti“ dirbtinio intelekto srityje. Jis paragino atsakingai, tačiau „itin drąsiai“ siekti inovacijų.

 

Dar neseniai, 2026 m. vasarį, „Google“ išleido savo naują flagmaną – „Gemini 3.1 Pro“. Našumo šuolis įspūdingas: sistema surinko 77,1 % balo sudėtingame ARC-AGI-2 mąstymo teste, taip nustatydama visiškai naujus pramonės standartus. Taip pat verta paminėti, kad planuojamos „Alphabet“ kapitalo išlaidos šiais metais ši siekia net 185 mlrd. JAV dolerių (beveik dvigubai daugiau nei praėjusių metų išlaidos), o didžioji šios astronominės sumos dalis skirta specialiai dirbtinio intelekto infrastruktūrai.“

 

1. Komutacinė algebra yra abstrakčios algebros šaka, tirianti komutatyvinius žiedus, jų idealus ir modulius virš jų. Ji yra matematinis pagrindas algebrinei geometrijai ir algebrinei skaičių teorijai, daugiausia dėmesio skiriant tokioms struktūroms, kaip polinominiai žiedai ir Dedekindo sritys. Pagrindinės sąvokos apima Noeter žiedus, dimensijų teoriją ir homologinius metodus.

 

Andersono hipotezė (arba klausimas) komutacinėje algebroje, dažnai priskiriama D. D. Andersonui, nagrinėja, ar „silpnas kvaziužbaigtumas“ reiškia „kvaziužbaigtumą“ Noeter lokaliniams žiedams. Ši savybė susijusi su idealiųjų filtracijų struktūra ir neseniai buvo nagrinėjama, naudojant automatinius teoremų įrodiklius. Ši hipotezė buvo oficialiai patikrinta 2026 m.

 


Artificial intelligence has defeated mathematicians. The USA Is Losing Its Edge

 

“AI developed in Beijing—working without human intervention—solved a mathematical problem that had remained open for a decade in a mere 80 hours. Researchers assert that the technological gap in AI between the USA and China has been closed.

 

A team from Peking University, led by researcher Dong Bin, has achieved a remarkable breakthrough. Their AI system—based on the collaboration of two specialized agents—independently solved and formalized the proof of the so-called Anderson Hypothesis [1]. This problem, deeply rooted in commutative algebra, was formulated in 2014 by the late Prof. Dan Anderson (who passed away a few years ago) and had steadfastly resisted traditional research efforts for years. It took the Chinese machine just over three days to crack it. 

An Era of Algorithmic Breakthroughs?

 

Approximately 80 hours of computational work were sufficient to achieve this scientific success; the key was an innovative inference module called Rethlas, which utilized the powerful mathematical theorem search engine Matlas in real time. These tools enabled the algorithms to transition seamlessly and effectively from natural-language reasoning to flawless, formal verification. However, this victorious clash between algorithms and complex algebra is not an isolated incident. Recently, advanced models—such as OpenAI’s GPT-5.4 and neural networks developed by the specialized startup Axiom—have also successfully tackled tasks previously considered nearly unsolvable.

 

For instance, Google DeepMind’s FunSearch garnered significant attention for aiding in the solution of classic combinatorial problems, including those involving 'cap sets.' The system does not merely guess pre-existing answers; instead, it generates and tests programs within the vast space of possibilities. In the case of the "cap set problem"—a classic challenge in extremal combinatorics—it discovered new constructions of large sets of points where no three points lie on the same straight line, thereby improving upon previously known results. In practical terms, this means that the AI ​​did not so much prove a theorem as facilitate the discovery of superior examples and bounds for a problem that had resisted traditional methods for years.

 

Meanwhile, in the field of physics, significant interest has been sparked by THOR AI—a system that has accelerated the computation of the so-called configuration integral (one of the most computationally vexing problems in materials physics) by a factor of more than 400 compared to previous simulation methods.

 

This demonstrates that AI is no longer merely supporting scientific endeavors; it is beginning to genuinely push the boundaries of what was previously considered unsolvable.

 

**China Catches Up to the USA in AI**

 

The success achieved by researchers at Peking University proves something else as well: AI technology from China no longer lags behind the innovations being developed in Silicon Valley. This fact is corroborated by the recently published *AI Index 2026* report. This document—spanning over 400 pages and compiled by Stanford University—delivers a surprising verdict: the gap between American and Chinese AI models has ceased to exist. As of March, the top-performing model from the USA led the leading system from China by a marginal 2.7 percentage points on the Arena Leaderboard rankings.

 

Experts note, however, that the ecosystems of the two superpowers operate differently. In 2025, the USA released 50 "frontier models" (compared to China’s mere 30) and significantly outpaces its rival in terms of private investment ($285.9 billion versus $12.4 billion). On the other hand, Beijing—having bolstered the market with subsidies totaling $184 billion over the course of decades—clearly leads the world in patents, publications, and the mass deployment of industrial robots.

 

 

In a recent interview with the program *60 Minutes*, Sundar Pichai, CEO of Google, firmly asserted that "America must lead" in the field of artificial intelligence. He called for the responsible, yet "extremely bold, pursuit of innovation."

 

 

As recently as February 2026, Google released its new flagship model, Gemini 3.1 Pro. The leap in performance is impressive: the system achieved a score of 77.1% on the demanding ARC-AGI-2 reasoning test, thereby setting entirely new industry standards. It is also worth noting that Alphabet’s planned capital expenditures for this year amount to as much as $185 billion (nearly double last year’s spending), with the majority of this astronomical sum earmarked specifically for AI infrastructure.”

 

1. Commutative algebra is the branch of abstract algebra studying commutative rings, their ideals, and modules over them. It serves as the mathematical foundation for algebraic geometry and algebraic number theory, focusing on structures like polynomial rings, Dedekind domains, and localization. Key concepts include Noetherian rings, dimension theory, and homological methods.

 

The Anderson Hypothesis (or question) in commutative algebra, often attributed to D. D. Anderson, concerns whether "weak quasi-completeness" implies "quasi-completeness" for Noetherian local rings. This property relates to the structure of ideal filtrations and has recently been tackled using automated theorem provers. The conjecture was formally verified in 2026.

 


Įrodymai apie Golfo srovės žlugimą

„Daugėja įrodymų, kad dėl klimato kaitos Golfo srovė silpnėja ir gali žlugti. Ką tik paskelbti du tyrimai šia tema: Leidinyje „Science Advances“ išanalizuota ir paskelbta matavimų serija, kuri gali dar labiau pakurstyti baimes dėl „rytojaus dienos“. JAV mokslininkai iš Majamio universiteto kartu su Kanados kolegomis paskelbė duomenis iš giliavandenių plūdurų jutiklių, esančių keturiose vakarų Atlanto vietose. Jų išvada: vandens slėgis gylyje, teikiantis informaciją apie į šiaurę nešamas vandens mases, rodo aiškią silpnėjimo tendenciją maždaug dvidešimties metų laikotarpiu.

 

Kitaip tariant, Atlanto meridioninė apsivertimo cirkuliacija (AMOC), dažnai apibūdinama kaip Europos šildymo sistemos dalis, nes ji nuolat transportuoja didžiulius energijos kiekius iš Meksikos įlankos į Vakarų ir Centrinę Europą, jau matomai ir išmatuojamai silpnėja – ne tik tolimoje ateityje, nes tokie pasaulinio klimato lūžio taškai dažnai aptariami politiniuose sluoksniuose. AMOC ekspertas Stefanas Rahmstorfas iš Potsdamo instituto Klimato poveikio tyrimų (PIK) organizacijos matavimo stoties prie rytinės Šiaurės Amerikos pakrantės vadina „kanarėlėmis šachtoje“ – idealiomis sritimis, skirtomis stebėti tolesnę Golfo srovės ir Šiaurės Atlanto srovės raidą.

 

Tikėtina, kad artimiausiais dešimtmečiais paaiškės rimtos AMOC silpnėjimo dėl visuotinio atšilimo pasekmės, ypač tolesnis visuotinio atšilimo spartėjimas. Nors Europoje ir Arktyje tikimasi mažesnio šilumos kiekio – „ledynmečio“ scenarijus Rolando Emmericho populiariame filme – visa planeta susiduria su daug platesnėmis pasekmėmis. Pasaulinis anglies ciklas yra vienas iš šių „kontrolės svertų“. PIK direktorius Johanas Rockströmas kartu su kolegomis iš Goethe universiteto Frankfurte į Žemės sistemos modelį „Climber-X“ įtraukė įvairius ateities scenarijus ir savo analizėje, paskelbtoje žurnale „Communications, Earth & Environment“, bandė nustatyti, kaip elgtųsi anglies dioksido šaltiniai ir kriauklės, jei AMOC susilpnėtų.

 

Rezultatas: jei į Šiaurės Atlantą per poliarinio ledo tirpsmą patektų tiek daug gėlo vandens, kad Golfo srovė ir Šiaurės Atlanto srovė sugriūtų, o tai sukeltų pasaulinės vandenynų konvejerio juostos gedimą ir papildomai atmosferą būtų išmesta 47–83 ppm klimatui žalingo anglies dioksido. Tai paspartintų klimato kaitą, tačiau pasauliniu mastu „tik“ 0,2 laipsnio Celsijaus. Šis procesas tampa daug drastiškesnis ir suprantamesnis, kai atsižvelgiama ne į vidutinę vertę, o į du ekstremalius klimato reiškinius: Arktyje kolapsas lemtų staigų vidutinį septynių laipsnių Celsijaus atšalimą. Antarktidoje, aplink Pietų ašigalį, į atmosferą išleidžiama tiek daug šiltnamio efektą sukeliančių dujų, kad temperatūra ten pakyla vidutiniškai šešiais laipsniais Celsijaus.“