Sekėjai

Ieškoti šiame dienoraštyje

2026 m. gegužės 2 d., šeštadienis

Vėžio ligos apgaulės kodas


„VĖŽYS YRA tikros biologinės apgaulės fenomenas. Nors dauguma sveiko gyvūno kūno ląstelių sugyvena laikydamosi tų pačių genetinių taisyklių, vėžio ląstelės jas begėdiškai ignoruoja. Pavyzdžiui, sveikos ląstelės gali replikuotis tik apie 50 kartų, o tada nustoja veikti. Tuo tarpu vėžio ląstelės turi mutaciją, kuri leidžia joms dalytis neribotą laiką. Tačiau naujausi tyrimai atskleidė visiškai naują onkologinių išdaigų lygį. Dabar atrodo, kad daugelis vėžio ląstelių taip pat nustojo paklusti Mendelio paveldėjimo dėsniams, paaiškindami, kodėl daugelis vėžio rūšių gali išsivystyti atsparumą chemoterapiniams vaistams, regis, antgamtiniu greičiu.

 

Šie dėsniai, kuriuos XIX amžiuje sukūrė augustinų vienuolis Gregoras Mendelis, apibūdina, kaip paveldimi bruožai perduodami iš kartos į kartą, nustatydami ribas, kaip vaikai gali skirtis nuo savo tėvų. Pirmieji Mendelio eksperimentai buvo atlikti su žirniais vienuolyno sode, tačiau vėliau nustatyta, kad jo dėsniai taikomi viskam – nuo ​​žmogaus ūgio iki atskirų ląstelių atsparumo ligoms.

 

Kaip šios savaitės straipsnyje žurnale „Cell“ aprašo Paulas Mischelis iš Stanfordo universiteto, kai kurios vėžio ląstelės atsisako dalyvauti. Jo darbas atskleidžia, kad maždaug 20 % žmonių vėžio mėginių dalis DNR ištrūksta iš chromosomų, prie kurių ji paprastai yra susijungusi, ir suformuoja mažyčius, apskritus ekstrachromosominės DNR (ekDNR) kūnus, kurie išsibarsto po ląstelės branduolį. Taip išsibarsčiusios, jos nebepatiria griežtos mitozės, įprasto proceso, kurio metu chromosomos dalijasi į dvi identiškas kopijas, po vieną kiekvienai dukterinei ląstelei, dėsnių. Tai suteikia nenuspėjamumo genų paveldėjimui, todėl mutacijos gali vykti greičiau ir dramatiškesniu mastu.

 

Toks ląstelių triukas anksčiau buvo pastebėtas bakterijose ir grybuose, kurie naudoja šiuos triukus, kad išsiugdytų atsparumą vaistams. Tačiau tik 2012 m., kai dr. Mischel pradėjo tyrinėti šią temą, vėžio ląstelės pasirodė esančios tokios pat klastingos. Nuo tada jis ir jo kolegos nustatė, kad ekDNR fragmentuose gausu informacijos apie gynybos mechanizmus, kuriuos vėžio ląstelė gali naudoti, kad greitai daugintųsi ir išvengtų sunaikinimo. Taip gali būti todėl, kad ląstelės, turinčios tokią ekDNR, dauginasi lengviau. Tai neabejotinai padidina kenksmingų naujų ląstelių atsiradimo tikimybę. bruožai atsiranda greičiau, nei leistų Mendelio taisyklės.

 

Tai taip pat atskleidžia galimą pažeidžiamumą. Dr. Mischel glaudžiai bendradarbiavo su Howardu Changu, biotechnologijų bendrovės AMGEN vyriausiuoju mokslo pareigūnu, kad atskleistų, jog dukterinės ląstelės gali pasinaudoti ekDNR tik tuo atveju, jei šie žiediniai fragmentai po mitozės gali susipinti atgal į savo chromosomas. EkDNR tai daro pasitelkdama sudedamąsias „inkaro baltymus“, kurie grąžina ją į chromosomas, ir specifines DNR sekas, kurios leidžia jai vėl integruotis į jas.

 

Dr. Mischel šias sekas ir inkaro baltymus laiko pagrindiniais būsimo gydymo taikiniais. „Vaistų, kurie jas išjungia arba sunaikina, įvedimas turėtų palikti ekDNR pasyvią ir pašalinti jos teikiamą naudą naviko ląstelėms“, – sako jis. Šis darbas dar tik pradinėje stadijoje, nors dr. Mischel teigia, kad kai kurie tinkami inkaro baltymai jau yra identifikuoti. Klinikiniai tyrimai dar laukiami.

 

Nors ekDNR gali būti svarbi kaip mechanizmas, paaiškinantis kai kurių agresyvių vėžio formų elgesį, „būtų pernelyg supaprastinta sakyti, kad tai vienintelis veiksnys“, – sako Lillian Siu, Amerikos vėžio tyrimų asociacijos prezidentė. onkologė Princesės Margaret vėžio centre Toronte. Jos nuomone, paprastos mutacijos, kurias sukelia genomo nestabilumas ir defektyvūs DNR taisymo darbai, prisideda prie ekDNR atsiradimo, o tai savo ruožtu gali sustiprinti tokį nestabilumą. Net jei inkarinių baltymų išjungimas gali sulėtinti greitą ekDNR skatinamą evoliuciją, jėgos, kurios iš pradžių sukelia jos atsiradimą, greičiausiai, išliks.“ [1]

 

1. Cancer’s cheat code. The Economist; London Vol. 459, Iss. 9495,  (Apr 18, 2026): 86.

Vakarai pralaimėjo dirbtinio intelekto taikymo srityje. Vakarai naudojasi Irano naftos transporto į Kiniją blokada ir Mythos momentu, bandydami sustabdyti dirbtinį intelektą


Remiantis 2026 m. ataskaitomis, pasaulinė dirbtinio intelekto aplinka išgyvena reikšmingą transformaciją, kuriai būdinga didėjanti konkurencija, kai Jungtinės Valstijos susiduria su vis didėjančiu atotrūkiu nuo Kinijos praktinio, pramoninio masto diegimo srityje. Nors JAV pirmauja pagal bendras privačias dirbtinio intelekto investicijas arba atliekas (258,9 mlrd. USD, palyginti su 12,4 mlrd. USD 2025 m.), Kinija beveik panaikino JAV lyderystę dirbtinio intelekto tyrimuose, o tokie modeliai kaip „DeepSeek-R1“ atitinka geriausias Vakarų sistemas (pvz., „Anthropic“ „Claude“).

 

DI taikymo lenktynės ir strateginė konkurencija

 

Sparčiai besivystanti Kinija: Kinija teikia pirmenybę dirbtinio intelekto integravimui į savo fizinę ekonomiką, diegdama dirbtinio intelekto varomus pramoninius robotus beveik devynis kartus greičiau nei JAV. Kinijos įmonės pasiekia didelio našumo dirbtinio intelekto rezultatus už daug mažesnę kainą, todėl jos yra konkurencingos su Vakarų uždarojo kodo modeliais.

 

„Blokados“ kontekstas: JAV agresyviai naudoja ekonomines sankcijas ir jūrų kontrolę, siekdama trukdyti Kinijos technologinei pažangai. Nuo 2026 m. balandžio mėn. JAV įvykdė jūrų blokadą Hormūzo sąsiauryje, konkrečiai taikydama tanklaivius, gabenančius Irano naftą į Kiniją, kuri laikoma svarbia Kinijos dirbtinio intelekto infrastruktūros tiekimo grandine.

 

„Padaryti daugiau su mažiau“: Ataskaitose teigiama, kad Kinijos dirbtinio intelekto kūrėjai tampa efektyvesni, kurdami modelius, kurie beveik prilygsta JAV pajėgumams, tačiau turi gerokai mažesnius biudžetus.

 

„Mito akimirka“ ir susirūpinimas dėl dirbtinio intelekto saugumo

 

„Anthropic“ „Mythos“: 2026 m. balandžio mėn. dirbtinio intelekto bendrovė „Anthropic“ savo naują modelį „Mythos“ įvardijo kaip pernelyg pavojingą viešam paskelbimui. Tai buvo apibūdinta kaip „lūžio taškas“ arba „mitos akimirka“.

 

Autonominės galimybės: „Mythos“ pademonstravo gebėjimą savarankiškai identifikuoti tūkstančius anksčiau nežinomų („nulinės dienos“) saugumo spragų pagrindinėse operacinėse sistemose ir interneto naršyklėse, sukeldamas baimę, kad jis gali būti panaudotas didelio masto kibernetinėms atakoms. Technologijų kontrolė: Šis momentas žymi pokytį, kai Vakarų kūrėjai riboja elitinių, didelio pajėgumo dirbtinio intelekto modelių naudojimą, ribodami viešą prieigą ir nukreipdami dėmesį į „apsaugotų“ dirbtinio intelekto sistemų kūrimą patikrintoms įmonėms, siekiant apsisaugoti nuo išnaudojimo.

 

Geopolitinė dinamika

 

Blokados poveikis: JAV Irano uostų blokada, prasidėjusi 2026 m. balandžio viduryje, privertė Kiniją pasikliauti savo „šešėliniu laivynu“ naftos gabenimui, nors šias pastangas iš dalies nutraukė JAV perėmimas.

Įtampa prekybos srityje: JAV tuo pačiu metu įvedė sankcijas didelei Kinijos naftos perdirbimo gamyklai ir daugeliui laivybos įmonių, padidindamos įtampą prieš aukšto lygio susitikimus tarp dviejų šalių.

Fizinis ir skaitmeninis: Nors JAV išlaiko pranašumą kuriant didelius kalbinius modelius (LLM), konkurencija skyla. Kinija daugiausia dėmesio skiria „fiziniam dirbtiniam intelektui“ ir robotikai, o JAV – savo patentuotų skaitmeninių modelių apsaugai.

Sąnaudų efektyvumas ir efektyvumas: Kinijos modeliai sukurti „sklaidai“, o ne tik „tobulumui“, daugiausia dėmesio skiriant didelio našumo išvadoms už nedidelę Amerikos modelių kainos dalį. Juose naudojamos „ekspertų mišinio“ architektūros ir pažangios kvantavimo technikos, kurios žymiai sumažina mokymui ir diegimui reikalingus skaičiavimo išteklius.

 

Vietinis diegimas ir duomenų privatumas: Pagrindinis privalumas yra galimybė atsisiųsti ir paleisti šiuos modelius vietoje, leidžiant įmonėms išlaikyti duomenų suverenitetą, išvengti priklausomybės nuo tiekėjo ir laikyti jautrius nuosavybės teise saugomus duomenis savo infrastruktūroje.

 

Našumo spragų panaikinimas: Našumo spragų tarp JAV ir Kinijos modelių iš esmės sumažėjo, o geriausi Kinijos modeliai siūlo panašias galimybes daugumai realaus pasaulio užduočių (pvz., kodavimas, klientų aptarnavimas, RAG).

 

Ekosistema ir kūrėjų palaikymas: Kinijos įmonės kuria „pasaulinį sklaidos variklį“ taikydamos leidžiamąsias licencijas, todėl jų modeliai yra numatytasis atspirties taškas daugumai kūrėjų. Apibendrinant, Vakarai naudojasi savo kontrole itin svarbioje infrastruktūroje (pvz., laivybos keliuose ir aukščiausios klasės lustų tiekimo grandinėse) ir griežtai kontroliuoja pažangiausius dirbtinio intelekto modelius („Mito akimirka“), kad galėtų valdyti konkurencinę pusiausvyrą, atsižvelgiant į spartų Kinijos diegimą realiojoje ekonomikoje. Kinijos atvirojo kodo modeliai kuriami su daug mažiau atliekų, pigiau diegiami vietoje, o komercinės paslaptys saugomos savininkų aparatinėje įrangoje. Štai kodėl Kinijos technologijos yra pageidaujamos visame pasaulyje. Vakarai lieka stovėti ir šaukti, koks pavojingas yra dirbtinis intelektas:

 

„AR SAUGELIAI VYRŲ REIKĖTŲ patikėti galingiausią pasaulyje naują technologiją? Penki tokie garsūs keistuoliai, kad juos galima atpažinti iš vardų – Dario, Demis, Elonas, Markas ir Samas – beveik dieviškai valdo dirbtinio intelekto modelius, kurie formuos ateitį. Trumpo administracija liko nuošalyje, net kai šie modeliai įgijo stulbinamą potencialą,  įsitikinę, kad nevaržoma konkurencija tarp privačių įmonių yra geriausias būdas užtikrinti, kad Amerika laimėtų dirbtinio intelekto lenktynes ​​prieš Kiniją.

 

Iki šiol. Staiga atrodo, kad Amerikos laisvas požiūris į dirbtinį intelektą artėja prie pabaigos. Priežastis ta, kad svaiginanti modelių pažanga taip pat kelia grėsmę pačios Amerikos nacionaliniam saugumui, erzindama Trumpo administracijos narius, kurie anksčiau buvo labiau linkę nerimauti dėl pernelyg didelio reguliavimo. Tuo pačiu metu augantis Amerikos rinkėjų pasipiktinimas paverčia dirbtinį intelektą politiniu žaibolaidžiu. Laissez-faire požiūris nebėra politiškai pagrįstas ar strategiškai išmintingas.

 

Lūžio taškas buvo „Anthropic“ balandžio 7 d. paskelbtas Claude'o Mythos kūrinys. Naujausias modelių kūrėjo kūrinys taip stulbinamai gerai aptinka programinės įrangos pažeidžiamumus, kad netinkamose rankose jis keltų grėsmę ypatingos svarbos infrastruktūrai – nuo ​​bankų iki ligoninių.

 

Dirbtinio intelekto modeliai vis dažniau kelia ir kitų pavojų – nuo ​​biologinio saugumo pavojų iki pramoninio masto sukčiavimo.

 

„Anthropic“ vadovas Dario Amodei išmintingai manė, kad „Mythos“ yra per daug pavojingas, kad būtų galima jį platinti plačiajai visuomenei. Vietoj to jis jį rezervavo maždaug 50 didelių įmonių, veikiančių skaičiavimo, programinės įrangos ir finansų srityse, kad jos galėtų sustiprinti savo gynybą. Amerikos iždo sekretorius Scottas Bessentas buvo taip sutrikęs, kad iškvietė didžiausius bankus skubiems pokalbiams.

 

Tai nebuvo pirmas kartas, kai administracija ėmėsi veiksmų. Vos prieš kelias savaites Pentagonas įsikišo po to, kai ponas Amodei atsisakė leisti naudoti „Anthropic“ modelį visiškai autonominiuose ginkluose arba masiniam vidaus stebėjimui. Be to, Trumpo administracija buvo sunerimusi – dėl vienos įmonės galios, kurią ji turėjo nacionaliniam saugumui labai svarbios technologijos atžvilgiu.

 

Nepageidaujama rinkėjų reakcija padidins spaudimą administracijai įsikišti. Nuomonės apklausos verčia vis daugiau politikų manyti, kad DI bus viena iš pagrindinių klausimų 2028 m. rinkimuose. Amerikiečiai DI atžvilgiu vertina daug skeptiškiau nei žmonės kitose šalyse. Septyni iš dešimties mano, kad DI pakenks darbo galimybėms – tai smarkiai išaugo, palyginti su praėjusiais metais (ir dar gerokai prieš tai, kai jie turi gerų įrodymų). Nors dirbtinis intelektas (DI) mažai arba visai neturi nieko bendra su kylančiomis elektros energijos kainomis, žmonių pasipriešinimas duomenų centrams auga. Kaip rodo laikmečio ženklas, pastarosiomis dienomis du kartus buvo užpulta „OpenAI“ vadovo Samo Altmano rezidencija.

 

Istorija rodo, kad atsiradus tokiai pasaulį keičiančiai technologijai kaip DI, mito akimirka buvo neišvengiama. Nuo Johno D. Rockefellerio iki Henry Fordo – didžiosioms Amerikos pramonės inovacijoms vadovavo nedidelė grupė vyrų, kurie tapo nepaprastai galingi. Galiausiai XX amžiaus vyriausybės įsikišo, kad sutramdytų pernelyg galingas pramonės šakas – nuo ​​trestų griovimo, kuris sugriovė „Standard Oil“, iki Federalinio rezervo sukūrimo ir AT&T iširimo. Tie laikai buvo bent jau tokie pat poliarizuoti ir karštligiški, kaip ir šiandien. O mūsų skaičiavimai rodo, kad DI dievai dar nėra labiau dominuojantys nei jų istoriniai pirmtakai.

 

Tačiau istorija taip pat rodo, kad DI kontrolė bus sudėtinga. Iš dalies taip yra todėl, kad jei kas nors nutiks ne taip, rizika yra tokia didelė. Taip pat ir todėl, kad DI vystosi neįtikėtinu greičiu.

 

Kompromisai yra aštrūs.

 

Ekonomikos augimas bus naudingas sparčiai plintantiems dirbtinio intelekto teikiamiems pranašumams, tačiau galimas neigiamas poveikis gali lengvai sukelti pernelyg didelį reguliavimą.

 

Nieko nedarymas gali padaryti Ameriką pažeidžiamą piktavališko dirbtinio intelekto sukelto chaoso, tačiau pernelyg didelis reguliavimo spaudimas užtikrintų, kad Kinija laimėtų dirbtinio intelekto lenktynes. Todėl tai pavojinga akimirka.

 

Laiko trūksta. Prieš dvejus metus, valdant Bidenui, diskusijos apie reguliavimą daugiausia buvo apie galimą dirbtinio intelekto riziką. Šiandien jo galimybės jau yra nerimą keliančiai galingos ir su kiekvienu išleidimu vis didėja. Inovacijų tempas reiškia, kad diskusijos apie tinkamą vyriausybės vaidmenį, kurios anksčiau vyko daugelį metų, net dešimtmečių, dabar turi būti išspręstos per kelis mėnesius.

 

Techninės kliūtys, trukdančios taikyti labiau intervencinį požiūrį, yra bauginančios. Vyriausybės kontrolės priemonės, tokios kaip nacionalizavimas, yra neveiksmingos, nes talentingi inžinieriai gali laisvai judėti tarp įmonių, o skaičiavimo galia yra prekė.

 

Dar blogiau, kad pirmaujantys modelių kūrėjai tik keliais mėnesiais lenkia savo atvirojo kodo konkurentus, įskaitant ir Kinijoje. Anksčiau ar vėliau jų modelių galimybės bus prieinamos visiems.

 

Nepaisant to, mito akimirka galėtų būti tada, kai pradės formuotis veiksminga dirbtinio intelekto valdymo schema. Patikimi vartotojai gautų ankstyvą prieigą prie galingiausių naujų modelių: „OpenAI“ seka „Anthropic“ pavyzdžiu, pristatydama savo naujausią įrankį ribotai grupei patikrintų kibernetinio saugumo specialistų. Prieš leisdama šiems modeliams plačiai komercializuoti, vyriausybė galėtų reikalauti sertifikavimo iš pramonės vadovaujamų įstaigų, kurios juos išbandė įvairiems tikslams.

 

Saugokitės talentingų kompiuterių entuziastų

 

Ši idėja turi privalumų tiek dideliems modelių kūrėjams, tiek vyriausybei. Ji leidžia išvengti ilgo naujo reguliuotojo kūrimo proceso. Suteikdama galimybę naudotis tik keliems aukščiausios klasės vartotojams, modelių kūrėjai gali imti didesnius mokesčius  ir apriboti ribotos skaičiavimo galios naudojimą. Tuo tarpu vyriausybė gali apriboti, kas gali naudoti galingiausius modelius, sumažindama riziką, kad Kinija gali juos nukopijuoti ir greičiau pasivyti.

 

Tačiau ji taip pat kenčia nuo rimtų problemų. Ribotas išleidimas sumažins konkurenciją ir padidins įsitvirtinusių dirbtinio intelekto bendrovių įtaką. Tai sulėtins dirbtinio intelekto teikiamos naudos sklaidą ir sukurs dviejų pakopų sistemą Amerikos ekonomikoje, kuri bus nepalanki daugeliui įmonių, kurioms nuolat atimama privilegijuota ankstyva prieiga prie galingų naujų modelių. O kas, jei dirbtinio intelekto apsaugos kūrimas užtrunka ilgai arba yra neįmanomas? O kaip dėl atvirojo kodo modelių? Kaip galite reikalauti, kad jie taip pat laikytųsi šių taisyklių?

 

Ant šių pamatų sukurta reguliavimo sistema galėtų pasirodyti neteisinga. Vidiniai asmenys galėtų apsisaugoti nuo grėsmių pasienyje; pašaliniai asmenys turėtų tikėtis geriausio. Lobizmo ir per didelio pelno galimybės būtų didžiulės. Tai išbandytų atviriausiai korumpuotos Amerikos šiuolaikinės politinės eros administracijos sąžiningumą ir kompetenciją. O sprendimas, kuris dar labiau sutelkia galią ir turtą tarp saujelės dirbtinio intelekto dievų, rizikuoja paaštrinti tą pačią politinę reakciją, kuri pradeda nerimauti Vašingtone.

 

Be to, „Mythos“ metodas gali būti tik pusė sprendimo. Dirbtinio intelekto saugumo negalima užtikrinti nacionaliniu lygmeniu. Galiausiai tam reikės tarptautinio bendradarbiavimo, pradedant Kinija. Naujas dėmesys kibernetiniam saugumui taip pat turi būti derinamas su skubiu svarstymu apie DI ekonominį ir socialinį poveikį. Darbo vietų sutrikdymo problemos sprendimas ir prie DI pritaikytos, darbo jėgai palankios mokesčių sistemos kūrimas yra didžiulės problemos, į kurias dar niekas neturi gerų atsakymų. Tai turi pasikeisti. „Mythos“ akimirka yra žadinantis skambutis dėl DI saugumo. Ji reikalauja kruopštaus mąstymo ir kitose srityse.“ [1]

 

1. The Mythos moment. The Economist; London Vol. 459, Iss. 9495,  (Apr 18, 2026): 9, 10.

The West Is Defeated in AI Application. The West Is Using Iran’s Oil Transport's to China Blockade and the Mythos Moment in Attempt to Stop AI

 

Based on 2026 reports, the global AI landscape is undergoing a significant transformation, characterized by intensified competition where the United States faces a growing gap with China in practical, industrial-scale deployment. While the US leads in total private AI investment or waste ($258.9B vs $12.4B in 2025), China has nearly erased the US lead in AI research, with models such as DeepSeek-R1 matching top Western systems (e.g., Anthropic's Claude).

The AI Application Race and Strategic Competition

 

    China's Rapid Advancement: China is prioritizing the integration of AI into its physical economy, deploying AI-powered industrial robots at nearly nine times the rate of the US. Chinese firms are achieving high-performance AI outputs at a fraction of the cost, making them competitive with Western closed-source models.

 

    The "Blockade" Context: The U.S. is aggressively using economic sanctions and maritime control to hinder China's technological advancement. As of April 2026, the US has implemented a naval blockade in the Strait of Hormuz, specifically targeting tankers carrying Iranian oil to China, which is considered a crucial supply chain for China's AI infrastructure.

 

    "Doing More with Less": Reports suggest that Chinese AI developers are becoming more efficient, developing models that nearly reach U.S. capabilities on significantly lower budgets.

 

The "Mythos Moment" and AI Safety Concerns

 

    Anthropic's "Mythos": In April 2026, AI company Anthropic identified its new model, "Mythos," as too dangerous for public release. This has been described as a "watershed moment" or "mythos moment".

    Autonomous Capabilities: Mythos demonstrated the ability to autonomously identify thousands of previously unknown ("zero-day") security flaws in major operating systems and web browsers, raising fears that it could be used for massive cyberattacks.

    Controlling the Technology: This moment represents a shift where elite, high-capability AI models are restricted by Western creators, limiting public access and shifting the focus towards creating "guarded" AI systems for vetted enterprises to protect against exploitation.

 

Geopolitical Dynamics

 

    Blockade Impacts: The US blockade of Iranian ports, which started in mid-April 2026, has forced China to rely on its "shadow fleet" for oil transport, though these efforts have been partially interrupted by US interception.

    Trade Tension: The U.S. has simultaneously placed sanctions on a major Chinese oil refinery and numerous shipping firms, increasing tension ahead of high-level meetings between the two nations.

    Physical vs. Digital: While the U.S. maintains an advantage in large language model (LLM) development, the competition is fracturing. China is focusing on "Physical AI" and robotics, while the US focuses on securing its proprietary digital models.

   Cost-Effectiveness and Efficiency: Chinese models are designed for "diffusion" rather than just "perfection," with a focus on high-performance inference at a fraction of the cost of American models. They utilize "mixture-of-experts" architectures and advanced quantization techniques, which significantly reduce the compute resources required for training and deployment.

   Local Deployment and Data Privacy: A major draw is the ability to download and run these models locally, allowing companies to maintain data sovereignty, avoid vendor lock-in, and keep sensitive proprietary data within their own infrastructure.

   Closing Performance Gaps: The performance gap between US and Chinese models has largely closed, with top Chinese models offering comparable capabilities for most real-world tasks (e.g., coding, customer service, RAG).

   Ecosystem and Developer Support: Chinese companies are building a "global diffusion engine" through permissive licensing, making their models the default starting point for most developers.

In summary, the West is leveraging its control over crucial infrastructure (like shipping lanes and high-end chip supply chains) and imposing strict control over its most advanced AI models (the "Mythos moment") to manage the competitive balance against China's rapid deployment in real economy. The Chinese open-source models are produced with much less waste, cheaper to implement locally, keeping trade secrets inside hardware of the owners. This why Chinese technology is preferred everywhere in the world. The West is left standing and shouting how dangerous the AI is:

 

“SHOULD A HANDFUL of men be entrusted with the world’s most potent new technology? Five geeks so famous that they can be identified by their first names—Dario, Demis, Elon, Mark and Sam—exercise almost godlike command over the artificial-intelligence models that will shape the future. The Trump administration has stood aside even as those models have gained jaw-dropping capabilities, convinced that unfettered competition between private firms is the best way to ensure America wins the AI race against China.

 

Until now. Suddenly, America’s free-wheeling treatment of AI looks as if it is coming to an end. The reason is that the models’ dizzying progress also poses a threat to America’s own national security, unnerving members of the Trump administration previously more inclined to worry about overregulation. At the same time, growing resentment among American voters is turning AI into a political lightning-rod. A laissez-faire approach is no longer politically tenable or strategically wise.

 

The watershed was Anthropic’s announcement of Claude Mythos on April 7th. The model-maker’s latest creation is so startlingly good at finding software vulnerabilities that, in the wrong hands, it would threaten critical infrastructure, from banks to hospitals.

 

 AI models increasingly pose other risks, too, from biosecurity hazards to industrial-scale scamming.

 

Anthropic’s boss, Dario Amodei, wisely thought Mythos too dangerous for general release. Instead he has reserved it for use by around 50 big firms, in computing, software and finance, so that they can boost their own defences. America’s treasury secretary, Scott Bessent, was so unnerved that he summoned the biggest banks for urgent talks.

 

It was not the first time the administration had acted. Only weeks ago the Pentagon stepped in after Mr Amodei refused to allow Anthropic’s model to be used in fully autonomous weapons or for mass domestic surveillance. Then, too, the Trump administration was alarmed—because of the power a single firm wielded over a technology central to national security.

 

A backlash among voters will add to the pressure on the administration to intervene. Opinion polls are leading ever more politicians to think that AI will be one of the big issues in elections in 2028. Americans are far more sceptical of AI than people in other countries. Seven out of ten think AI will hurt job opportunities, a sharp rise from a year ago (and well before they have good evidence). Grassroots opposition to data centres is surging, even though AI has little or nothing to do with rising electricity prices. In a sign of the times, the house of Sam Altman, the head of OpenAI, has been attacked twice in recent days.

 

History suggests that, with a technology as world-changing as AI, a Mythos moment was inevitable. From John D. Rockefeller to Henry Ford, America’s great industrial innovations were led by a small number of men who grew immensely powerful. Eventually, 20th-century governments stepped in to tame over-powerful industries, from the trust-busting that broke up Standard Oil to the creation of the Federal Reserve and the breakup of AT&T. Those times were at least as polarised and febrile as today’s are. And our calculations suggest that the AI gods are not yet any more dominant than their historical predecessors were.

 

But history also suggests that controlling AI will be fraught. That is partly because the stakes if things go wrong are so high. It is also because AI is evolving at warp speed.

 

The trade-offs are acute.

 

Economic growth will benefit from rapidly diffusing AI’s benefits, but the potential backlash could easily lead to overregulation.

 

 Doing nothing could leave America vulnerable to malevolent AI-induced chaos, but regulatory overkill would ensure that China wins the AI race. That makes this a perilous moment.

 

Time is short. Two years ago, during the Biden administration, discussions about regulation were largely about AI’s potential risks. Today its capabilities are already alarmingly powerful and growing more so with every release. The pace of innovation means that debates over the proper role of government, which played out over years, even decades, in the past, now need to be resolved in months.

 

And the technical hurdles to a more interventionist approach are daunting. Tools of government control, such as nationalisation, are ineffective because talented engineers can move freely between companies and computing power is a commodity.

 

Worse, the leading model-builders are only months ahead of their open-source competitors, including those in China. Sooner or later the capabilities of their models will be available to all.

 

Even so the Mythos moment could be when a workable scheme to control AI starts to take shape. Trusted users would get early access to the most powerful new models: OpenAI is following Anthropic by rolling out its latest tool to a limited group of vetted cyber-security professionals. Before allowing these models to be broadly commercialised, the government could demand certification from industry-led bodies that have tested them for different uses.

 

Beware geeks with gifts

 

This idea has advantages for the big model-builders and the government alike. It avoids the lengthy process of creating a new regulator. By allowing only a few premium users, it enables the model-makers to charge higher prices and limit the use of scarce computing power. Meanwhile, the government can restrict who can use the most powerful models, reducing the risk that China can copy them and catch up faster.

 

But it also suffers from grave problems. Limited release will reduce competition and increase the clout of entrenched AI companies. It will slow the diffusion of AI’s benefits and create a two-tier system within America’s economy, disadvantaging the many firms that are repeatedly deprived of privileged early access to powerful new models. What if making AI defences takes a long time or is impossible? What about open-source models? How can you insist that they also follow these rules?

 

A regulatory system built on these foundations could prove unjust. Insiders could secure themselves against frontier threats; outsiders would have to hope for the best. The opportunities for lobbying and outsize profits would be immense. That would test the honesty and competence of the most openly corrupt administration of America’s modern political era. And a fix that concentrates power and wealth yet further among the handful of AI gods risks aggravating the very political backlash that is starting to worry Washington.

 

Moreover, the Mythos approach can be only half the solution. AI safety cannot be secured nationally. Eventually it will demand international co-operation, starting with China. The new focus on cyber-security also needs to be matched by urgent thinking about the economic and social effects of AI. Dealing with the disruption to jobs and designing an AI-adapted tax system that favours labour are huge problems for which no one yet has good answers. This needs to change. The Mythos moment is a wake-up call for AI safety. It demands hard thinking in other areas, too.” [1]

 

1. The Mythos moment. The Economist; London Vol. 459, Iss. 9495,  (Apr 18, 2026): 9, 10.

Cancer’s cheat code


 

“CANCERS ARE real biological cheats. Whereas most of the cells in a healthy animal’s body get along by following the same set of genetic rules, cancer cells shamelessly ignore them. Healthy cells, for example, can replicate themselves only about 50 times before shutting down. Cancer cells, by contrast, carry a mutation that allows them to divide indefinitely. But recent work has revealed an entirely new level of oncological shenanigans. It now appears that many cancer cells have also stopped obeying Mendel’s laws of inheritance, explaining why many cancers are able to evolve resistance to chemotherapy drugs at seemingly supernatural rates.

 

These laws, worked out in the 19th century by Gregor Mendel, an Augustinian friar, describe how heritable traits pass down through the generations, setting limits on the ways in which children can differ from their parents. Mendel’s initial experiments were on peas in the monastery garden, but his laws have since been found to apply to everything from human height to disease resistance in individual cells.

 

As Paul Mischel of Stanford University describes in a paper in this week’s Cell, some cancer cells refuse to play along. His work reveals that in about 20% of human cancer samples some DNA escapes from the chromosomes to which it is normally bound and forms tiny, circular bodies of extra-chromosomal DNA (ecDNA) that get scattered throughout the nucleus of a cell. Thus scattered, they are no longer subject to the rigours of mitosis, the conventional process by which chromosomes divide into two identical copies, one for each daughter cell. This adds an element of unpredictability to how genes are inherited, allowing mutations to occur faster and on a more dramatic scale.

 

Such cellular skulduggery had previously been seen in bacteria and fungi, which use these tricks to develop resistance to drugs. It was not until Dr Mischel began looking into the subject in 2012, however, that cancer cells were found to be equally sneaky. Since then, he and his colleagues have found that ecDNA fragments overwhelmingly contain information on defence mechanisms that the cancer cell can use to rapidly replicate and to avoid being destroyed. This may be because cells carrying such ecDNA proliferate more easily. It certainly increases the chances of harmful new traits emerging faster than would be permitted by Mendel’s rules.

 

It also reveals a potential vulnerability. Dr Mischel worked in close collaboration with Howard Chang, chief scientific officer at AMGEN, a biotech company, to reveal that daughter cells can benefit from ecDNA only if these circular snippets are able to weave themselves back into their chromosomes after mitosis. The ecDNA does this with the help of constituent “anchor proteins” that return it to the chromosomes and specific DNA sequences that allow it to integrate back into them.

 

Dr Mischel views these sequences and the anchor proteins as prime targets for future treatment. “Introducing drugs that disable or destroy them ought to leave the ecDNA adrift and remove the advantages it brings to tumour cells,” he says. That work is in its infancy, although Dr Mischel says some suitable anchor proteins have already been identified. Clinical trials are pending.

 

As important as ecDNA may be as a mechanism for explaining the behaviour of some aggressive cancers, “It would be an oversimplification to say that it is the only factor,” says Lillian Siu, president of the American Association for Cancer Research and oncologist at the Princess Margaret Cancer Centre in Toronto. In her view, humdrum mutations caused by genome instability and defective DNA-repair jobs contribute to the appearance of ecDNA which, in turn, may enhance such instability. Even if disabling anchor proteins can slow the rapid evolution driven by ecDNA, the forces that cause it to appear in the first place are likely to persist.” [1]

 

1. Cancer’s cheat code. The Economist; London Vol. 459, Iss. 9495,  (Apr 18, 2026): 86.

Paskutinė vinis į bet kokio apsimetimo, kad egzistuoja taisyklėmis pagrįsta tvarka ar tarptautinė teisė, karstą.

„KAI AMERIKA ir Izraelis vasario 28 d. pradėjo karą, daugelis tikėjosi, kad Iranas sustabdys laivybą Hormūzo sąsiauryje. Mažai kas būtų numatęs, kad po mažiau nei dviejų mėnesių Donaldas Trumpas įves savo blokadą, nukreiptą į laivybą į Irano uostus ir pakrančių zonas bei iš jų. Ji įsigaliojo balandžio 13 d. Ponas Trumpas tikisi, kad ekonominis smaugimas gali priversti Iraną atverti sąsiaurį, kuriame bombos nesugedo. Tai rizika, kuri gali paaštrinti pasaulinę energetikos krizę ir sukelti naują eskalaciją.

 

Amerikos logika paprasta. Irano grasinimai smarkiai sumažino tanklaivių eismą per Hormūzą. Tačiau Iranas toliau eksportuoja savo naftą, nors ir mažesniais kiekiais. Jis taip pat leido kai kuriems laivams praplaukti, jei jie sumokės mokestį. Pono Trumpo žinia yra ta, kad jei neutralūs kroviniai negali netrukdomai praplaukti, Irano kroviniai taip pat negali. Karinis plano aspektas yra „visiškai įmanomas“, sako Markas Montgomery, atsargos užnugario narys. admirolas. Amerika gali gana lengvai įsilaipinti į laivus ir juos užgrobti. „Nebūtina pagauti kiekvieno laivo“, – priduria jis. „Tik tiek laivų, kad būtų galima perduoti žinią.“

 

Įspėjimas dėl naftos slėgio

 

Ekonominiai ir politiniai aspektai yra sudėtingesni. Tikriausiai tikslas yra nutraukti Irano ekonominę gelbėjimo liniją ir priversti režimą nusileisti taikos derybose, ypač dėl branduolinės programos. Teoriškai Iranas yra pažeidžiamas. Atsižvelgiant į dabartinius naftos atsargų lygius, jis gali būti priverstas apriboti gamybą per 10–20 dienų nuo visiškos, veiksmingos blokados, mano Ernestas Censier iš duomenų bendrovės „Vortexa“. „Žlungant Irano naftos eksportui, neliks pinigų importui, todėl aktyvumas smunka, valiuta patenka į devalvacijos spiralę ir prasideda hiperinfliacija“, – teigia Robin Brooks iš Amerikos analitinio centro „Brookings Institution“. „Neabejoju, kad tai geranoriškai pritrauks mulas prie derybų stalo.“

 

Kiti mažiau tikri. Iranas manė, kad jo naftos eksportas bus sutrikdytas, sako Esfandyar Batmanghelidj, analitinio centro „Bourse & Bazaar Foundation“ generalinis direktorius. Spausdindamas pinigus, parduodamas apie 100 mln. barelių naftos plaukiojančiose saugyklose prie Malaizijos ir Kinijos krantų ir gaudamas neoficialų kreditą iš importo tiekėjų, Iranas gali atlaikyti galbūt šešis mėnesius spaudimo.

 

Tai palieka du didelius klausimus. Pirmasis – poveikis energijos rinkoms, įskaitant ir Ameriką. Vien Irano produkcijos praradimas nėra katastrofiškas. Tačiau jį dar labiau apsunkina gerokai didesnis Persijos įlankos naftos tiekimas, įstrigęs dėl iš esmės uždaryto sąsiaurio. Kadangi paliaubos atrodo nestabilios, Iranas neturi daug paskatų atnaujinti praėjimą ir gali atnaujinti atakas prieš neutralius laivus.

 

Importuotojai būtų priversti sumažinti ir taip ribotas atsargas, todėl iki balandžio pabaigos „Brent“ naftos ateities sandorių kaina gali pakilti iki 150 USD už barelį. Įvertinus Irano smūgių į Persijos įlankos gamybos įrenginius, vamzdynus ir uostus riziką, taip pat Irano husių sąjungininkų Jemene galimus išpuolius prieš Raudonosios jūros laivybą, ši priemonė vargu ar išliks kelias savaites be naujos kainos kilimo. banga.

 

Antras klausimas – kurios šalys gali būti blokuojamos. Pavyzdžiui, Indija neigė mokėjusi mokestį už savo laivų praplaukimą, o tai, pasak D. Trumpo balandžio 12 d., būtų užkertantis kelią blokadai. Tačiau tą pačią dieną Amerikos centrinė vadovybė pareiškė, kad blokada bus vykdoma nešališkai – tai tarptautinės teisės reikalavimas – prieš laivus iš visų šalių, kurie praplaukė per Irano uostus ar pakrančių vandenis.

 

Tai apimtų ir Indijos laivus. Nafta, skirta Kinijai, Pakistanui ir Tailandui, taip pat išplaukė iš Hormūzo praėjus kelioms dienoms po paliaubų. Prieš tai Prancūzija ir Turkija, abi Amerikos sąjungininkės, buvo išsiuntusios savo laivus, matyt, gavusios Irano sutikimą. Amerikai gali pakakti įlaipinti tik kelis laivus, kad atgrasytų kitus nuo bandymų išsiveržti. Tačiau net ir tai galėtų supykdyti kai kurias draugiškas šalis. Kai kurie Amerikos pareigūnai mano, kad Kinija neprieštaraus blokadai, tačiau jos pripažinimas sukurtų pavojingą precedentą. Kinija jau seniai nerimauja dėl Malakos sąsiaurio blokados karo Ramiajame vandenyne atveju.

 

D. Trumpo sprendimas įvesti blokadą, kuris buvo priimtas po to, kai jis svarstė, kad jis gali „kartu“ kontroliuoti Hormūzą su Irano režimu – praktika, kuri apverstų tarptautinę teisę, reglamentuojančią tokius vandens kelius, rodo, kad laivybos laisvės principas patiria didžiulį spaudimą.

 

Kevinas Rowlandsas, kuris iki praėjusių metų vadovavo Karališkojo laivyno analitiniam centrui, o dabar redaguoja karinį žurnalą „RUSI Journal“, daro išvadą, kad tai „dar viena vinis į karstą bet kokiam apsimetimui, kad egzistuoja taisyklėmis pagrįsta tvarka ar tarptautinė teisė“.“ [1]

 

1. Double trouble. The Economist; London Vol. 459, Iss. 9495,  (Apr 18, 2026): 53, 54.

Kodėl aukštos kokybės duomenys dabar yra svarbesni, nei bet kada anksčiau, dirbtinio intelekto srityje


„Kalbos modeliai padarė didelę pažangą. Tačiau, norint atlikti dar sudėtingesnes užduotis ir tapti universalesniais, jiems reikia daugiau, nei vien skaičiavimo galios.

 

Nesvarbu, ar tai „ChatGPT“, „Gemini“, ar „Qwen“ – visi šie kalbos modeliai galiausiai yra pagrįsti ta pačia technologija. Juos skiria naudojami mokymo duomenys. Surinktų, filtruojamų ir generuojamų mokymo duomenų tipas lemia kalbos modelio kokybę: kaip patikimai jis atkuria faktus, kaip gerai atlieka užduotis ir kada jam pasireiškia haliucinacijos.

 

Trumpai tariant: kalbos modeliai labai gerai veikia užduotims, kuriose yra gerų mokymo duomenų. Užduotims be gerų mokymo duomenų jie greitai sugenda.

 

Kalbos modeliai šiuo metu tobulėja pirmiausia nustatant jų silpnąsias vietas ir specialiai renkant arba generuojant duomenis, kad būtų galima užpildyti šias spragas. Pavyzdžiui, kalbos modeliai dabar yra ekspertų lygio matematikos ir programavimo srityse – abiejose srityse jie turėjo didelių trūkumų vos prieš dvejus metus.

 

Kaip tai veikia, tampa aišku, kai nagrinėjami mokymo duomenys. Primename: kalbos modeliai turi tikslą – išmokti numatyti kitą žodį tekste, pirmiausia naudojant didžiulius duomenų rinkinius, o vėliau, tikslinimui, naudojant konkrečius pavyzdžius, tokius, kaip klausimai ir atitinkami atsakymai. Tokio paprasto ėjimo, kaip sugeneruoti kito žodžio garsus, pakanka sugeneruoti ištisus tekstus, atsakyti į klausimus ir užprogramuoti.

 

Šio pradinio mokymo tekstai daugiausia gaunami iš interneto. Norėdami juos gauti, dirbtinio intelekto kūrėjai pirmiausia surenka visus prieinamus tekstus. Šie tekstai yra neįtikėtinai įvairūs: Vikipedija, naujienų straipsniai, moksliniai straipsniai, forumų diskusijos ir, žinoma, daug reklamos. Tačiau didelė dalis prieinamų tekstų yra nesuprantami, prastos kokybės ir tiesiogiai netinkami mokymui. Jie identifikuojami – kartais naudojant mažus kalbos modelius – ir filtruojami. Lieka nedidelė interneto dalis, bet vis tiek didžiulis teksto kiekis, prilygstantis šimtams milijonų knygų.

 

Tada tekstai yra vertinami: tekstai, kurie mokymo duomenyse dažnai pasirodo labai panašiomis formomis, yra sumažinami, o kiti labai aukštos kokybės tekstai dubliuojami ir naudojami tolesniam mokymui. Tada tekstas mokymo duomenyse pasirodo kelis kartus. Tai subtilus procesas. Viena vertus, tokie faktai, kaip „Berlynas yra sostinė Vokietijoje“ turėtų pasirodyti kelis kartus, kad modelis išmoktų ir teisingai atkurtų tokius faktus. Kita vertus, kūrėjai nori išvengti pernelyg dažno tekstų pasirodymo identiškomis arba labai panašiomis formomis, nes kitaip kalbos modelis linkęs atkurti šiuos tekstus pažodžiui.

 

Pavyzdžiui, yra straipsnių iš „New York Times“, kuriuos „OpenAI“ kalbos modelis GPT-4 atkuria beveik pažodžiui po minimalių raginimų. Taip atsitinka, kai tokie tekstai labai dažnai pasirodo mokymo duomenyse. Šis pastebėjimas, beje, yra „New York Times“ vykdomo ieškinio prieš „OpenAI“ ir „Microsoft“ dėl autorių teisių pažeidimo pagrindas.

 

Kai mašinos generuoja duomenis

 

Bet kodėl kalbos modeliai apskritai gali atlikti tokias įvairias užduotis? Kodėl jie gali apibendrinti tekstus, išmokti programuoti ir atsakyti į klausimus tiesiog numatydami kitą žodį tekstuose iš interneto?

 

Internete yra tiek daug tekstų, kad net ir retų formatų, tokių, kaip klausimų ir atsakymų poros, taip pat tekstų ir jų atitinkamų santraukų, pasitaiko daug. Tačiau tokių pavyzdžių santykinė dalis yra labai maža. Todėl po šio pradinio mokymo modelis dažnai atsako į klausimą ne atsakymu, bet su kitu klausimu, nes yra daug svetainių, kurios susideda tik iš klausimų, pavyzdžiui, viktorinų svetainės ar praktikos pratimai.

 

Norint interneto duomenimis apmokytą kalbos modelį paversti naudingu asistentu, kuris atsako į klausimus ir vykdo instrukcijas, jis yra tiksliai sureguliuojamas. Paprasčiausias ir efektyviausias būdas tai tiksliai suderinti yra mokyti duomenimis, kurie rodo norimą elgesį, pavyzdžiui, į klausimus duodant atitinkamus atsakymus. Tokiu būdu modelis išmoksta atsakyti į klausimą, o ne pats jį užduoti.

 

Pirmojoje kalbos modelių kartoje žmonės atliko svarbų vaidmenį, generuojant tokius duomenis. Jie rašė atsakymus į klausimus ir įvertino skirtingus atsakymus, kaip geresnius arba blogesnius, leisdami modeliui sužinoti, kuriuos atsakymus žmonės renkasi.

 

Sintetiniai duomenys, t. y. pačių kalbos modelių generuojami duomenys, tampa vis svarbesni mokymui, nes daugiau duomenų paprastai yra naudinga. Ir kadangi puikūs internete prieinami tekstai jau yra plačiai naudojami mokymui – daugelis tekstų iš interneto yra žemos kokybės tekstai dažnai atmetami mokymo tikslais. Tačiau tokie tekstai gali būti puikus pagrindas generuoti sintetinius duomenis, kuriuos vėliau galima naudoti mokymui. Kalbos modeliai naudojami tokiems prastos kokybės ar vidutiniškiems duomenims paversti aukštos kokybės duomenimis.

 

Kaip ir žmonės, kalbos modeliai geriau mokosi, kai mato informaciją, pateiktą skirtingais variantais. Todėl gali būti veiksminga generuoti skirtingas teksto versijas, naudojant kalbos modelį ir naudoti jas mokymui. Tokie sintetiniai duomenys vaidina vis svarbesnį vaidmenį, mokant kalbos modelius.

 

Mokymasis, naudojant sintetinius duomenis yra labai efektyvus. Sintetiniai duomenys taip pat gali būti naudojami kitų modelių galimybėms atkartoti. Pavyzdžiui, jei tokia įmonė, kaip „OpenAI“ išleidžia naują, aukštos kokybės, kalbos modelį, kitos įmonės galėtų jį naudoti duomenims, kurie pagerina jų pačių modelius, generuoti, net jei „OpenAI“ paslaugų teikimo sąlygos tai aiškiai draudžia.

 

Įtikinamas pavyzdys yra „Deepseek V3“. Tai labai geras kalbos modelis, kurį Kinijos įmonė „Deepseek“ nemokamai pateikė 2024 m. gruodžio mėn. „V3“ greitai pateko į antraštes, nes „Deepseek“ inžinieriams pavyko gana pigiai apmokyti labai gerą modelį. Dėl to dirbtinio intelekto lustų bendrovės „Nvidia“ akcijų kaina sausio mėnesį vos per vieną dieną smuko 17 procentų. Pagrindinė Kinijos sėkmės priežastis yra ta, kad „Deepseek“ darbuotojai dirbo su labai aukštos kokybės duomenimis.

 

Geresni duomenys leidžia apmokyti tokį pat gerą modelį su mažesne skaičiavimo galia – taigi ir mažesnėmis sąnaudomis.

 

Paklaustas „koks modelis esate?“, V3 atsako: „Aš esu dirbtinio intelekto kalbos modelis, vadinamas „ChatGPT“, sukurtas „OpenAI“, o tai rodo, kad kai kurie mokymo duomenys yra gauti iš „OpenAI“ modelių.

 

Mūsų pačių tyrimas patvirtina šią prielaidą: V3 reaguoja į daugelį raginimų taip, kad juos labai sunku atskirti nuo GPT-4 atsakymų, o tai rodo, kad kai kurie „Deepseek“ mokymo duomenys buvo sugeneruoti, naudojant GPT-4.

 

Taip taip pat gali būti dėl to, kad „Deepseek“ modelis buvo apmokytas, naudojant duomenis iš interneto, nes internete jau 2024 m. buvo daug „OpenAI“ modelių sugeneruotų tekstų.

 

Minties žingsnių analizė

 

Vienas iš svarbiausių pokyčių kalbos modelių srityje per pastaruosius pusantrų metų buvo jų mokymas atlikti ilgus mąstymo procesus. Dauguma modelių dabar turi tokią „mąstymo“ funkciją: susidūręs su klausimais, kuriuos reikia apmąstyti, modelis pirmiausia atlieka mąstymo veiksmus, o tada pateikia atsakymą, pagrįstą šiais veiksmais. Pavyzdžiui, „OpenAI“ O1 modelis, „Google“ „Gemini Thinking“ ir „Deepseek“ R1 modelis. Tokie mąstymo veiksmai yra labai naudingi, atsakant į sudėtingesnius klausimus.

 

Tai taip pat galima iliustruoti trumpu pavyzdžiu. Klausimas: Ona turi tris kriaušes ir nusiperka dar dvi – kiek ji jų turi tada? Mąstymo veiksmai arba mąstymo procesas yra toks: Ona turi tris kriaušes. Ji nusiperka dar dvi. Trys plius du lygu penki. Atsakymas: penkios kriaušės.

 

Tokie mąstymo procesai ne tik padaro atsakymą suprantamą, bet, dar svarbiau, žymiai pagerina jo kokybę. Į daug sudėtingesnius klausimus galima atsakyti, plėtojant atsakymą per šiuos mąstymo procesus. Tokie mąstymo procesai yra ypač naudingi sudėtingų klausimų, pavyzdžiui, matematinių, atveju. Mąstymo procese modelis siūlo įvairius metodus, kai kuriuos atmeta, kitus išbando ir ištaiso Klaidas, joms pasitaikant. Sudėtingoms matematinėms problemoms spręsti mąstymo procesai gali lengvai apimti 50 ar daugiau puslapių. Jie paprastai nerodomi vartotojui. Tai turi savo kainą: ilgesnėms samprotavimo eilutėms kalbos modelis turi sugeneruoti daugiau teksto, o tam reikia daugiau apdorojimo galios.

 

Modelio mokymo apie tokius mąstymo procesus sudėtingumas slypi tame, kad tokių duomenų rašytine forma yra labai mažai. Pavyzdžiui, kai matematikai sprendžia sudėtingą problemą, jie paprastai užrašo tik teisingą sprendimą, bet ne sudėtingus mąstymo procesus ir bandymus, kurie padėjo rasti sprendimą.

 

Norint išmokti tokių mąstymo procesų matematikoje, lemiamą vaidmenį atlieka vadinamasis sustiprinimo mokymasis. Šiame procese modeliai išbando skirtingas samprotavimo linijas, ir tos samprotavimo linijos, kurios veda prie teisingų sprendimų, atitinkamai tampa labiau tikėtinos. Tai leidžia kalbos modeliams išmokti generuoti ilgus ir sudėtingus mąstymo procesus, kurie veda prie sprendimo. Tai veikia tik tuo atveju, jei modelis jau geba tvirtai matematiškai samprotauti; kitaip jis negalėtų generuoti jokių mąstymo procesų, kurie veda prie sprendimo.

 

Todėl sustiprinimo mokymasis gali būti laikomas metodu, kuriuo kalbos modeliai mokosi iš savarankiškai sugeneruotų, sintetinių duomenų. Tam būtina sąlyga – gebėjimas automatiškai įvertinti, ar tekstas ar rezultatas yra geras, ar blogas. Tai dažnai įmanoma matematikoje ir programavime, ir tai yra pagrindinė priežastis, kodėl kalbos modeliai tapo tokie galingi šiose srityse.

 

Kalbos modeliai vis dažniau naudojami sistemose, kuriose jie savarankiškai sąveikauja su kompiuteriais, kad atliktų užduotis, pavyzdžiui, užsakytų skrydžius, įvertintų duomenis ar atliktų tyrimus. Tokios sistemos vadinamos agentais. Kaip ir mąstymo procesuose, kalbos modeliai čia taip pat mokosi iš pavyzdžių, kai tokios užduotys buvo sėkmingai išspręstos – kai kurias sukūrė žmonės, kai kurias – patys kalbos modeliai.

 

Norėdamas įvertinti, kaip gerai Miuncheno technikos universiteto studentas supranta mano paskaitų medžiagą, aš, kaip ir dauguma mano kolegų, naudoju egzaminus ir kursinius darbus. Egzamino tipo klausimai taip pat dažnai naudojami kalbos modeliams, siekiant patikrinti jų galimybes. Vienas iš pavyzdžių yra Jungtinių Valstijų medicinos licencijavimo egzaminas – gydytojų licencijavimo egzaminas Jungtinėse Valstijose. Egzaminą sudaro klausimai su keliais atsakymų variantais apie pagrindus, klinikines žinias ir ligų gydymą. Bendrieji kalbos modeliai, tokie, kaip GPT-4, taip pat specializuoti kalbos modeliai medicinai, lengvai išlaiko tokius egzaminus ir pasiekia panašius balus kaip ir medicinos specialistų. Tas pats pasakytina ir apie kitas profesines grupes.

 

Tačiau lygiai taip pat, kaip geras egzamino pažymys tik iš dalies numato, kaip gerai studentas gali pritaikyti paskaitos medžiagą darbe ar tyrimuose, kalbos modelio aukštas našumas dar mažiau pasako apie jo gebėjimą produktyviai vykdyti procesus profesinėje aplinkoje, pavyzdžiui, ligoninėje.

 

Žmonės gali daug lanksčiau perkelti žinias į naujas situacijas, nei kalbos modeliai. Kita vertus, kalbos modeliai yra ypač veiksmingi, kai mokymo duomenys labai panašūs į užduotis.

 

Todėl kalbos modelius tikrai galima naudoti labai sudėtingiems procesams profesiniame gyvenime; tačiau jie turi būti apmokyti, naudojant tinkamus duomenis.

 

Duomenų spragų užpildymas

 

Kokios yra dirbtinio intelekto, orientuoto į mokymo duomenis, pasekmės? Kalbos modeliai ypač tinka užduotims, kuriose yra daug, tinkamų naudoti ir aukštos kokybės duomenų. Net ir ankstyviausi kalbos modeliai puikiai pasižymėjo rašant dalykus, kuriems internete yra daug gerų pavyzdžių, pavyzdžiui, receptus, santraukas ir bendrąsias žinias.

 

Šiandieniniai modeliai taip pat labai gerai veikia, atliekant labai sudėtingas matematines ar programavimo užduotis, nes egzistuoja arba buvo sugeneruota daug aukštos kokybės duomenų.

 

Užduotims, kuriose surinkti ar sugeneruoti pakankamai duomenų yra sudėtingiau – kaip daugelyje mokslo sričių, teisinėse paslaugose ar vidiniuose verslo procesuose – kalbos modelių sėkmė priklausys nuo šių duomenų spragų užpildymo.

 

Tai, kad bendrieji modeliai nuolat tobulėja, tai mažai ką keičia. Tie, kurie nori naudoti kalbos modelius specializuotoms užduotims, turi juos apmokyti tinkamais duomenimis. Todėl vis dar yra didelis potencialas padaryti kalbos modelius daug geresnius ir naudingesnius. Reikšminga šio darbo dalis bus susijusi su mokymo duomenų rinkimu ir generavimu.

 

Prof. dr. Reinhardas Heckelis eina Mašininio mokymosi katedros vedėjo pareigas Miuncheno technikos universiteto Kompiuterių inžinerijos katedroje.

 

Skaitmeninė ekonomika

Viską, kas svarbu apie dirbtinį intelektą, platformų ekonomiką ir skaitmeninimą, galima rasti kartu su daugybe išsamių žinių mūsų PRO skaitmeninės ekonomikos produktuose.“ [1]

 

1. Wieso es in der Künstlichen Intelligenz jetzt erst recht auf hochwertige Daten ankommt. Frankfurter Allgemeine Zeitung; Frankfurt. 09 Feb 2026: 19.  Von Reinhard Heckel

Why High-Quality Data Matters Now More Than Ever in Artificial Intelligence


“Language models have achieved remarkable progress. However, for them to tackle even more complex tasks and become more versatile, they require more than just computational power.

 

Whether it’s ChatGPT, Gemini, or Qwen—all these language models ultimately rely on the same underlying technology. What distinguishes them is the training data used. The specific training data that is collected, filtered, and generated determines the quality of a language model: how reliably it reproduces facts, how well it executes tasks, and when it ‘hallucinates.’

 

In short: For tasks where high-quality training data is available, language models perform exceptionally well. For tasks lacking such data, they fail quickly.

 

Currently, language models are improving primarily because we are identifying their weaknesses and deliberately collecting or generating data to bridge those gaps. For instance, language models today operate at an expert level in mathematics and programming—two areas where, just two years ago, they still exhibited significant deficiencies.

 

A look at the training data reveals how this process works. As a reminder: Language models learn to predict the next word in a text—initially by training on massive datasets, and subsequently by fine-tuning on specific examples, such as questions paired with their corresponding answers. As simple as the act of generating the next word may sound, it is sufficient to enable the creation of entire texts, the answering of questions, and even programming.

 

The texts used for this initial training are largely sourced from the internet. To this end, AI developers first gather every available text they can find. This collection is highly diverse, encompassing Wikipedia entries, news articles, scientific papers, forum discussions, and—naturally—a great deal of advertising copy. However, a significant portion of the texts obtained in this manner consists of gibberish; it is of low quality and unsuitable for direct use in training. These unsuitable texts are identified—in some cases, with the aid of smaller language models—and subsequently filtered out. What remains constitutes a mere fraction of the internet, yet it still represents a colossal volume of text—a quantity on a scale which corresponds to hundreds of millions of books.

 

Next, the texts are weighted: texts that appear frequently—and in very similar forms—within the training data are downweighted, while other texts of exceptionally high quality are duplicated, thereby appearing multiple times within the training set. This is a delicate process. On one hand, factual statements—such as "Berlin is the capital of Germany"—should appear multiple times to ensure the model correctly learns and reproduces such facts. On the other hand, developers aim to avoid having texts appear in identical or highly similar forms too frequently; otherwise, the language model tends to reproduce these texts verbatim.

 

For instance, there are articles from *The New York Times* that the OpenAI language model GPT-4 can reproduce almost word-for-word with only minimal prompting. This occurs when such texts appear with very high frequency within the training data. Incidentally, this observation forms the basis of the ongoing lawsuit filed by *The New York Times* against OpenAI and Microsoft for copyright infringement.

 

When Machines Generate Data

 

But why are language models capable of handling such a diverse range of tasks in the first place? How can they learn to summarize texts, write code, and answer questions—simply by predicting the next word in texts scraped from the internet?

 

The internet contains such a vast volume of text that even rare formats—such as question-and-answer pairs, or texts accompanied by their corresponding summaries—occur in large numbers. However, the relative proportion of such examples remains very small. Consequently, following this initial training phase, a model will often respond to a question not with an answer, but with another question—precisely because the internet also hosts numerous webpages consisting solely of questions, such as quiz sites or practice exercises.

 

To transform a language model—originally trained on internet data—into a useful assistant capable of answering questions and following instructions, it must undergo a process known as "fine-tuning." The simplest—and an effective—method of fine-tuning involves training the model on data that exemplifies the desired behavior; for instance, pairs of questions and their corresponding answers. In this way, the models learns to respond to a question instead of asking a question themselves.

 

In the first generation of language models, humans played a major role in generating such data. They wrote answers to questions and rated various responses as better or worse, enabling the model to learn which answers humans prefer.

 

Synthetic data—that is, data generated by language models themselves—is, however, becoming increasingly important for training, as having more data generally helps. And because the highest-quality texts on the internet have, in fact, already been largely utilized for training—many texts from the internet are of low quality and are therefore discarded from the training set. However, such texts can serve as an excellent foundation for generating synthetic data, which, in turn, can prove beneficial for training purposes.

 

Language models are employed to transform such poor or mediocre data into high-quality data.

 

Much like humans, language models learn more effectively when exposed to information presented in various forms. Consequently, it can be an effective strategy to utilize a language model to generate multiple variations of a single text and subsequently incorporate these into the training process. Such synthetic data is playing an increasingly pivotal role in the training of language models.

 

Training on synthetic data is a highly effective approach. Consequently, synthetic data can also be leveraged to replicate the capabilities of other models. For instance, if a company like OpenAI releases a new, high-performance language model, other companies could utilize it to generate data that enhances their own models—even if OpenAI’s terms of service explicitly prohibit such usage.

 

An intriguing example of this is DeepSeek V3. This refers to a highly capable language model that the Chinese company DeepSeek released as a freely accessible resource in December 2024. V3 quickly made headlines, as the innovators at DeepSeek had succeeded in training a top-tier model at a relatively low cost. In the wake of this development, the share price of the AI ​​chip manufacturer Nvidia plummeted by 17 percent in a single day in January. A key factor behind this Chinese success lies in the fact that the DeepSeek team worked with exceptionally high-quality data. Superior data enables the training of a model of equal caliber using less computational power—and, consequently, at a lower cost. When asked, "What model are you?", V3 responds: "I'm an AI language model called ChatGPT, created by OpenAI"—a response strongly suggesting that its training data was, at least in part, derived from OpenAI models. Our own research supports this hypothesis: V3 responds to many prompts in a manner that is very difficult to distinguish from responses generated by GPT-4, suggesting that a portion of Deepseek’s training data was generated using GPT-4.

 

However, this could also be attributed to the fact that the Deepseek model was trained on data from the internet—for even as early as 2024, the internet already contained numerous texts that had been generated by OpenAI models.

 

**Breaking Down Thought Processes**

 

One of the most significant developments in the field of language models over the past year and a half has been teaching them to execute extended chains of thought. Most models now feature such a "Think" function: when faced with questions requiring reflection, the model first executes a series of internal thought steps and then provides an answer based on those steps. Examples of this include OpenAI’s O1 model, Google’s Gemini Thinking, and Deepseek’s R1 model. Such thought steps are highly beneficial for answering more complex questions.

 

Let us illustrate this with a simple example. Question: Anne has three pears and buys two more—how many does she have in total? The thought steps—or the reasoning process—proceed as follows: Anne has three pears. She buys two more. Three plus two equals five. Answer: five pears.

 

Such thought steps not only make an answer comprehensible but, more importantly, significantly enhance its quality. This enables the models to answer far more difficult questions by systematically working out the solution through these intermediate steps. These thought steps prove particularly useful when tackling complex inquiries, such as mathematical problems. During this internal reasoning process, the model proposes various approaches to a solution, discards some, experiments with others, and corrects errors as they arise. For intricate mathematical problems, these thought steps can easily span 50 pages or more; typically, however, they are not displayed to the user. This comes at a price: for longer chains of thought, the language model must generate more text, which requires greater computational power.

 

The difficulty in teaching a model such reasoning processes lies in the fact that very little data of this kind exists in written form. For instance, when mathematicians solve a difficult problem, they typically record only the correct solution—not the intricate lines of reasoning and attempts that contributed to finding that solution.

 

To acquire such mathematical reasoning steps, so-called Reinforcement Learning plays a pivotal role. In this process, models experiment with various lines of reasoning; those lines of reasoning that lead to correct solutions are subsequently reinforced, making them more likely to occur in the future. Through this mechanism, language models learn to generate long and complex reasoning processes that culminate in a solution. This approach works only if the model already possesses strong mathematical reasoning capabilities; otherwise, it would be unable to generate any reasoning processes that lead to  a solution.

 

Reinforcement learning can therefore be viewed as a method through which language models learn from self-generated, synthetic data. A prerequisite for this is the ability to automatically assess whether a given text or result is good or bad. In mathematics and programming, this is often possible—a key reason why language models have become so powerful in these fields.

 

Language models are increasingly being deployed in systems where they interact autonomously with computers to perform tasks—for instance, booking flights, analyzing data, or conducting research. Such systems are referred to as "agents." As with the "steps of thought" discussed earlier, language models in this context also learn from examples where such tasks have been successfully completed—examples generated partly by humans and partly by the language models themselves.

 

To gauge how well a student at TU Munich understands my lecture material, I—like most of my colleagues—rely on exams and assignments. For language models, exam-style tasks are also frequently used to test the models' capabilities. One such example is the United States Medical Licensing Examination (USMLE), the licensing exam for physicians in the United States. This exam consists of multiple-choice questions covering foundational concepts, clinical knowledge, and disease management. General-purpose language models like GPT-4, as well as specialized medical language models, pass such exams with ease, achieving scores on par with those of medical professionals. The same holds true for other professional fields.

 

However, just as a high grade on an exam offers only limited predictive power regarding how effectively a student can apply lecture material in their professional work or research, a language model’s strong performance signals—to an even lesser extent—whether that model is capable of productively executing real-world professional workflows, such as those found in a hospital setting.

 

Humans are able to transfer knowledge to novel situations with far greater flexibility than language models can. Language models, conversely, demonstrate exceptional performance primarily when the training data closely resembles the specific tasks at hand. Therefore, it is certainly possible to deploy language models for highly complex professional workflows; however, they must be trained on appropriate data.

 

**Filling the Data Gaps**

 

What follows from the fact that training data lies at the very heart of artificial intelligence? Language models are particularly well-suited for tasks where an abundance of usable, high-quality data is available. Even the earliest language models excelled at generating content for which numerous good examples existed on the internet—such as recipes, summaries, and general knowledge.

 

Today’s models also perform exceptionally well in highly complex tasks within mathematics or programming, precisely because a vast amount of high-quality data exists for these domains—or could be generated.

 

For tasks where gathering or generating sufficient data proves more challenging—as is often the case in various scientific fields, legal services, or internal corporate workflows—the success of language models will hinge on the ability to fill these data gaps.

 

The fact that general-purpose models are constantly improving does little to alter this fundamental reality. Anyone wishing to deploy language models for specialized tasks must train them using data specifically tailored to those applications. Consequently, there remains immense potential to make language models significantly more effective and useful. And a substantial portion of this effort will involve the collection and generation of training data.

 

Prof. Dr. Reinhard Heckel holds the Chair of Machine Learning within the Department of Computer Engineering at the Technical University of Munich (TU Munich).

 

**Digital Economy**

"You will find everything you need to know about artificial intelligence, the platform economy, and digitalization bundled together—and enriched with in-depth insights—in our 'PRO-Digital Economy' product offerings." [1]

 

1. Wieso es in der Künstlichen Intelligenz jetzt erst recht auf hochwertige Daten ankommt. Frankfurter Allgemeine Zeitung; Frankfurt. 09 Feb 2026: 19.  Von Reinhard Heckel