Sekėjai

Ieškoti šiame dienoraštyje

2026 m. balandžio 10 d., penktadienis

How high can Nvidia climb?

 

“In the world of tech few events are as keenly awaited as Jensen Huang’s speech at Nvidia’s annual developer conference. And at this year’s gathering in San Jose on March 16th his talk did not disappoint. Over two hours, the boss of the world’s most valuable company unveiled new chips, artificial-intelligence models and systems for everything from space-based data centres to self-driving cars. He went on to claim that this array of new products will help Nvidia sell over $1trn-worth of AI-related hardware in the coming years.

 

Among engineers, the reaction was enthusiastic. Among investors, it was guarded. Doubts have grown about the durability of the AI boom. And Nvidia, the biggest beneficiary of the spending surge, has become a lightning rod for those concerns. On February 25th the firm reported record quarterly profits and forecast strong growth. Yet its share price fell the next day. Since peaking in October it has dropped by about 13%, even as an index of American chipmakers has risen by around 6%.

 

Such bearishness marks a change to Nvidia’s fortunes. The company’s graphics processing units (GPUs), the workhorse semiconductors used by AI models, account for over two-thirds of the total processing power available on the world’s AI chips. In the year to January the firm generated $216bn in revenue, eight times what it made three years earlier. It took nearly three decades for Nvidia to reach a market value of $1trn; it vaulted to $4trn barely two years later. Four months after that it briefly surpassed $5trn.

 

How high can Nvidia climb? Much higher, if Mr Huang is to be believed. He has claimed that the hundreds of billions of dollars spent so far on AI infrastructure are just the start and that “trillions” more will follow. What is more, Nvidia has the resources to exploit the opportunity. Its free cashflow is greater than those of the other tech giants (see chart 1). The firm holds more than $62bn in cash, a third of it generated in the past year.

 

Mr Huang therefore plans to change Nvidia into a “foundational company” on which the AI economy rests. That means selling different types of chips and hardware, bundling products into complete AI systems and embedding Nvidia’s technology more deeply into different industries. In short, Nvidia is becoming much more than an ai chipmaker.

 

The transformation is needed partly because Nvidia’s success has attracted competitors. Some are conventional rivals, such as AMD, an American chipmaker that has released decent alternatives to Nvidia’s GPUs. Others are startups spying opportunities. New chip designs are become commercially viable because the need for inference (AI models answering queries) is growing, and the process places a different set of demands on chips from training. According to PitchBook, a data firm, young chip firms raised $17bn in 2025, more than in the previous two years combined.

 

But the most formidable challengers are Nvidia’s customers. The hyperscalers—Alphabet, Amazon, Microsoft and Meta—which all rely on vast numbers of data centres to run their businesses, buy huge quantities of its chips. In the latest financial year just three of these hyperscalers accounted for over half of Nvidia’s receivables, money owed but not yet paid. Yet these same firms are also designing their own processors. This can slash the cost of AI chips by more than half, while improving performance by tailoring hardware to the software that runs on it.

 

Souring geopolitics has encouraged rivals abroad. Since October 2022 America’s government has barred Nvidia from selling its most advanced chips to China. Sales have slowed dramatically. Bernstein, a broker, says local suppliers such as Huawei, Cambricon and MetaX could grow from less than a fifth of China’s AI-chip market in 2023 to more than nine-tenths by 2027. Jay Goldberg of Seaport Research Partners, a firm of analysts, notes that the threat may extend beyond China. The new rivals may not produce chips as powerful as Nvidia’s, but in some markets “good enough” could prove good enough.

 

Everything, everywhere all at once

 

Nvidia’s response is to expand in all directions. Mr Huang has compared the AI industry to a “five-layer cake”: energy, chips, networking infrastructure, models and applications. Nvidia intends to take bites out of three of the five layers.

 

Having conquered the market for GPUs, the firm plans to sell different types of chips. In December Nvidia paid $20bn to license technology and hire engineers from Groq, a startup specialising in inference chips. On March 16th the company unveiled a new chip using the startup’s knowhow. It is also pushing into central processing units (CPUs), a type of general-purpose chip. This is an area long dominated by Intel, a beleaguered giant. Nvidia already builds CPUs using designs from Arm, a British firm, which are used in its AI servers. Now it plans to sell them more broadly. In February Nvidia struck a deal with Meta to supply CPU-only servers.

 

Nvidia is also investing in other layers. As AI systems scale, moving data between processors has become as important as the processors themselves. The firm is betting heavily on networking equipment, the technology that links chips together. In its most recent quarter this business generated $11bn in revenue, making Nvidia one of the largest players in the field.

 

Model-making is the third layer. Nvidia has released several families of open-source AI models. These are specialised and aimed at specific industries. That includes Alpamayo for self-driving cars, GR00T for robotics and BioNeMo for biomedical research. They often rank highly on open-source AI leaderboards. Nvidia plans to invest billions to expand its capabilities in this layer of the stack.

 

One reason for owning the “full stack”, as Silicon Valley calls vertical integration, is that it makes it easier to co-ordinate the different layers. By tightly linking chips, data-centre equipment and models, the company says it can extract better performance than by each part being designed separately. Mr Huang has compared building AI systems without integration to connecting “too many cats and dogs”.

 

It also means Nvidia can sell its hardware in bundles. Increasingly the company describes its products not as chips but as components of “AI factories”, its term for specialised AI data centres. Some of these factories are being sold directly to governments under the banner of “sovereign AI”, the label for state-led efforts to build domestic AI infrastructure. Revenue from sovereign AI tripled last fiscal year to more than $30bn, about 15% of Nvidia’s AI sales.

 

The company is also trying to rely less on the hyperscalers that dominate its customer list. One approach is to push deeper into industry.

 

 In carmaking, Mercedes-Benz will soon ship vehicles equipped with Nvidia’s self-driving systems.

 

In pharmaceuticals, Eli Lilly uses Nvidia’s infrastructure and models to accelerate drug discovery.

 

Dion Harris, an Nvidia executive, says the aim is to work more closely with end customers, such as Lilly and Mercedes, to understand their needs and shape the next wave of AI. But Nvidia is not the only one to say it is working closely with clients. Such moves put the firm on a collision course with the hyperscalers, which offer similar services.

 

Placing their chips

 

Another approach is to create demand through its investments. Nvidia-backed firms, the idea goes, are more likely to buy its chips. Thus the firm is now one of Silicon Valley’s most prolific investors. Since 2020 it has made some 200 investments, committing over $65bn (see chart 2). That includes such big bets as a $30bn investment in OpenAI, and small ones on firms in robotics, software and AI applications.

 

The firm’s investments also help to secure its supply chain. This March Nvidia put more than $4bn into companies developing optical interconnects, which use light to transfer data rather than wires. Most AI data centres still rely on copper cables to link their equipment. Nvidia’s bet suggests it expects optical connections to become increasingly important. Ben Bajarin of Creative Strategies, a consultancy, compares the strategy to Apple’s early moves to corner components for the iPod.

 

Nvidia is using its cash pile to strengthen other parts of its supply chain. The semiconductor industry is prone to shortages when demand surges. Supplies of advanced memory—critical for AI chips—are already sold out for this year and for much of next. Nvidia bought most of the memory it will need this year, and part of next, well in advance.

 

None of this ensures Nvidia’s continued dominance. Rivals may erode its margins. The industry’s shift from training models to running them may favour chips from other vendors. And if AI spending cools, sales could slow sharply. But for now, the champion of the AI age remains dominant—and seems intent on expanding its empire.” [1]

 

1. Space Nvader. The Economist; London Vol. 458, Iss. 9491,  (Mar 21, 2026): 59, 60.

Kodavimas prieš mašiną


„Šių metų kasmetinis Indijos IT įmonių susibūrimas, vykęs praėjusį mėnesį Mumbajuje, buvo kontrastų tyrimas. Pramonės organizacijos „Nasscom“ prezidentas gyrė naują pardavimų rekordą: tikimasi, kad jos narių bendros pajamos per metus iki kovo mėnesio viršys 315 mlrd. JAV dolerių, t. y. 6 % daugiau nei ankstesniais metais. Tačiau delegatai, atitraukę akis nuo scenos ir žvilgčiojantys į savo telefonus, pamatys akcijų kainų kritimą. „Nifty IT“ indeksas sumažėjo maždaug penktadaliu po virusinio tinklaraščio įrašo, kuriame buvo įsivaizduota, kad naujos dirbtinio intelekto kodavimo priemonės visiškai sunaikins pramonę (žr. grafiką).

 

Niūrumo priežastys akivaizdžios. Dešimtmečius pramonė pelnėsi iš darbo arbitražo: programuotojo samdymo kaina Punėje, vakarų Indijos mieste, yra tik dalis, palyginti su jo samdymu Pasadenoje, Kalifornijos priemiestyje. Tai nebuvo tik programinės įrangos inžinieriai: skambučių centrų ir duomenų įvedimo darbai taip pat buvo perkelti į Indiją. Tokios IT konsultacijų įmonės kaip „Infosys“ ir „Tata Consultancy Services“ (tcs) didžiąją dalį savo pajamų gauna teikdamos klientams daugybę Indijos programuotojų, kurie atlieka daug darbo reikalaujančias užduotis, tokias kaip programinės įrangos priežiūra, atsakinėjimas į pagalbos užklausas ir įprasto kodo rašymas.

 

Tačiau dabar yra dar pigesnė alternatyva: DI agentas. „Claude Code“, „Anthropic“ įrankis, gali per kelias minutes sukurti programinės įrangos prototipą. Kad jis veiktų efektyviai ir saugiai, reikia gilesnių techninių žinių. Jei vienas kvalifikuotas kūrėjas, apsiginklavęs Claude'u, gali atlikti kelių darbą, įmonėms gali prireikti mažiau programuotojų, kuriuos teikia „Infosys“ ir „tcs“.

 

Tačiau iki šiol prognozės, kad masinė programavimo automatizacija paliks užsakomųjų paslaugų įmones pasenusias, atrodo perdėtos. Jų klientai dažnai tikisi, kad DI sukurs didžiulį produktyvumo padidėjimą, pavyzdžiui, naudodamas technologiją greitai ir pigiai sukurti naują vidinį HR įrankį. Tačiau toks produktyvumo pagerėjimas įmanomas tik „žalio lauko“ aplinkoje su „švaria architektūra“, teigia Atul Soneja, IT įmonės „Tech Mahindra“ vyriausiasis operacijų vadovas.

 

DI diegimas „apleisto lauko“ aplinkoje – su senu kodu, dokumentacijos trūkumu ir keliomis sistemomis, kurios turi visos toliau veikti realiuoju laiku – yra daug sudėtingiau.

 

Galiausiai klientai dažnai supranta, kad jų DI svajonės buvo pernelyg ambicingos, ir samdo tiek pat užsakomųjų programuotojų, kiek anksčiau, sako vadovai.

 

Be to, DI bumas gali atverti galimybes Indijos užsakomųjų paslaugų teikėjų konsultavimo padaliniams. Jie teigia, kad dabar gali atlikti strategiškesnį vaidmenį savo klientams: norint kuo geriau išnaudoti DI, reikia suprasti visą problemos kontekstą, ką gali pasiūlyti konsultantai, turintys patirties įvairiose įmonėse. Nandanas Nilekani, vienas iš „Infosys“ įkūrėjų, mano, kad tokios su DI susijusios paslaugos iki 2030 m. galėtų būti vertos 300–400 mlrd. JAV dolerių.

 

Jauliai turi duomenų savo pusėje. Naujausi užsakomųjų paslaugų teikėjų rezultatai buvo šiek tiek geresni, nei tikėtasi. tcs pranešė, kad per tris mėnesius iki sausio mėnesio su DI susiję pardavimai, palyginti su ankstesniu ketvirčiu, išaugo 17 % ir sudarė 6 % visų pajamų. Pastaraisiais metais tcs darbuotojų skaičius sumažėjo, tačiau pas konkurentus išaugo, nepaisant automatizavimo galimybės. Ataskaitoje teigiama Banko HSBC atstovas Yogesh Aggarwal pažymi, kad yra nedaug „apčiuopiamų atvejų tyrimų, patvirtinančių teiginius apie dirbtinio intelekto įtaką tradicinei programinei įrangai“.

 

Vadinamieji pasauliniai pajėgumų centrai (GCC) yra kita šio vaizdo dalis. Iš esmės tai yra vienai įmonei, pavyzdžiui, „Lululemon“ ar „Wells Fargo“, skirtos užsakomųjų paslaugų teikimo įmonės, kuriose dirba daug daugiau Indijos technologijų darbuotojų nei IT konsultantų. Jų iškilimas atspindi faktą, kad beveik kiekviena įmonė dabar savo technologijas laiko pagrindine savo verslo dalimi. Jei įmonės, pasitelkdamos agentų įrankius, daugiau programavimo darbų atliktų pačios, tai vis tiek galėtų būti naudinga Indijos IT pramonei. Daugelis IT konsultantų siūlo su GCC susijusias paslaugas, pavyzdžiui, padėdami įmonėms juos įkurti.

 

Nuo pat „ChatGPT“ debiuto 2022 m. lapkritį Indijos užsakomųjų paslaugų teikėjai buvo laikomi vienu iš sektorių, labiausiai pažeidžiamų dirbtinio intelekto išstūmimo. Tačiau po daugiau nei trejų metų žadėtas pokytis dar neatėjo. Pajamos auga, o samda tęsiasi. Vis dėlto šis sektorius puikiai atspindi dirbtinio intelekto poveikį verslui. Technologijos vis dar gali apversti pramonę aukštyn kojomis, tačiau kol kas jų poveikis neaiškus ir netolygus.“ [1]

 

1. Coding against the machine. The Economist; London Vol. 458, Iss. 9491,  (Mar 21, 2026): 65.

Coding against the machine


“This year’s edition of the annual jamboree for Indian IT firms, held last month in Mumbai, was a study in contrasts. The president of Nasscom, the industry body, hailed a new sales record: it expects that its members will have enjoyed combined revenue of more than $315bn in the year to March, up by 6% on the year before. Yet delegates tearing their eyes from the stage and glancing at their phones would see share prices plunging. The Nifty IT index dropped by around a fifth following a viral blogpost that imagined new artificial-intelligence coding tools would wipe the industry out altogether (see chart).

 

The case for gloom is obvious. For decades the industry has profited from labour arbitrage: the cost of hiring a coder in Pune, a city in western India, is a fraction of hiring one in Pasadena, a Californian suburb. It wasn’t just software engineers: call-centre and data-entry jobs were outsourced to India, too. IT consulting firms such as Infosys and Tata Consultancy Services (tcs) derive much of their revenue by providing customers with armies of Indian coders who perform labour-intensive tasks such as maintaining software, answering support tickets and writing routine code.

 

Now, however, there is an even cheaper alternative: an AI agent. Claude Code, a tool from Anthropic, can put together a prototype of a software application in minutes. Making it run efficiently and securely requires deeper technical knowledge. If one skilled developer armed with Claude can do the work of several, then businesses may find themselves with less need for the coders that Infosys and tcs provide.

 

So far, however, the predictions that the mass automation of coding will leave outsourcing firms obsolete seem overblown. Their clients often hope AI will create huge productivity gains by, for example, using the technology to quickly and cheaply build a new internal HR tool. But such improvements in productivity are only possible in “greenfield” environments with “clean architecture”, argues Atul Soneja, chief operating officer at Tech Mahindra, an IT firm.

 

Deploying AI in “brownfield” environments—with legacy code, a lack of documentation and multiple systems that must all continue to operate in real time—is far trickier.

 

In the end, clients often realise that their AI dreams were too ambitious and end up hiring as many outsourced coders as before, say executives.

 

What is more, the AI boom may present an opportunity for the consultancy arms of India’s outsourcers. They argue that they can now fulfil more of a strategic role for their clients: getting the most out of AI requires understanding all of the context around the problem, something that consultants with experience across businesses can offer. Nandan Nilekani, one of the founders of Infosys, reckons that such services related to AI could be worth $300bn-400bn by 2030.

 

The bulls have data on their side. The most recent results for the outsourcers were slightly better than expected. tcs reported that in the three months to January AI-related sales rose by 17% on the previous quarter, making up 6% of total revenue. Headcount has fallen at tcs but risen at its competitors in recent years, despite the possibility of automation. A report by Yogesh Aggarwal of HSBC, a bank, notes that there are few “tangible case studies to support claims of AI cannibalisation of traditional software”.

 

So-called global capability centres (GCCs) are another part of the picture. In essence, these are outsourcing arms dedicated to a single company, such as Lululemon or Wells Fargo, and employ far more of India’s tech workers than the IT consultants do. Their rise reflects the fact that nearly every company now sees its technology as core to its business. If companies do more of their coding in-house, aided by agentic tools, that may still benefit India’s it industry. Many IT consultants offer services linked to GCCs, helping businesses set them up, for instance.

 

From the moment ChatGPT made its debut in November 2022, Indian outsourcers have been pegged as one of the sectors most exposed to displacement by ai. More than three years on, though, the promised disruption has not arrived. Revenues are growing, and hiring continues. Yet the sector nonetheless encapsulates the effect of ai on business. The technology may still upend the industry, but so far its effect is unclear and uneven.” [1]

 

1. Coding against the machine. The Economist; London Vol. 458, Iss. 9491,  (Mar 21, 2026): 65.

Vejantis saulę - branduolių sintezė


„Kuafu legenda yra kinų mitologijos klasika. Galingas milžinas, apsivyniojęs rankomis pitonais, dienų dienas bėgioja per kalvas ir slėnius, vydamasis saulę, kuri nudegino jo žmones. Jo herakliškos pastangos šiandien tapo tyrinėjimų ir drąsos simboliu; Kinija jo vardu pavadino įvairius technologinius pasiekimus, įskaitant savo saulės zondą ir pažangų humanoidinį robotą. Dar tinkamiau, jo siekis tapo Kinijos branduolių sintezės ambicijų simboliu.

 

Taigi, su Kuafu būdingu entuziazmu 1500 fizikų, inžinierių ir branduolių sintezės entuziastų neseniai susirinko Hefėjaus mieste, tyrimų centre, kuriame Kinija stato savo degančios plazmos eksperimentinį superlaidųjį tokamaką (BEST) – naujausią ir geriausią šalies eksperimentinę mašiną, skirtą sintezės pagrindu pagamintai energijai gaminti. Šiuo metu statybos planuojamos baigti iki 2027 m., o po to BEST taps dar ambicingesnio projekto – Kinijos branduolių sintezės inžinerijos demonstracinio reaktoriaus (CFEDR), kuris turėtų pradėti veikti iki 2030 m. Jei tai pavyks, galėtų sekti prie elektros tinklo prijungtos elektrinės. Šis laikotarpis yra bent dešimtmečiu priekyje kitų vyriausybių pastangų pasiekti branduolių sintezę. Todėl Hefėjuje dalyvavę asmenys BEST apibūdino kaip „istorinį lūžio tašką“ Kinijos siekyje plėtoti šią technologiją.

 

Nepaisant viso branduolių sintezės potencialo gaminti pigią elektros energiją dideliu mastu, ši technologija iš esmės liko eksperimentinė. Ir nors Amerika ir Europa jau seniai pirmauja komercinio reaktoriaus kūrimo srityje, kruopštus planavimas suteikė Kinijos perspektyvoms postūmį. Jos privačios branduolių sintezės įmonės dar negali varžytis su užsienio įmonėmis. Tačiau šalies nacionalinė programa tapo nuožmia konkurente. Neatsiejama jos sėkmės dalis yra trijų krypčių strategija: nustatyti mokslinių tyrimų prioritetus savo mokslininkams ir inžinieriams; skirti didžiulį finansavimą šiems įmantriems įrenginiams; ir sukurti pramoninio tiekimo grandinę dalims, kurių reikės branduolių sintezės reaktoriams. Nesvarbu, ar to pakaks pergalei garantuoti, lenktynės dėl branduolių sintezės vyksta rimtai.

 

Kol kas Kinija apsistojo ties išbandytomis technologijomis branduolių sintezei siekti. BEST yra tokamakas – spurgos formos reaktorius, kuriame Elektriniu krūviu įkrauta plazma kaitinama ir sulaikoma magnetų, kol sudedamosios dalelės, sudarytos iš skirtingų tipų vandenilio branduolių, įveikia stūmos jėgas, kurios paprastai juos skiria. Kai sąlygos yra tinkamos, branduoliai gali susilieti, išskirdami didžiulius energijos kiekius. Didžioji dalis šios energijos atitenka reakcijos metu susidariusiems neutronams, todėl jie dideliu greičiu susiduria su reaktoriaus sienelėmis ir taip generuoja šilumą.

 

Kad tokamakai būtų naudingi elektrinėse, jie turės pasiekti vadinamąsias degimo sąlygas, kai plazma yra pakankamai tanki, kad jos šiluma taptų savarankiška. Tai vyksta esant aukštesnei nei 150 m°C temperatūrai ir esant magnetiniams laukams, kurie yra šimtus tūkstančių kartų stipresni nei Žemės.

 

Kinijos mokslininkai pamažu siekia šio tikslo. Sausio 1 d. Kinijos eksperimentinio pažangiojo superlaidžiojo tokamako (EAST), vieno iš BEST pirmtakų (kur kabo Kuafu freska), tyrėjai pranešė, kad jiems sėkmingai padidino savo plazmos tankį iki anksčiau neįmanomo lygio. Tolesniam padidinimui pasiekti prireiks laiko.

 

Fizikos iššūkiai yra viena; Inžinerija – kita sritis. Tokamakai – tai didelės mašinos su pažangiausiais komponentais. Jų konstrukcija priklauso nuo sudėtingos tiekimo grandinės, įskaitant galios modulius, vakuumines kameras ir galingus superlaidžius magnetus. Kinijos politika paskatino pramonės įmones gaminti šias dalis – tai dar viena sritis, kurioje šalis lenkia savo konkurentus. Jos inžinerijos įmonės turi ypatingos patirties metalo apdirbimo srityje, kurdamos magnetines rites ir galios konversijos komponentus, naudojamus branduolių sintezės projektuose užsienyje. ITER, ilgai veikianti branduolių sintezės programa, įsikūrusi Prancūzijos pietuose, naudoja Kinijoje pagamintas dalis.

 

Taip pat kyla kuro klausimas. BEST skirtas dviejų vandenilio izotopų branduoliams sujungti: deuterio, turinčio vieną protoną ir vieną neutroną, ir tričio, turinčio vieną protoną ir du neutronus. Deuteris, kurį galima išgauti iš vandens, yra nebrangus. Tritis, priešingai, gamtoje yra beviltiškai retas ir dėl savo radioaktyvumo greitai skyla. BEST iš pradžių naudosis išoriniu šio kuro tiekimu, tačiau jos mokslininkai tikisi, kad galiausiai ji galės jį pasigaminti pati.

 

Jei tokamako indas iš vidaus bus išklotas antklode ličio, šie atomai, paveikti branduolių sintezės metu išsiskiriančių energingų neutronų, galėtų virsti tričio atomais. Tai sunkiai įveikiamas žingsnis, kurį daugelis branduolių sintezės projektų labai norėtų įvaldyti.

 

 

Siekiant išbandyti ir išplėsti ličio sluoksnį, taip pat kitas branduolių sintezės technologijas ir medžiagas, moksliniai tyrimai ir plėtra vykdomi ne tik BEST, Visapusiškame branduolių sintezės technologijų tyrimų centre (CRAFT), kuris taip pat, žinoma, vadinamas Kuafu. Čia inžinieriai  kuria medžiagas, magnetus ir komponentus, kurie bus naudojami būsimuose branduolių sintezės įrenginiuose, taip pat testuoja BEST sistemas. Jie taip pat kuria didelio tikslumo robotus, galinčius gabenti sunkius krovinius ir veikti aukštoje temperatūroje, o tai padės išlaikyti milžinišką reaktorių ateityje. Nors europiečiai nori tobulinti technologijas prieš statybas, sako Yannickas Marandet, Prancūzijos nacionalinio mokslinių tyrimų centro tyrimų direktorius, didelis kinų pranašumas yra jų noras „mokytis darant“.

 

Tačiau ne mažiau svarbus buvo valstybinių planuotojų siekis panaudoti branduolių sintezės energiją. 2025 m. liepos mėn. Kinija įkūrė „China Fusion Energy“ – valstybinę įmonę, pavaldžią jos nacionalinei branduolinių energetikos bendrovei, kad sujungtų mokslinių tyrimų pastangas. Sausio 15 d. įsigaliojo naujasis šalies atominės energijos įstatymas, skatinantis investicijas į augančią pramonę, nustatant reglamentus. Šių pastangų kulminacija buvo kovo 12 d., kai vyriausybė įtraukė branduolių sintezę į savo aukšto lygio ekonominius planus, įskaitant 15-ąjį penkmečio planą.

 

Kinijos pastangos, kurias daugiausia inicijuoja valstybė, dedamos tuo metu, kai Vakarų šalys, ypač Amerika, pastebėjo išaugusį privačiojo sektoriaus susidomėjimą šia sritimi. Visame pasaulyje 77 startuoliai surinko 15 mlrd. JAV dolerių, siekdami galiausiai pasiekti savarankišką branduolių sintezę, naudodami technologijas – nuo ​​pažangių tokamakų iki lazeriu varomų konstrukcijų ir reaktorių su naujovišku išdėstymu, vadinamų stelaratoriais. Šios alternatyvos, kai kurios iš jų gali būti pigesnės ar paprastesnės, galėtų pranokti brangias viešąsias pastangas. Kai kurios Amerikos įmonės teigia, kad iki 2030-ųjų pradžios galės tiekti energiją į tinklą – tai laikotarpis, kuris konkuruoja su Kinijos laikotarpiu.

 

 

Greitai judėkite ir sujunkite dalykus

 

 

Yra tam tikrų ženklų, kad Kinija vis labiau seka Amerikos pavyzdžiu, nukreipdama privatų kapitalą į perspektyvius branduolių sintezės startuolius. Nors 42 Amerikos startuoliai iki šiol surinko iš viso 8 mlrd. JAV dolerių, aštuonios Kinijos įmonės surinko apie 5 mlrd. JAV dolerių daug greičiau. Praėjusių metų balandį Kinijos įmonė „NovaFusionX“ surinko 70 mln. JAV dolerių – tai didžiausias pirmasis privačios branduolių sintezės bendrovės finansavimo etapas šalyje. Dar vienas iš Tsinghua universiteto įkurtas startuolis „Startorus Fusion“ stato už sferinės formos tokamako sukūrimą ir sausio mėnesį surinko dvigubai daugiau. Kita įmonė „Energy Singularity“ tikisi pasiekti tą patį tikslą, sukurdama itin stiprius magnetus, o Kinijos konglomeratas ENN naudoja kitokį kurą: bandys sujungti vandenilio branduolius su boro branduoliais.

 

Šis siekis nebūtinai turi būti nulinės sumos. Kinija išlieka atvira bendradarbiavimui, ne tik mokydamasi iš ITER išvadų, bet ir leisdama užsienio mokslininkams naudoti savo įrenginius (nors pastaruoju metu pasirodė nedaug amerikiečių). Užsienio mokslininkai greitai pripažįsta Kinijos greitį ir efektyvumą – bei pažangą – tobulinant savo projektus. Kai BEST bus paleistas ir veiks, tai bus vienas pažangiausių branduolių sintezės eksperimentų pasaulyje, ir visų šalių mokslininkai norės bendradarbiauti, sako dr. Marandet. Taigi, kitaip nei Kuafu, Kinijos mokslininkai nesivaikys saulės vieni.“ [1]

 

1. Chasing the sun. The Economist; London Vol. 458, Iss. 9491,  (Mar 21, 2026): 76, 77.

Chasing the sun - nuclear fusion

 

“THE STORY of Kuafu is a classic of Chinese mythology. The powerful giant, his arms wrapped in pythons, runs for days through hills and valleys to chase the sun that has scorched his people. His Herculean effort has come to symbolise exploration and courage in the present day; China has named various technological feats including its solar probe and an advanced humanoid robot after him. More aptly still, his pursuit has become a symbol of China’s nuclear-fusion ambitions.

 

It was with Kuafu-like gusto, then, that 1,500 physicists, engineers and nuclear-fusion enthusiasts recently gathered in the city of Hefei, a research hub where China is building its Burning Plasma Experimental Superconducting Tokamak (BEST), the country’s latest and greatest experimental machine to generate fusion-based power. Construction is currently on track to be completed by 2027, after which BEST will be a test bed for an even more ambitious project: the China Fusion Engineering Demo Reactor (CFEDR) that is expected to be up and running by 2030. If that succeeds, power stations connected to the electrical grid could follow. That timeline is at least a decade ahead of other governments’ efforts to achieve fusion. Those present in Hefei, therefore, described BEST as a “historic turning-point” in China’s quest to develop the technology.

 

For all of fusion’s potential to generate low-cost electricity at scale, the technology has largely remained experimental. And though America and Europe have long led the pursuit of a commercial reactor, meticulous planning has given China’s prospects a boost. Its private fusion firms have yet to rival those abroad. But the country’s national programme has become a fierce competitor. Integral to its successes is a three-pronged strategy: setting research priorities for its scientists and engineers; providing vast amounts of funding for those wonks; and building an industrial supply chain for the parts that fusion reactors will need. Whether or not that will be enough to guarantee victory, the race for fusion is on in earnest.

 

For now, China has settled on tried-and-tested technologies for pursuing fusion. BEST is a tokamak, a doughnut-shaped reactor in which an electrically charged plasma is heated and confined by magnets until the constituent particles, made up of different types of hydrogen nuclei, overcome the repulsive forces that normally keep them apart. When the conditions are right, the nuclei can be made to fuse, releasing vast amounts of energy. Much of this energy is delivered to neutrons produced by the reaction, causing them to collide with the reactor walls at high speed, thereby generating heat.

 

To become useful in power stations, tokamaks will need to reach so-called burning conditions, in which the plasma is dense enough for its heat to become self-sustaining. This occurs at temperatures above 150m°C and in the presence of magnetic fields that are hundreds of thousands of times stronger than Earth’s.

 

Chinese scientists are inching towards that goal. On January 1st researchers working at China’s Experimental Advanced Superconducting Tokamak (EAST), one of BEST’s predecessors (where a mural of Kuafu hangs) reported that they had successfully increased the density of their plasma to levels once thought impossible. Eking out further increases will take time.

 

Physics challenges are one thing; engineering is another. Tokamaks are big machines with cutting-edge components. Construction depends on a complex supply chain, including power modules, vacuum chambers and powerful superconducting magnets. Chinese policy has incentivised industrial firms to manufacture those parts, another area where the country is ahead of its rivals. Its engineering firms have particular expertise in the field of metallic carpentry, developing magnetic coils and power-conversion components used by fusion projects abroad. ITER, a long-running fusion effort based in the south of France, uses of Chinese-made parts.

 

There is also the question of fuel. BEST is designed to fuse nuclei of two hydrogen isotopes: deuterium, which has one proton and one neutron; and tritium, which has one proton and two neutrons. Deuterium, which can be extracted from water, is inexpensive. Tritium, by contrast, is hopelessly rare in nature and, owing to its radioactivity, decays quickly. BEST will initially rely on an external supply of this fuel but its scientists hope it will eventually be able to produce its own.

 

If the tokamak vessel is lined on the inside with a blanket of lithium, those atoms could, when struck by energetic neutrons released during nuclear fusion, turn into tritium atoms. It is an elusive step many fusion projects would dearly love to master.

 

To test and scale the lithium blanket as well as other fusion technologies and materials, R&D is being conducted down the road from BEST, at the Comprehensive Research Facility for Fusion Technology (CRAFT), which is also—naturally—nicknamed Kuafu. Here, engineers are developing materials, magnets and components that will go into future fusion devices, as well as testing BEST’s systems. They are also developing high-precision robots that can carry heavy payloads and operate under high temperatures, which will help maintain the giant reactor in the future. Whereas the Europeans want to perfect technologies ahead of construction, says Yannick Marandet, research director of France’s National Centre for Scientific Research, the big advantage the Chinese have is their willingness to “learn by doing”.

 

Equally important, though, has been state planners’ drive to harness fusion power. In July 2025 China created China Fusion Energy, a state-owned enterprise that sits under its national nuclear company , to tie together research efforts. On January 15th the country’s new Atomic Energy Law went into effect, driving investment in the growing industry by setting out regulations. The culmination of these efforts came on March 12th, when the government included nuclear fusion in its high-level economic blueprints, including the 15th Five Year Plan.

 

China’s largely state-led fusion efforts come as Western countries, in particular America, have seen a surge in private-sector interest in the field. Across the world 77 startups have raised $15bn with the goal of eventually achieving self-sustaining fusion using technologies ranging from advanced tokamaks to laser-driven designs and reactors with novel layouts known as stellarators. These alternatives, some of which may well be cheaper or simpler, could leapfrog expensive public efforts. Some American firms claim they will be able to supply energy to the grid by the early 2030s, a timeline that rivals China’s.

 

Move fast and fuse things

 

There are some signs China is increasingly following America’s example, driving private capital towards promising fusion startups. Whereas 42 American startups have raised a total of $8bn to date, eight Chinese firms raised about $5bn much more quickly. In April last year, NovaFusionX, a Chinese firm, raised $70m, the largest first-funding round for a private fusion company in the country. Startorus Fusion, another startup, spun out of Tsinghua University, is betting on a spherical-shaped tokamak, and raised double that amount in January. Energy Singularity, another firm, hopes to reach the same goal by building extremely strong magnets, whereas ENN, a Chinese conglomerate, is using different fuels: it will attempt to fuse hydrogen nuclei with those of boron.

 

The pursuit need not be zero-sum. China remains open to collaboration, not only learning from ITER’s findings, but also allowing foreign scientists to use its machines (though few Americans have shown up recently). Foreign scientists are quick to credit Chinese speed and efficiency—and progress—in improving their own projects. When BEST is up and running, it will be among the most advanced fusion experiments in the world, and scientists from all countries will want to collaborate, says Dr Marandet. Unlike Kuafu, then, China’s scientists will not chase the sun alone.” [1]

 

1. Chasing the sun. The Economist; London Vol. 458, Iss. 9491,  (Mar 21, 2026): 76, 77.

DI išvadų darymo taškai

 

 

“„NVIDIA“, kompiuterinių lustų gamintoja, yra vertingiausia pasaulyje įmonė. Jos sėkmę jai lėmė grafikos procesoriaus (GPU) universalumas – lustas, kurį ji pirmoji sukūrė 1990-ųjų pabaigoje.

 

Iš pradžių sukurti tam, kad vaizdo žaidimai atrodytų geriau, GPU pasirodė esą puikiai tinkami didelių kalbų modelių (LLM) apmokymui.

 

Šis atradimas padidino „Nvidia“ lustų paklausą ir jų vertę.

 

Laikai keičiasi greitai.

 

DI skaičiavimo paklausa keičiasi nuo modelių apmokymo prie jų gebėjimo atsakyti į realaus pasaulio užklausas, šis procesas vadinamas išvadomis.

 

Konsultacinė įmonė „McKinsey“ prognozuoja, kad iki dešimtmečio pabaigos išvados sudarys tris penktadalius DI duomenų centrų paklausos.

 

Atrodo, kad „Nvidia“ pripažįsta šį pokytį. Kovo 16 d. ji pristatė naują lustą, specialiai sukurtą išvadų užduotims, „Groq 3 LPX“, kurio architektūra skiriasi nuo tradicinio GPU.

 

Šį kartą ji turi daug konkurencijos. Nemažai startuolių kuria lustus, skirtus dirbtinio intelekto modeliams paleisti greičiau ir efektyviau, nei „Nvidia“.

 

Mokymas ir išvadų darymas kelia skirtingus reikalavimus aparatinei įrangai.

 

Mokymas, kurio metu dirbtinio intelekto modelis mokomas atpažinti pasikartojimus didžiuliuose neapdorotų duomenų kiekiuose, priklauso nuo daugybės lygiagrečiai atliekamų skaičiavimų.

 

Pavyzdžiui, „Nvidia B200“ lustas, vienas iš bendrovės flagmanų produktų, turi daugiau, nei 16 000 apdorojimo įrenginių, dar vadinamų branduoliais, tokių operacijų atlikimui.

 

Išvadų darymas, kurio metu baigtas modelis kreipiasi į savo mokymą, kad reaguotų į vartotojo raginimus, veikia kitaip. Jis vyksta dviem etapais: išankstinis užpildymas ir dekodavimas.

 

Išankstinio užpildymo metu modelis apdoroja raginimą ir konvertuoja jį į mažus teksto vienetus, paprastai apie keturis simbolius anglų kalba, vadinamus žetonais. Siekiant pagreitinti procesą, lygiagrečiai galima atlikti skirtingų užklausos dalių pavertimą žetonais.

 

Tada dekodavimas generuoja atsakymą, žetonas po žetono. Norėdamas tai padaryti, modelis remiasi savo „svoriais“ (mokymo metu išmoktais ryšiais tarp žetonų), taip pat anksčiau sugeneruotais žetonais. Šie svoriai saugomi sistemos atmintyje.

 

Nuolatinės prieigos prie atminties poreikis yra ta vieta, kur šiuolaikiniai GPU susiduria su problema. Dirbtinio intelekto procesoriai, tokie, kaip B200, turi mažą, bet itin greitą vidinę atmintį, vadinamą SRAM, taip pat daug didesnę išorinę atmintį, vadinamą DRAM. Prieiga prie DRAM gali būti dešimt kartų lėtesnė ir sunaudoti daug daugiau energijos, nei SRAM skaitymas. Problema toliau dar blogėja. Dirbtinio intelekto modeliams augant ir geriau tvarkant ilgus vartotojo raginimus, jų atminties poreikiai smarkiai auga. Kalifornijos universiteto Berklyje Amiro Gholami ir jo kolegų atliktas tyrimas rodo, kad per pastaruosius du dešimtmečius skaičiavimo našumas maždaug patrigubėdavo kas kelerius metus, o išorinės atminties pralaidumas pagerėdavo tik maždaug 1,6 karto. Ši „atminties siena“ tapo pagrindine kliūtimi, trukdančia didinti dirbtinio intelekto išvadų greitį.

 

Privalote tai atsiminti

 

GPU susidoroti su problemomis pasitelkia programinės įrangos sprendimus. Vienas iš būdų padalija du etapus tarp skirtingų procesorių. Išankstinio užpildymo etapas vykdomas GPU, optimizuotuose didelio lygiagretaus skaičiavimo našumui, o dekodavimas vyksta atskiruose GPU, skirtuose greitam atminties pasiekimui. Kita technika yra paketavimas, kai daug užklausų apdorojamos kartu. Įkėlus modelio svorius, juos galima naudoti daugeliui užklausų vienu metu, taip sumažinant pakartotinius apsilankymus išorinėje atmintyje.

 

Naujasis „Nvidia“ lustas naudoja programinės įrangos galią, kad padidintų lusto integruotą atmintį. SRAM dydis yra apie 500 megabaitų – labai mažai, palyginti su B200 192 gigabaitais išorinės atminties. Skirtumą lemia išmanioji programinė įranga, kuri choreografuoja, kaip kiekvienas duomenų elementas juda per lustą, kad maksimaliai padidintų skaičiavimus ir prieigą prie atminties.

 

Startuoliai eksperimentuoja su radikalesniais dizainais. Vienas iš būdų – tiesiog sukurti didesnį lustą. Šį požiūrį taiko amerikiečių lustų kūrėjas „Cerebras“. Naujausiame jų luste, pietų lėkštės dydžio, yra milžiniški 900 000 branduolių ir 44 gigabaitai luste integruotos SRAM. Kadangi visas duomenų judėjimas vyksta plokštelėje, „Cerebras“ teigia, kad jų sistema gali vykdyti išvadas iki 15 kartų greičiau, nei įprasti modeliai. Tačiau labai dideliems modeliams visų jų parametrų saugojimas SRAM atmintyje yra nepraktiškas.

 

Kiti šią problemą sprendžia, perprojektuodami duomenų judėjimą per branduolius. „MatX“, buvusių „Google“ lustų inžinierių įkurtas startuolis, remiasi idėja, naudojama „Google“ tenzorių apdorojimo įrenginiuose (TPU). Šie lustai remiasi tuo, kas vadinama sistoliniu masyvu – apdorojimo elementų tinkleliu, per kurį duomenys teka ritmiškai, panašiai, kaip kraujas, pumpuojamas per kūną. Po kiekvieno skaičiavimo rezultatas perduodamas tiesiai į kitą įrenginį, todėl nereikia saugoti tarpinių rezultatų atmintyje. Tačiau tradiciniai sistoliniai masyvai yra fiksuoto dydžio. Didesnėms užduotims juos padidinus, jie dažnai bus nenaudojami; mažesnius – efektyvumas sumažės, kai bus atliekamos didesnės užduotys. „MatX“ siūlo „padalijamą“ sistolinį masyvą, kuris padalija procesorių į keletą mažesnių tinklelių, skirtingai paskirstant skaičiavimo išteklius, priklausomai nuo to, ar lustas tvarko išankstinį užpildymą, ar dekodavimą.

 

Trečiasis metodas, kurį taiko Kalifornijoje įsikūrusi startuolė „d-Matrix“, bando visiškai panaikinti atminties sieną, turėdami tuos pačius komponentus, kurie tvarko ir atmintį, ir skaičiavimus. Ši architektūra, žinoma, kaip atminties kompiuterija, žada mažesnes energijos sąnaudas ir greitesnį išvadų darymą.

 

Kiti pasisako už lustų dizainą, pagrįstą konkrečiais algoritmais, siekiant dar labiau pagerinti efektyvumą. Kitas Kalifornijos startuolis „Etched“ kuria lustą, specialiai sukurtą transformatorių modeliams – algoritmams, kuriais grindžiama dauguma LLM – vykdyti. Ši specializacija leidžia įmonei atsisakyti kitiems tikslams reikalingos aparatinės įrangos ir supaprastina, luste veikiančią, programinę įrangą.

 

Kinijos tyrėjai pasiūlė dar radikalesnę specializacijos formą: modelio svorių įterpimą tiesiai į aparatinę įrangą. Viename Kinijos mokslų akademijos projekte jie fiziškai užkoduoti metalinių laidų išdėstyme. Autoriai teigia, kad ši technika pašalina poreikį gauti parametrus iš atminties, todėl pasiekiamas itin didelis efektyvumas.

 

Tačiau tokia specializacija kelia riziką. Naujo lusto sukūrimas paprastai trunka 12–18 mėnesių, o dirbtinio intelekto algoritmai vystosi daug greičiau. Lustas, sukurtas, remiantis šiandien dominuojančia modelio architektūra, gali greitai pasenti, jei pasikeis situacija.

 

Lustų populiarumas dar nenusmuko. „Nvidia“ konkurentai yra skirtinguose etapuose. „Cerebras“ jau kuria trečios kartos lustus; „d-Matrix“ tikisi šiais metais išleisti pirmąją plačiai prieinamą versiją. Kiti, įskaitant „MatX“ ir „Etched“, vis dar kuriami. „Nvidia“ teigia, kad „Groq 3 LPX“ rinką pasieks vėliau šiais metais. Lengva pastebėti, kad GPU užkariavo mokymą. Išvadų darymas yra sunkesnis.“ [1]

 

Anksti dar laidoti lustus. Kadangi DI pritaikymui praktikoje reikia jam atskleisti komercines paslaptis, pradeda dominuoti atvirojo šaltinio modeliai, kuriuos galima naudoti lokaliai, savininko įrangoje. Tam reikia papildomai apmokyti modelius, todėl praverčia lustai. AI kompanijos uždirba, duodamos modelių naujas versijas ir pagalbą, savininkams jomis naudojantis.

 

Pastebėjimas, kad dar per anksti „laidoti lustus“, yra tikslus, nes perėjimas prie lokalizuoto dirbtinio intelekto, kurį skatina saugumas, duomenų privatumas ir poreikis apsaugoti komercines paslaptis, iš tikrųjų padidina specializuotos įrangos, skirtos mokymui ir tikslinimui, poreikį.

 

Atvirojo kodo ir atvirojo svorio modeliai vis labiau dominuoja įmonių strategijose, nes jie leidžia organizacijoms valdyti dirbtinį intelektą vietoje, užtikrinant, kad jautrūs duomenys niekada nepaliks jų saugios, vietinės ar privačios debesijos aplinkos.

 

Pagrindiniai veiksniai, skatinantys vietinį dirbtinį intelektą ir nuolatinę lustų paklausą:

 

Komercinių paslapčių apsauga: naudojant patentuotas, debesijos pagrindu veikiančias, API, gali būti atskleisti jautrūs įmonės duomenys. Naudodamos atvirojo kodo modelius, įmonės gali išlaikyti savo intelektinės nuosavybės ir duomenų kontrolę.

 

Vietinio „tikslinimo“ poreikis: nors baziniai modeliai yra atvirojo kodo, juos reikia toliau tikslinti su konkrečiais įmonės duomenimis, kad jie būtų veiksmingi konkrečios pramonės užduotims (pvz., medicininiams, teisiniams ar patentuotiems gamybos darbo eigoms). Šiam procesui reikia didelės skaičiavimo galios (GPU/TPU), kad jis veiktų vietoje, todėl užtikrinama didelė dirbtinio intelekto įrangos paklausa.

 

Ekonominis perėjimas prie lokalizuotų skaičiavimų: Užuot mokėjusios debesijos paslaugų teikėjams už kiekvieną žetoną, įmonės pereina prie „Red Hat“ verslo modelio, kuriame jos naudoja nemokamus atvirojo kodo modelius ir moka už paslaugas, mokymą ir specializuotą įrangą, kad galėtų juos paleisti savo įrangoje.

 

Padidintas našumas mažesnėmis sąnaudomis: Atviri modeliai dabar pasiekia beveik 90 % uždarų modelių našumo per kelias savaites nuo išleidimo, todėl jie yra labai konkurencingi.

 

DI įmonių verslo modeliai

DI įmonės monetizuoja šią tendenciją sutelkdamos dėmesį į:

 

Naujų, mažesnių, labai efektyvių modelių, skirtų diegimui periferiniuose tinkluose, išleidimą.

Įrankių, padedančių įmonėms apmokyti ir pritaikyti šiuos modelius prie konkrečių duomenų, teikimą.

Perėjimą nuo SaaS (programinės įrangos kaip paslaugos) prie infrastruktūros, kuri palaiko vietinius įrenginius, teikimo.

 

DI lustai toli gražu nėra pasenę, jie yra būtini kitam įmonių DI diegimo etapui, kuriame daugiausia dėmesio skiriama konkrečioms sritims skirtoms, saugioms ir privačioms DI programoms, o ne bendrosios paskirties, debesyje talpinamam, DI.