Sekėjai

Ieškoti šiame dienoraštyje

2026 m. sausio 28 d., trečiadienis

„Google“ DNR paieškai įveda tvarką biologijos didžiuosiuose duomenyse

 

„MetaGraph“ suspaudžia didžiulius duomenų archyvus į mokslininkams skirtą paieškos sistemą, atverdama naujas biologinių atradimų ribas.

 

Internetas turi „Google“. Dabar biologija turi „MetaGraph“. Šiandien žurnale „Nature1“ išsamiai aprašyta paieškos sistema gali greitai peržiūrėti stulbinančius biologinių duomenų kiekius, saugomus viešosiose saugyklose.

 

„Tai didžiulis pasiekimas“, – sako Rayanas Chikhi, biokompiuterių tyrėjas Pasteuro institute Paryžiuje. „Jie nustatė naują standartą“ analizuodami neapdorotus biologinius duomenis, įskaitant DNR, RNR ir baltymų sekas, iš duomenų bazių, kuriose gali būti milijonai milijardų DNR raidžių, tai yra informacijos „petabazės“ – daugiau įrašų nei visuose tinklalapiuose didžiuliame „Google“ indekse.

 

Nors „MetaGraph“ pažymėta kaip „Google DNR paieškai“, Chikhi šį įrankį lygina su „YouTube“ paieškos sistema, nes užduotys reikalauja daugiau skaičiavimo išteklių. Lygiai taip pat, kaip „YouTube“ paieškos gali rasti kiekvieną vaizdo įrašą, kuriame yra, tarkime, raudoni balionai, net jei šių raktinių žodžių nėra pavadinime, žymose ar aprašyme, „MetaGraph“ gali atskleisti genetinius modelius, paslėptus giliai plačiuose sekoskaitos duomenų rinkiniuose, nereikalaujant, kad šie modeliai būtų iš anksto aiškiai anotuoti.

 

„Tai leidžia daryti tai, ko negalima padaryti jokiu kitu būdu“, – sako Chikhi.

 

„MetaGraph“ motyvacija buvo spręsti sekoskaitos duomenų rinkinių prieinamumo problemą. Šių saugyklų dydis per pastaruosius kelis dešimtmečius augo žaibišku greičiu, tačiau šis augimas sukėlė iššūkių mokslininkams, naudojantiems jose esančius duomenis. Neapdoroti sekoskaitos duomenys yra fragmentiški, triukšmingi ir per daug, kad būtų galima jų ieškoti tiesiogiai. „Paradoksu, bet duomenų kiekis yra pagrindinė kliūtis, trukdanti mums iš tikrųjų naudoti duomenis“, – sako Artemas Babaianas, skaičiavimo biologas iš Toronto universiteto Kanadoje.

 

Pasak vieno iš tyrimo autorių, André Kahleso, bioinformatiko iš Šveicarijos federalinio technologijos instituto (ETH) Ciuriche, Šveicarijoje, „MetaGraph“ galėtų padėti tyrėjams užduoti biologinius klausimus apie tokias saugyklas kaip Sequence Read Archive (SRA) – vieša duomenų bazė, kurioje yra daugiau nei 100 milijonų milijardų DNR raidžių2.

 

Jie sprendė šią problemą naudodami matematinius „grafus“, kurie susieja persidengiančius DNR fragmentus. kartu, panašiai kaip sakiniai, kuriuose tie patys žodžiai yra išdėstyti knygų rodyklėje.

 

Tyrėjai integravo duomenis iš septynių viešai finansuojamų duomenų saugyklų, sukurdami 18,8 mln. unikalių DNR ir RNR sekų rinkinių ir 210 mlrd. aminorūgščių sekų rinkinių, apimančių visas gyvybės rūšis – įskaitant virusus, bakterijas, grybus, augalus ir gyvūnus, įskaitant žmones. Jie taip pat sukūrė šių sekų paieškos sistemą, kurioje vartotojai naudoja tekstinius raginimus, kad ieškotų šiuose integruotuose neapdorotų duomenų archyvuose.

 

„Tai visiškai naujas būdas sąveikauti su šiuo duomenų rinkiniu“, – sako Kahlesas. „Jis yra suspaustas, bet pasiekiamas iš karto.“

 

Siekdami įrodyti „MetaGraph“ naudingumą, tyrimo autoriai panaudojo jį 241 384 žmogaus žarnyno mikrobiomo mėginių nuskaitymui, ieškodami genetinių antibiotikų atsparumo rodiklių visame pasaulyje, remdamiesi darbu, kuriame ankstesnė įrankio versija buvo naudojama vaistams atsparumo genams sekti bakterijų padermėse, kurios gyvena metro sistemose didžiuosiuose miestuose3. Autoriai teigia, kad analizę atliko maždaug per valandą galingu kompiuteriu.

 

Atviras kelias į atradimus

 

„MetaGraph“ nėra vienintelė šiuo metu siūloma didelio masto sekų paieškos priemonė.

 

Pavyzdžiui, Chikhi ir Babaian sukūrė platformą pavadinimu „Logan“, kuri sujungia milijardus trumpų sekoskaitų, kad sukurtų ilgesnes, organizuotas DNR atkarpas. Ši projektavimo architektūra leidžia sistemai aptikti ištisus genus ir jų variantus dar didesnėse sekoskaitų kolekcijose nei įmanoma naudojant „MetaGraph“, nors ir su tam tikrais kompromisais. „Turime mažiau funkcionalumo, bet daugiau našumo“, – sako Chikhi.

 

Papildytas „Logan“ pasiekiamumas padėjo tyrėjams atrasti daugiau nei 200 milijonų natūraliai susidarančių plastiką ėdančio fermento versijų, randamų įvairiose bakterijose, grybuose ir vabzdžiuose, įskaitant kai kurias versijas, kurios veikia dar geriau. nei laboratorijoje sukurti fermentai. Chikhi ir Babaianas savo išvadas paskelbė praėjusį mėnesį paskelbtame išankstiniame leidinyje4.

 

Jie ir kiti taip pat naudojo ankstesnę, siauresnę paieškos priemonę, pritaikytą virusų DNR saugykloms, kad atskleistų anksčiau nedokumentuotų virusų5 ir virusinių teršalų gausą sukurtose T ląstelių terapijose vėžiui gydyti6.

 

Pasak Babaiano, tokie atradimai nebūtų buvę įmanomi be dviejų dalykų: atvirojo kodo paieškos įrankių, prieinamų tokiose svetainėse kaip metagraph.ethz.ch ir logan-search.org, ir viešųjų sekvenavimo saugyklų, kuriomis jie naudojasi. Finansavimo mažinimui keliant grėsmę kitų rūšių biologinėms duomenų bazėms, Babaianas pabrėžia, kad šios paieškos naujovės pabrėžia „atvirų duomenų dalijimosi svarbą“.

 

„Tai ištekliai, skatinantys mokslo pažangą visame pasaulyje“, – sako Babaianas. „Jie atveria visiškai naują sritį, vadinamą petabazės masto genomika“ – o įtakingiausi pritaikymai dar tik ateityje.“ [A]

 

A. Nature 646, 528 (2025) By Elie Dolgin

‘Google for DNA’ brings order to biology’s big data

 


“MetaGraph compresses vast data archives into a search engine for scientists, opening up new frontiers of biological discovery.

 

 

The Internet has Google. Now biology has MetaGraph. Detailed today in Nature1, the search engine can quickly sift through the staggering volumes of biological data housed in public repositories.

 

“It’s a huge achievement,” says Rayan Chikhi, a biocomputing researcher at the Pasteur Institute in Paris. “They set a new standard” for analysing raw biological data — including DNA, RNA and protein sequences — from databases that can contain millions of billions of DNA letters, amounting to ‘petabases’ of information, more entries than all the webpages in Google’s vast index.

 

Although MetaGraph is tagged as ‘Google for DNA’, Chikhi likens the tool to a search engine for YouTube, because the tasks are more computationally demanding. In the same way that YouTube searches can retrieve every video that features, say, red balloons even when those key words don’t appear in the title, tags or description, MetaGraph can uncover genetic patterns hidden deep within expansive sequencing data sets without needing those patterns to be explicitly annotated in advance.

 

“It enables things that cannot be done in any other way,” Chikhi says.

 

 

The motivation behind MetaGraph was to address an accessibility problem in sequencing data sets. The size of these repositories has risen at a blistering pace in the past few decades, but this growth has presented challenges for the scientists using the data they contain. Raw sequencing reads are fragmented, noisy and too numerous to search directly. “The volume of the data, paradoxically, is the main inhibitor of us actually using the data,” says Artem Babaian, a computational biologist at the University of Toronto in Canada.

 

According to one of the study authors, André Kahles, a bioinformatician at the Swiss Federal Institute of Technology (ETH) Zurich in Switzerland, MetaGraph could help researchers to ask biological questions of repositories such as the Sequence Read Archive (SRA), a public database containing in excess of 100 million billion DNA letters2.

 

They tackled the problem through the use of mathematical ‘graphs’ that links overlapping DNA fragments together, much like sentences that share the same words lining up in a book index.

 

The researchers integrated data from seven publicly funded data repositories, creating 18.8 million unique DNA and RNA sequence sets and 210 billion amino-acid sequence sets across all clades of life — including viruses, bacteria, fungi, plants and animals, including humans. They also developed a search engine for these sequences, in which users use text prompts to search these integrated archives of raw data.

 

“It is a totally new way to interact with this body of data,” says Kahles. “It’s compressed, but accessible on the fly.”

 

To demonstrate the utility of MetaGraph, the study authors used it to scan 241,384 human gut microbiome samples for genetic indicators of antibiotic resistance around the world, building on work that used an earlier version of the tool to track drug-resistance genes in bacterial strains that live in subway systems across major urban centres3. The authors say they performed the analysis in about an hour on a high-powered computer.

Open road to discovery

 

MetaGraph is not the only massive-scale sequence search tool now on offer.

 

Chikhi and Babaian, for example, have built a platform called Logan, which stitches together billions of short sequencing reads to make longer, organized stretches of DNA. This design architecture allows the system to spot whole genes and their variants across even larger collections of sequencing reads than is possible with MetaGraph, albeit with certain trade-offs. “We have less functionality but more performance,” Chikhi says.

 

The added reach of Logan helped the researchers to uncover more than 200 million naturally occurring versions of a plastic-eating enzyme found in a variety of bacteria, fungi and insects — including some versions that work even better than enzymes designed in the lab. Chikhi and Babaian reported their findings in a preprint posted last month4.

 

They and others have also used an earlier, narrower search tool tailored to viral-DNA repositories to reveal reams of previously undocumented viruses5 and viral contaminants in engineered T-cell therapies for treating cancer6.

 

According to Babaian, such discoveries would not have been possible without two things: open-source search tools, available at sites such as metagraph.ethz.ch and logan-search.org, and the public sequencing repositories they tap into. With funding cuts threating other sorts of biological databases, Babaian stresses that these search innovations underscore the “critical importance of open data sharing”.

 

“These are resources to drive scientific progress across the world,” says Babaian. “They are opening up a completely new field of petabase-scale genomics” — and the most impactful applications are yet to come.” [A]

 

A. Nature 646, 528 (2025) By Elie Dolgin

Statybos įmonės kreipiasi į dirbtinį intelektą, kad padėtų valdyti projektus


„Statybų pramonė ieško dirbtinio intelekto ir dirbtinio intelekto agentų, kurie palengvintų projektų vadovų gyvenimą ir galiausiai išspręstų išeinančių į pensiją talentų problemą.

 

Statybų programinės įrangos įmonės parduoda dirbtiniu intelektu paremtus įrankius, kurie gali padėti statybviečių vadovams ir meistrams atlikti tokius darbus kaip statybviečių analizė dėl galimų saugos pažeidimų – užduotis, kurias dirbtinio intelekto modeliai gali atlikti ieškodami ir sintezuodami didelius duomenų kiekius. Jos taip pat kloja pamatus dirbtiniam intelektui, kuris vieną dieną galės atkurti patyrusio vadovo ar kvalifikuoto darbuotojo žinias.

 

Tokia technologija atsiranda kritiniu metu. Duomenų centrų bumas lemia kvalifikuotų statybininkų paklausos padidėjimą. Tuo tarpu, remiantis 2026 m. sausio mėn. Asocijuotų statybininkų ir rangovų prekybos grupės duomenimis, pramonėje trūksta apie 349 000 darbuotojų. Nacionalinis statybos tyrimų ir švietimo centras nustatė, kad iki 2031 m. apie 41 % dabartinės statybų darbo jėgos išeis į pensiją.

 

„Procore Technologies“, prekiaujanti statybų valdymo programine įranga, praėjusiais metais pristatė daugybę dirbtinio intelekto agentų, kurių tikslas – padėti kasdieniame statybvietės darbe. darbų sąrašus, įskaitant žurnalų agentą, brigadininko asmeninį asistentą ir veiksmų elementų generatorių administracinėms užduotims.

 

2002 m. įkurta Karpinterijoje, Kalifornijoje, bendrovė pranešė, kad paskutinįjį ketvirtį gavo 339 mln. USD pajamų. „Procore“ dirbtinio intelekto įrankiai remiasi įvairiais modeliais, įskaitant „OpenAI“ modelius.

 

Bendrovės įrankis „Assist“ naudoja didelio formato modelius, kad apibendrintų informaciją apie darbo vietą ir kitus dokumentus, todėl projektų vadovai gali rasti jų duomenyse paslėptus atsakymus, pvz., konkretaus kambario ar sienos priešgaisrinės saugos reikalavimus. Kiti „Procore“ įrankiai naudoja dirbtinį intelektą, kad išgautų duomenis iš projekto dokumentų ir automatiškai sudarytų reikiamų pateiktinų dokumentų sąrašą.

 

„Procore“ yra vienas iš kelių statybų sektoriaus programinės įrangos tiekėjų ir vienas didžiausių, kuris specializuojasi projektų valdyme. Kiti tiekėjai yra „Trimble“ ir „Autodesk“, taip pat mažesni startuoliai, naudojantys dirbtinį intelektą statybų planavimo ir projektavimo užduotims atlikti.

 

Dirbtinis intelektas taip pat naudojamas statybose: startuoliai „AI Clearing“ ir „OpenSpace“ naudoja kompiuterinę regą, kad stebėtų statybviečių eigą, remdamiesi aerofotonuotraukomis ir kitais realaus pasaulio vaizdais. Niujorke įsikūrusi startuolių įmonė „Skillit“ naudoja dirbtinį intelektą ir dirbtinio intelekto agentus, kad surastų statybininkams laisvas darbo vietas.

 

Viena iš priežasčių, kodėl dirbtinio intelekto įrankiai projektų valdymui padeda sutaupyti laiko, yra ta, kad jie palaiko natūralios kalbos apdorojimą, leisdami vadovams ir kitiems statybvietės darbuotojams tiesiogiai kalbėti su programėlėmis savo įrenginiuose.

 

Diktavimas „Procore“ dirbtinio intelekto įrankiui leidžia Mineapolyje įsikūrusios „Mortenson's“ inspektoriams įrašyti savo kasdienius žurnalus važiuodami po projekto vietą, teigė statybų įmonės inovacijų viceprezidentas Gene'as Hodge'as. „Jei duomenis galima įvesti tokiu būdu ir nereikia to daryti prie kompiuterio, šis vartotojo sąsajos patobulinimas yra tikrai puiku“, – sakė jis.

 

Floridoje įsikūrusi statybų įmonė „Kaufman Lynn“ sukūrė agentą, naudodama „Procore“ technologiją, kuri iš skirtingų įrankių ištraukia duomenis ir automatiškai sukuria suformatuotą mėnesinę pažangos ataskaitą. „Tai, kas mums užtruko nuo šešių iki aštuonių valandų, atliekama per kelias minutes“, – sakė įmonės vykdomasis viceprezidentas Timas Bonczekas.

 

Remiantis „International Data Corp.“ tyrimais, 60 procentų statybų įmonių jau naudoja tam tikrą dirbtinio intelekto formą, nors dauguma jų yra didelės įmonės. Daugelis mažesnių statybų tiekėjų vis dar skaitmenina savo veiklą ir vos prieš kelerius metus perėjo prie debesijos, teigė IDC analitikas Jeffas Hojlo.

 

Žvelgiant į ateitį, dirbtinis intelektas galėtų būti būdas išsaugoti ir perduoti kvalifikuotų darbuotojų, ypač tų, kurie išeina į pensiją arba pasitraukia iš sektoriaus, žinias. „Mūsų sporto padalinyje yra daug žmonių, kurie išeina į pensiją ir pastatė daug stadionų, ir mes kalbame apie tai, kaip užfiksuoti visas jų sukauptas žinias?“, – sakė Mortensono atstovas Hodge'as.

 

Kai statybų įmonės pradeda naudoti dirbtinį intelektą, tai taip pat priverčia jas kurti duomenis, kuriuos technologija gali panaudoti vėliau, sakė Aviadas Almagoras, „Trimble“ technologijų inovacijų viceprezidentas. „Istoriškai šie duomenys kartais tiesiog glūdi tų patyrusių darbuotojų galvose“, – sakė jis.

 

Statybų įmonė „Skanska“ jau bando naudoti dirbtinį intelektą, kad pasidalytų kelių kvalifikuotų ekspertų žiniomis su visa įmone. Tačiau prieš tai, kai dirbtinio intelekto agentai gali padėti perduoti žinias, žmonės turi pasitikėti technologijomis.

 

---

 

Belle Lin rašo WSJ lyderystės instituto CIO žurnale.” [1]

 

Teisingai. Jie nesidalins informacija iš savo smegenų. Reikia priverstinai implantuoti Musko smegenų implantus. To niekada nebus.

 

1. Construction Firms Turn to AI to Help Manage Projects. Lin, Belle.  Wall Street Journal, Eastern edition; New York, N.Y.. 28 Jan 2026: B6.

Construction Firms Turn to AI to Help Manage Projects


“The construction industry is looking to AI and AI agents to make project managers' lives easier, and eventually address an exodus of retiring talent.

 

Construction-software firms are selling AI-powered tools that can assist site managers and foremen with work like analyzing sites for potential safety violations -- tasks AI models can accomplish by searching through and synthesizing large amounts of data. And they are laying groundwork for AI that can one day reproduce the knowledge of an experienced leader or skilled worker.

 

Such technology comes at a critical time. The data-center boom is resulting in an uptick in demand for skilled builders. Meanwhile, the industry is short about 349,000 workers, according to January 2026 data from the Associated Builders and Contractors trade group. About 41% of the current construction workforce is projected to retire by 2031, the National Center for Construction Research and Education found.

 

Procore Technologies, which sells construction-management software, unveiled a slew of AI agents last year that aim to help with daily construction site to-do's, including a log agent, a foreman's personal assistant and an action item generator for back-office tasks.

 

The Carpinteria, Calif.-based company, founded in 2002, reported $339 million in revenue in its most recent quarter. Procore's AI tools rely on a variety of models, including those from OpenAI.

 

The company's Assist tool taps large-language models to summarize jobsite information and other documents, so project managers can find answers hidden in their data, such as the fire-rating requirements for a specific room or wall. Other Procore tools use AI to extract data from project documents to automatically create a list of required submittals.

 

Procore is one of several software providers for the construction sector, and among the largest that specializes in project management. Others include Trimble and Autodesk, as well as smaller startups using AI to tackle construction scheduling and design-based tasks.

 

AI also has other uses in construction: The startups AI Clearing and OpenSpace use computer vision to track the progress of construction sites based on aerial and other real-world images. Skillit, a New York City-based startup, is using AI and AI agents to match construction workers with open positions.

 

One reason AI tools for project management help save time is because they support natural language processing, enabling managers and other site workers to speak directly to the apps on their devices.

 

Dictating into Procore's AI tool lets Minneapolis-based Mortenson's superintendents record their daily logs while they drive around a project site, said Gene Hodge, the construction firm's vice president of innovation. "If you can input data that way, and not have to do it in front of a computer, having that user interface improvement is really great," he said.

 

Kaufman Lynn, a Florida-based construction firm, built an agent using Procore's technology that pulls data from different tools and automatically creates a formatted monthly progress report. "Something that took us six to eight hours is done within minutes," said Tim Bonczek, an executive vice president at the firm.

 

Sixty percent of construction firms are already using some form of AI, though most of those are large companies, according to research from International Data Corp. Many smaller construction providers are still digitizing and were moving to the cloud just a few years ago, said Jeff Hojlo, an analyst at IDC.

 

Looking ahead, AI could serve as a way to save and transfer the knowledge of skilled workers -- especially those who retire or exit the sector. "We have a number of people retiring in our sports division that have built a lot of stadiums, and we're talking about, 'How do we capture all of the knowledge that they've built?'" Mortenson's Hodge said.

 

When construction firms start to use AI, it also forces them to create the data the technology can use later, said Aviad Almagor, Trimble's vice president of technology innovation. "Historically, this data sometimes just resides in the heads of those experienced employees," he said,

 

Construction firm Skanska is already trying to use AI to share the knowledge of a few skilled experts with the entire company. But before AI agents can help with knowledge transfer, people need to trust the technology.

 

---

 

Belle Lin writes WSJ Leadership Institute's CIO Journal.” [1]

 

Right. They will not share the information from their brains. You need forcefully implant Musk's brain implants. This will never happen. 

 

1. Construction Firms Turn to AI to Help Manage Projects. Lin, Belle.  Wall Street Journal, Eastern edition; New York, N.Y.. 28 Jan 2026: B6.

Dirbtinio intelekto akcijoms vis dar gresia pavojus iš Kinijos


„Praėjusiais metais tuo pačiu metu kelių, sparčiai kylančių, akcijų kainos smarkiai krito. JAV rinkos vertę trilijonais sumažino žinia, kad Kinijos dirbtinio intelekto bendrovė „DeepSeek“ beveik prilygo JAV konkurentams, kurie išleido didžiulius, neįprastus, turtus lustams ir elektrai.

 

Nvidia ir jos Taivano tiekėja TSMC patyrė nuostolių – atitinkamai 17 % ir 13 % kritimas. Labiausiai nukentėjo duomenų centrų energijos tiekėjai. Turbinų gamintoja „GE Vernova“ ir atominių elektrinių savininkės „Vistra“ bei „Constellation Energy“ prarado daugiau, nei penktadalį jų vertės.

 

Kaip tuo metu aiškino „Heard on the Street“ apžvalgininkas Danas Gallagheris, reakcija buvo perdėta, o „DeepSeek“ teiginiai atrodė perdėti. Tai buvo puikus sprendimas: beveik visos paveiktos akcijos atsigavo.

 

Ar šis pagreitis tęsis? Net jei turite tik indeksų fondus, o ne tiesiogiai dirbtinio intelekto akcijas, tai esminis klausimas. „JPMorgan Asset Management“ ataskaitoje teigia, kad 42 su dirbtiniu intelektu susijusios bendrovės yra atsakingos už nuo 65 % iki 75 % „S&P 500“ pelno, pajamų ir kapitalo išlaidų nuo „ChatGPT“ paleidimo 2022 m. lapkritį.

 

Kinija vėl gali atskleisti siužetą, nes yra daugiau, nei vienas būdas nulupti dirbtinio intelekto katę. Kinija negali atvirai įsigyti pažangiausių lustų, kuriuos turi JAV įmonės, tačiau dirba su vietinėmis alternatyvomis ir kitais trumpesniais būdais. Dirbtinis intelektas yra nacionalinis prioritetas, kuris nepriklauso nuo ketvirtinių skaičių.

 

Kaip nurodoma „JPMorgan“ ataskaitoje, ir kaip investuotojai suprato „DeepSeek“ dieną, pagrindinis viso to ingredientas yra elektra. JAV technologijų gigantai pykdo politikus ir vartotojus, didindami komunalinių paslaugų sąskaitas. Dirbtinio intelekto kūrėjų dabar prašoma padengti didesnę išlaidų dalį.

 

Nepaisant to, kad Baltieji rūmai palankiai vertina branduolines elektrines ir iškastinį kurą, gamybos pajėgumų ir perdavimo linijų statyba užtrunka. Nuo 2019 m. Kinija padidino stulbinamais 2500 teravatvalandžių pajėgumų – daugiau nei 10 kartų daugiau, nei JAV per tą patį laikotarpį.

 

Jei Kinijos dirbtinio intelekto modeliai taps pakankamai geri, kad pritrauktų daugiau įmonių ir individualių išlaidų „tai sukels problemų tokioms įmonėms, kaip „OpenAI“. Tas pats pasakytina ir apie kitas, kurios yra susijusios su „OpenAI“ per sudėtingus finansinius tinklus. Ilgainiui tai gali paveikti didelę akcijų rinkos dalį ir netgi pakenkti JAV lustų gamintojams, kurie vis dar turi technologinį pranašumą.“ [1]

 

1. AI Stocks Still Face a China Risk. Jakab, Spencer.  Wall Street Journal, Eastern edition; New York, N.Y.. 28 Jan 2026: B12.  

AI Stocks Still Face a China Risk


“This time last year, several highflying stocks plunged. What knocked trillions off of the value of the U.S. market was news that a Chinese AI company, DeepSeek, had nearly matched U.S. competitors that were spending fortunes on chips and electricity.

 

Nvidia and its Taiwanese supplier TSMC were casualties, down by 17% and 13%, respectively. Hardest hit were power suppliers to data centers. Turbine maker GE Vernova and nuclear-plant owners Vistra and Constellation Energy each shed more than a fifth of their value.

 

As Heard on the Street columnist Dan Gallagher explained at the time, the reaction was excessive and DeepSeek's claims seemed exaggerated. It was a great call: Nearly all of the affected stocks rebounded.

 

Will that momentum continue? Even if you just own index funds and not AI stocks directly, it's a crucial question. JPMorgan Asset Management says in a report that 42 AI-related companies are responsible for between 65% and 75% of the S&P 500's gains, earnings and capital spending since ChatGPT was launched in November 2022.

 

China could play the spoiler again because there's more than one way to skin an AI cat. It can't openly get the cutting-edge chips that U.S. companies have, but it's working on homegrown alternatives and other shortcuts. AI is a national priority that doesn't depend on making quarterly numbers.

 

As the JPMorgan report points out, and as investors understood on DeepSeek day, a key ingredient in all this is electricity. Tech giants in the U.S. are angering politicians and consumers by sending utility bills higher. AI developers are now being asked to shoulder more of the cost.

 

Despite a nuclear and fossil-fuel friendly White House, generation capacity and transmission lines take time to build. Since 2019, China has added an astounding 2,500 terawatt hours of capacity -- more than 10 times what the U.S. has over the same period.

 

If Chinese AI models become good enough to attract more corporate and individual spending then that will spell trouble for companies like OpenAI. The same goes for others connected to OpenAI through complex financial webs. In the longer run, it could affect a swath of the stock market -- and even hurt the U.S. chip makers that still have a technological edge.” [1]

 

1. AI Stocks Still Face a China Risk. Jakab, Spencer.  Wall Street Journal, Eastern edition; New York, N.Y.. 28 Jan 2026: B12.