Sekėjai

Ieškoti šiame dienoraštyje

2026 m. balandžio 24 d., penktadienis

Ar žemiškas grybelis gali užteršti Marsą? NASA, galbūt, rado vieną pakankamai atsparų.


 „Tyrėjai nustatė rūšį, kuri gali išgyventi radiaciją, didelį karštį ir imituotą Marso dirvožemį, o tai kelia naują iššūkį protokolams, skirtiems išlaikyti raudonąją planetą nepaliestą.

 

 

Svarbus klausimas: jei būtumėte astronautas, bandantis ištverti ekstremalias sąlygas, kur turėtumėte ieškoti įkvėpimo? Sandra Bullock filme „Gravitacija“? Ryanas Goslingas filme „Projektas „Ave, Marija“? Netiesa. Pabandykite nelytiniu būdu daugintis sporas.

 

 

Viena konkreti, iš grybelio, vadinamo Aspergillus calidoustus, pasirodė esanti beveik nenužudoma. Tyrėjų grupė neseniai nustatė šią atmainą, gyvenančią NASA įrenginiuose, kur surenkami Marso misijos komponentai, ir paveikė ją daugybe žiaurių iššūkių, imituojančių kosminių kelionių ir paties Marso iššūkius. Verdiktas: mikrobų terminatorius.

 

 

Mokslininkų išvados, šią savaitę paskelbtos žurnale „Applied and Environmental Microbiology“, yra ne tik geros mokslinės smulkmenos. Jos atskleidžia, kad jei nepasikeis NASA valymo protokolai, robotinės sistemos, tyrinėjančios Marso paviršių, gali netyčia užkrėsti planetą itin atspariomis kolonizuojančiomis sporomis.

 

 

„Tai iš tikrųjų susiję su atsakingu tyrinėjimu“, – sakė Atul. M. Chanderis, Misisipės universiteto podoktorantūros tyrimų bendradarbis, kuris buvo pirmasis šio leidinio autorius. „Tyrinėdami šią visatą, norime turėti galimybę siųsti orlaivius neatsiveždami jokių atsparių Žemės mikrobų“, – sakė jis.

 

NASA vadovaujasi tarptautinėmis gairėmis, vadinamomis Planetų apsaugos protokolu, kuriomis siekiama užtikrinti, kad Žemės biologija neužterštų dangaus kūnų ir atvirkščiai. Agentūra taip pat turi specialią komandą – Reaktyvinio judėjimo laboratorijos biotechnologijų ir planetų apsaugos grupę (B.P.P.G.), kuri prižiūri pastangas išvengti kryžminės taršos misijų metu.

 

Keletas naujo tyrimo mokslininkų, įskaitant tyrimo vadovą Kasthuri Venkateswaraną, buvusį Reaktyvinio judėjimo laboratorijos vyresnįjį mokslininką, dirbo apsaugos grupėje, todėl jie iš pirmų lūpų žinojo, kad egzistuoja atsparūs mikrobai. Vis dėlto dr. Venkateswaranas grybelio padermės išlikimą pavadino „nepaprastu“.

 

Ankstesni tyrimai NASA įrenginių paviršiuose, įskaitant ultrafiltruotas švarias patalpas, kuriose konstruojami ir bandomi erdvėlaiviai, nustatė įvairių bakterijų ir grybelių. Ten surinkimo darbuotojai dėvi visą kūną dengiančius kombinezonus ir kaukes, tačiau dezaktyvavimo metodai šiuo metu yra orientuoti į bakterijų, o ne grybelių naikinimą.

 

Tyrimo metu mokslininkai ištyrė 27 grybelių padermes, kurias jie gavo iš NASA švariųjų patalpų, naudotų „Mars 2020“ misijoje, kurios metu Marse nusileido „Perseverance“ marsaeigis, grindų, ir du kontrolinius mikrobus, kurie, kaip žinoma, gerai toleruoja radiaciją. Dauguma mėginių, kurie išgyveno preliminarų ultravioletinių spindulių patikrinimą ir buvo intensyvesnio apdorojimo, greitai žuvo, tačiau A. calidoustus, kuris buvo paimtas iš surinkimo patalpos Floridoje, išgyveno.

 

Mokslininkai A. calidoustus sporas šešis mėnesius paveikė lėtine neutronine spinduliuote – imituodami keliones kosmose – ir beveik pusė jų išgyveno. Jie jas kaitino 125 laipsnių Celsijaus sausu karščiu, paprastai naudojamu erdvėlaivių komponentams sterilizuoti, ir sporos išgyveno net Bacillus pumilus, rūšį, kurią NASA dažnai naudoja kaip etaloną. Ir jie apdorojo sporas atšiauriomis sąlygomis, kurios atspindėjo patirtį. pačiame Marse: 24 valandos itin stiprios UV spinduliuotės, žemas atmosferos slėgis ir vidutinė metinė Marso paviršiaus temperatūra, lygi -60 laipsnių Celsijaus.

 

Beje, jie dar labiau paveikė Marso dirvožemį.

 

„Mes bandome išsiaiškinti šių mikrobų ribas“, – sakė dr. Chanderis ir pridūrė: „Toks atsparumo lygis, švelniai tariant, neįprastas.“

 

Atmosfera sukėlė mikrobų paviršiaus įdubimus ir randus, tačiau tai nebuvo mirtina, o dulkėta Marso uoliena, vadinama regolitu, regolitu, regis, turėjo buferinį efektą, padėdama sporoms išgyventi žemą slėgį.

 

Visiškai jie žuvo tik tada, kai ilgą laiką susidūrė su ekstremalia radiacija ir vėsimu.

 

Tyrimo autoriai atsisakė komentuoti, ar A. calidoustus jau galėjo nukeliauti į Marsą, teigdami, kad tai neįeina į šio tyrimo apimtį. Tačiau jie pažymėjo, kad šis darbas gali turėti įtakos tokioms pramonės šakoms kaip farmacija, medicinos sektoriai ir maisto sauga, nes panašūs grybai gali išgyventi pasterizaciją ir terminį apdorojimą panašiais būdais.

 

„Žinojimas, kad kažkas gali išgyventi 125 laipsnių Celsijaus ir didesnę radiaciją, pavers jį modeliniu organizmu, nustatančiu naujus sterilizavimo standartus“, – sakė dr. Chanderis.

 

Tuo tarpu jie ir toliau daugiausia dėmesio skiria tam, kad žemiški organizmai nepatektų į kosmosą. Niekas nenori įsivaizduoti širdgėlos, kurią patirtų mokslininkas, atradęs gyvybę Marse, tik tam, kad suprastų, jog šis padaras yra keleivis iš Floridos.“ [1]

 

1. Could an Earthly Fungus Contaminate Mars? NASA May Have Found One Hardy Enough. Emily Baumgaertner Nunn.  New York Times (Online) New York Times Company. Apr 24, 2026.

Could an Earthly Fungus Contaminate Mars? NASA May Have Found One Hardy Enough.

 


 

“Researchers identified a species that can survive radiation, extreme heat and simulated Martian soil, posing a new challenge for protocols intended to keep the red planet pristine.

 

Pop quiz: If you were an astronaut trying to endure extreme conditions, where should you look for inspiration? Sandra Bullock in “Gravity”? Ryan Gosling in “Project Hail Mary”? Wrong. Try an asexual reproductive spore.

 

One in particular, from a fungus called Aspergillus calidoustus, has proved itself almost unkillable. A group of researchers recently identified the strain living inside NASA facilities where Mars mission components are assembled, and subjected it to a litany of brutal challenges that simulate those of space travel and Mars itself. The verdict: the Terminator of microbes.

 

The scientists’ findings, published this week in the journal Applied and Environmental Microbiology, are not just good science trivia. They reveal that, unless NASA’s cleaning protocols change, the robotic systems that explore the surface of Mars could inadvertently infect the planet with hyper-resilient colonizing spores.

 

“This is really about doing exploration responsibly,” said Atul M. Chander, a postdoctoral research associate at the University of Mississippi, who was the first author on the publication. “As we explore this universe, we want to be able to send aircraft without bringing any hardy Earth microbes,” he said.

 

NASA follows international guidelines called the Planetary Protection protocol, aimed at making sure Earth’s biology doesn’t taint celestial bodies, and vice versa. The agency also has a dedicated team, the Jet Propulsion Laboratory’s biotechnology and planetary protection group, or B.P.P.G., that oversees efforts to avoid cross-contamination on missions.

 

Several scientists behind the new research, including the study’s leader, Kasthuri Venkateswaran, a former senior scientist at the Jet Propulsion Laboratory, have worked in the protection group, so they knew firsthand that hardy microbes existed. Still, Dr. Venkateswaran called the fungal strain’s survival “remarkable.”

 

Previous studies have identified various bacteria and fungi on NASA facility surfaces, including the ultrafiltered clean rooms, where spacecraft are constructed and tested. There, employees involved in assembly wear full-body coveralls and masks, but decontamination techniques are currently focused on eliminating bacteria, not fungi.

 

In the study, researchers examined 27 fungal strains they had acquired from the floors of NASA clean rooms used in the Mars 2020 mission, which landed the Perseverance rover on Mars, plus two control microbes known to tolerate radiation well. Most of the samples that survived a preliminary ultraviolet screening and underwent more intense treatments died quickly, but the A. calidoustus, which had been taken from a Florida assembly facility, endured.

 

The scientists subjected the A. calidoustus spores to six months of chronic neutron radiation — mimicking space travel — and almost half of them survived. They heated them with 125 degree Celsius dry heat, typically used to sterilize spacecraft components, and the spores outlasted even Bacillus pumilus, a species that NASA often uses as a benchmark. And they treated the spores with harsh conditions that mirrored the experience on Mars itself: 24 hours of extreme UV radiation, plus low atmospheric pressure and the average annual Mars surface temperature of negative 60 degrees Celsius.

 

For good measure, they topped it off with exposure to hostile Martian soil.

 

“We’re trying to find the limits of these microbes,” Dr. Chander said, adding, “This level of resistance is unusual, to say the least.”

 

The atmosphere caused some surface pitting and scarring on the microbes, but it was not lethal, and the dusty Martian rock, called regolith, appeared to provide a buffering effect, helping spores to survive the low pressure.

 

They fully died only when they faced both extreme radiation and cooling together for an extended period of time.

 

Study authors declined to say whether A. calidoustus could have already made the journey to Mars, saying it was beyond the scope of this inquiry. But they noted that the work could have implications for industries like pharmaceuticals, medical sectors and food safety, since similar fungi could survive pasteurization and heat treatments via similar means.

 

“Knowing that something can survive 125 degrees Celsius plus radiation — that’s going to make it a model organism for setting new sterilization standards,” Dr. Chander said.

 

In the meantime, they remain focused on keeping earthly organisms out of the cosmos. No one wants to imagine the heartbreak of a scientist discovering life on Mars — only to realize the creature is a stowaway from Florida.” [1]

 

1. Could an Earthly Fungus Contaminate Mars? NASA May Have Found One Hardy Enough. Emily Baumgaertner Nunn.  New York Times (Online) New York Times Company. Apr 24, 2026.

„Tesla“ klientams pažadėta atnaujinti senesnes transporto priemones


„Tesla“ teigė, kad milijonams klientų, turinčių senesnes transporto priemones, neturinčias autonominio vairavimo technologijos, siūlys techninės įrangos atnaujinimus arba nuolaidas.

 

Generalinis direktorius Elonas Muskas per pokalbį su investuotojais teigė, kad senesnė technologija, žinoma kaip „Hardware 3“, negali valdyti visiškai autonominių kelionių, kaip bendrovė anksčiau žadėjo.

 

„Tesla“ teigė, kad iki 2024 m. pagamintose transporto priemonėse bus kompiuteris ir kameros, reikalingos autonominiam vairavimui, kai „Tesla“ programinė įranga taps pakankamai moderni.

 

„Deja, „Hardware 3“ tiesiog neturi galimybės pasiekti neprižiūrimo FSD“, – sakė Muskas, turėdamas omenyje bendrovės vairuotojo pagalbos programinę įrangą, vadinamą „Full Self-Driving (Supervised“). „Vienu metu mes manėme, kad ji tai turės.“

 

Šis klausimas sudomino daugelį „Tesla“ savininkų, kai kurie iš jų sumokėjo tūkstančius dolerių už nuolatinę prieigą prie FSD, tikėdamiesi, kad galiausiai turės savaeigį automobilį. Anksčiau bendrovė siūlė nuolatinę prieigą prie technologijos, prijungtos prie konkrečios transporto priemonės, už vienkartinį mokestį, skaičiuojamą tūkstančiais dolerių.

 

Dabar, pasak Musko, bendrovė turės įkurti „mikro gamyklas“ didžiuosiuose didmiesčiuose, galinčias atnaujinti senesnius automobilius naujausiais kompiuteriais ir kameromis. „Jei tai daroma tik aptarnavimo centre, tai padaryti būtų labai lėtai ir neefektyviai“, – sakė Muskas. „Taigi, mums iš esmės reikia daug gamybos linijų, kad būtų galima atlikti šį pakeitimą.“

 

Muskas taip pat teigė, kad savininkams bus pasiūlyta „su nuolaida mainams“ už naujesnį automobilį, tačiau jis nepasakė, ar bendrovė leis savininkams perkelti savo visą gyvenimą galiojančią FSD prieigą prie naujo automobilio, kaip tikėjosi daugelis „Tesla“ savininkų.

 

Bendrovė pabrėžė FSD svarbą savo verslo ateičiai, nes ji pereina nuo elektromobilių pardavimo ir sutelkia dėmesį į autonomiją, dirbtinį intelektą ir robotiką. Vyriausiasis finansų direktorius Vaibhavas Taneja pokalbio metu sakė, kad bendrovė pakeitė savo automobilių pardavimo strategiją, „pabrėždama FSD kaip produktą, o transporto priemonę kaip tik pristatymo mechanizmą“.

 

Nepaisant šio pokyčio, pajamos pirmąjį ketvirtį, palyginti su tuo pačiu laikotarpiu praėjusį, išaugo 16 %. metai. Transporto priemonių pardavimai išaugo 6,3 %, nors tai buvo antras blogiausias bendrovės pardavimų ketvirtis nuo 2022 m.

 

„Tesla“ taip pat padidino FSD prenumeratų skaičių iki 1,28 mln. abonentų. Tai 16,4 % daugiau nei ankstesniu ketvirčiu ir 51 % daugiau nei ankstesniais metais.

 

Šiuo metu „Tesla“ siūlo tik paslaugos prenumeratą, kainuojančią 99 USD per mėnesį.

 

Muskas nepateikė kainos įvertinimo ar termino, kada „Tesla“ teiks šiuos atnaujinimus. Vadovai anksčiau teigė, kad bendrovė lauks senos įrangos atnaujinimo, kol stabilizuos savo autonominės programinės įrangos kūrimą.

 

Birželio pabaigoje bendrovė planuoja išleisti programinės įrangos atnaujinimą vairuotojams, naudojantiems seną įrangą, kuris suteiks jiems daugelį funkcijų, šiuo metu prieinamų tik naujoje įrangoje, pokalbio metu sakė Ashokas Elluswamy, „Tesla“ dirbtinio intelekto programinės įrangos viceprezidentas.

 

Šiandien „Tesla“ programinė įranga gali važiuoti daugumoje gatvių, keisti eismo juostas ir parkuotis, tačiau vairuotojas turi būti atidus ir būti pasiruošęs perimti valdymą. Kai kuriose jurisdikcijose, pavyzdžiui, Europoje klientai mokėjo už paslaugą, bet negavo prieigos dėl programinės įrangos reguliavimo apribojimų.

 

Tokiose šalyse kaip JAV klientai, turintys senesnę aparatinę įrangą, negali naudoti pažangiausios programinės įrangos versijos, kuri skirta veikti su naujesne aparatine įranga, dabar vadinama AI4.

 

Bendrovė susidūrė su klientų pasipriešinimu, kurie teigė, kad „Tesla“ juos klaidino dėl autonomijos terminų. Tomas LoSavio, pensininkas teisininkas iš Kalifornijos, „Journal“ sakė, kad 2019 m. už savo automobilį sumokėjo 100 000 USD, įskaitant 8 000 USD atnaujinimą už nuolatinę prieigą prie FSD, tikėdamasis, kad visiška autonomija bus jau visai čia pat.

 

LoSavio yra pagrindinis ieškovas kolektyviniame ieškinyje, kuriuo siekiama, kad „Tesla“ grąžintų pinigus ir atlygintų žalą už klaidingą reklamą. „Tesla“ apskundė ieškinio kolektyvinį statusą.

 

Bendrovei taip pat gresia kolektyvinis ieškinys Australijoje, taip pat kampanija, kuria siekiama suburti „Tesla“ savininkus Europoje, kurie sumokėjo už FSD, bet niekada jo negavo dėl reguliavimo apribojimų ir technologijų atnaujinimų.

 

Vis dėlto „Tesla“ vadovai toliau reklamuoja šią technologiją.

 

„Tesla“ pristatė nedidelį skaičių visiškai autonominių transporto priemonių kaip savo „Robotaxi“ pavėžėjimo programėlės dalį Ostine, Teksase, Hiustone ir Dalase. Trečiadienį Muskas teigė, kad iki metų pabaigos kasdieniai klientai galės naudotis neprižiūrima „Tesla“ programinės įrangos versija.

 

Jis pridūrė, kad kai senesnių „Hardware 3“ automobilių savininkai gaus pažadėtus atnaujinimus, jie taip pat galės „prisijungti prie „Robotaxi“ parko ir turėti neprižiūrimą FSD“.“ [1]

 

 

1. Tesla Customers Receive Pledge For Upgrades of Older Vehicles. Peterson, Becky.  Wall Street Journal, Eastern edition; New York, N.Y.. 24 Apr 2026: B1.

Tesla Customers Receive Pledge For Upgrades of Older Vehicles

 

“Tesla said it would offer hardware upgrades or trade-in discounts to the millions of customers who own its older vehicles that don't have the technology to drive autonomously.

 

Chief Executive Elon Musk said on a call with investors that the older technology, known as Hardware 3, isn't capable of handling fully autonomous rides, as the company previously promised.

 

Tesla has said those vehicles, which were produced before 2024, had the computer and cameras necessary to drive autonomously once Tesla's software became sophisticated enough.

 

"Unfortunately, Hardware 3 simply does not have the capability to achieve unsupervised FSD," Musk said, referencing the company's driver assistance software, which is called Full Self-Driving (Supervised). "We did think at one point it would have that."

 

The matter has galvanized many Tesla owners, some of whom paid thousands of dollars for lifetime access to FSD with the expectation that they would eventually have a self-driving car. The company previously offered lifetime access to the technology, connected to a specific vehicle, for a one-time fee in the thousands of dollars.

 

Now, Musk said, the company will need to set up "micro factories" in major metro areas capable of updating the older cars with the latest computers and cameras. "If it's done just at the service center, it's extremely slow to do so and inefficient," Musk said. "So we basically need many production lines to make the change."

 

Musk also said owners would be offered a "discounted trade-in" for a newer car, but he didn't say whether the company would let owners transfer their lifetime FSD access to the new car, as many Tesla owners have hoped.

 

The company has emphasized the importance of FSD for the future of its business as it moves away from electric-vehicle sales to focus on autonomy, artificial intelligence and robotics. Chief Financial Officer Vaibhav Taneja said on the call that the company changed its car sales strategy to "emphasize FSD as the product, and the vehicle as only the delivery mechanism."

 

Despite this shift, revenue grew 16% in the first quarter compared with the same period last year. Vehicle sales were up 6.3%, though it was the company's second-worst sales quarter since 2022.

 

Tesla also increased FSD subscriptions, to 1.28 million subscribers. That is up 16.4% compared with the prior quarter, and a 51% increase from the year before.

 

Tesla currently only offers a subscription for the service that costs $99 a month.

 

Musk didn't give a cost estimate or timeline for when Tesla would provide these upgrades. Executives previously said that the company would wait to upgrade old hardware until it has stabilized the development of its autonomy software.

 

At the end of June, the company plans to release a software update for drivers using the old hardware, which will give them many of the features currently only available on the new hardware, Ashok Elluswamy, Tesla vice president of AI software, said on the call.

 

Today, Tesla's software can navigate most streets, change lanes and park, but it requires the driver to pay attention and be prepared to take over. In some jurisdictions, such as Europe, customers paid for the service but didn't get access because of regulatory restrictions on the software.

 

In areas such as the U.S., customers with older hardware aren't able to use the most-advanced version of the software, which is designed to run on a newer hardware setup now called AI4.

 

The company has faced pushback from customers who said Tesla misled them about the timeline for autonomy. Tom LoSavio, a retired lawyer in California, told the Journal that he paid $100,000 for his car in 2019, including an $8,000 upgrade for lifetime access to FSD, expecting that full autonomy was just around the corner.

 

LoSavio is the lead plaintiff in a class-action lawsuit seeking a refund and damages from Tesla for false advertising. Tesla has appealed the lawsuit's class-action status.

 

The company also faces a class action in Australia, as well as a campaign to organize Tesla owners in Europe who paid for FSD but never got it because of regulatory restrictions and technology updates.

 

Still, Tesla executives continue to promote the technology as just around the corner.

 

Tesla has rolled out a small number of fully autonomous vehicles as part of its Robotaxi ride-hailing app in Austin, Texas, Houston and Dallas. Musk said on Wednesday that everyday customers could have access to the unsupervised version of Tesla's software by the end of the year.

 

He added that once the older Hardware 3 car owners get the promised upgrades, they too will be able "to enter the Robotaxi fleet and have unsupervised FSD."” [1]

 

1. Tesla Customers Receive Pledge For Upgrades of Older Vehicles. Peterson, Becky.  Wall Street Journal, Eastern edition; New York, N.Y.. 24 Apr 2026: B1.

„DeepSeek V4“ tęsinys turėtų išplėsti Kinijos pasiekiamumą atvirojo kodo dirbtinio intelekto srityje.

 

Ar pakaks „Mac Mini“, kad „DeepSeek V4“ mokytųsi iš mano veiksmų vaizdo įrašų, kaip aš valdau įvykius mano „iPhone“ ekrane?

 

Taip, modernus „Mac Mini“ (M4 arba M4 Pro su 64 GB ir daugiau RAM) gali veikti ir mokytis iš vaizdo įrašų duomenų, naudodamas „DeepSeek V4“ seriją (konkrečiai, 284B „Flash“ modelį) lokaliai, tačiau jam reikalingos specifinės konfigūracijos, pvz., 4 bitų kvantavimas, kad veiktų pagal RAM apribojimus.

 

„DeepSeek V4“ modeliai gali apdoroti daugiarūšę įvestį (tekstą, vaizdą ir vaizdo įrašą), o „Flash“ variantas (284B parametrai) yra sukurtas taip, kad būtų pakankamai efektyvus mažesniam, nei duomenų centrų įrangos, naudojimui.

 

Pagrindiniai šio naudojimo atvejo aspektai

 

Modelio pasirinkimas: turėtumėte naudoti „DeepSeek-V4-Flash“ (284B parametrai, aktyvuoti 13B), o ne „V4 Pro“ (1,6T parametrai). „Pro“ modelis yra per didelis vienam kompiuteriui, o „Flash“ variantas gali veikti su didelės RAM talpos „Apple Silicon“ procesoriumi, tinkamai kvantuojant.

 

Aparatinės įrangos reikalavimai („Mac Mini“):

Vieninga atmintis (RAM): 4 bitų kvantuotiems (Q4) modeliams reikia mažiausiai 64 GB. Sklandžiam ilgų vaizdo įrašų kontekstų (iki 1 mln. žetonų) apdorojimui labai pageidautina 128 GB.

 

Procesorius: „Apple Silicon M4“ arba „M4 Pro“ lustas.

 

Našumas: Vietinis vykdymas „Mac Mini“ kompiuteryje su 64 GB RAM gali užtikrinti „naudojamą“ išvadų greitį (apytiksliai ~10–15 žetonų/sek.), leidžiantį atlikti dirbtiniu intelektu pagrįstą „iPhone“ ekrano vizualinę analizę, nors tai neprilygs duomenų centro greičiui.

 

Programinės įrangos paketas: Norint paleisti GGUF kvantuotas modelio versijas, kurios yra optimizuotos „Apple Silicon“ (Metal Performance Shaders), greičiausiai, reikės naudoti tokias priemones, kaip „Ollama“ arba „LM Studio“.

 

Apribojimai

 

Mokymosi galimybės: Nors modelis gali „matyti“ ir analizuoti jūsų veiksmų vaizdo kadrus, modelio „mokymasis“ arba perkvalifikavimas, kad jis prisitaikytų prie jūsų veiksmų (tikslus derinimas), reikalauja daugiau skaičiavimo išteklių, nei vien tik modelio paleidimas (išvados). Vietinis tokio dydžio modelio tikslinimas viename „Mac Mini“ kompiuteryje yra nepraktiškas; jums reikės atlikti „išvadą su kontekstu“ (pateikiant vaizdo įrašą, kaip kontekstą raginime) arba naudoti LoRA (žemo rango adaptacijos) metodus, kad tikslinimo procesas būtų įmanomas toje aparatinėje įrangoje.

 

Kaip naudoti LoRA (žemo rango adaptacijos) metodus, kad tikslinimo procesas būtų įmanomas „Mac Mini“ kompiuteryje?

 

LoRA (žemo rango adaptacijos) naudojimas „Mac Mini“ („Apple Silicon“) kompiuteryje yra įmanomas, nes atminties reikalavimai sumažėja iki 65 %. Užšaldydami bazinį modelį ir apmokydami mažas, žemo rango skaidymo matricas (A ir B), galite suderinti daugiau, nei 7B parametrų modelius ribotoje vieningoje atmintyje. Tam geriausiai tinka „Apple“ mašininio mokymosi sistema „MLX“, dažnai derinama su 4 bitų kvantavimu (QLoRA), siekiant maksimalaus efektyvumo.

 

„LoRA“ tikslinimo žingsniai „Mac Mini“ kompiuteryje

 

Aplinkos nustatymas: įdiekite reikiamas bibliotekas, užtikrindami, kad būtų įdiegta „MLX“ sistema, skirta „Apple Silicon“ optimizavimui.

Duomenų rinkinio paruošimas: paruoškite mokymo duomenis JSONL formatu, paprastai įtraukdami raginimus ir atsakymus, panašiai, kaip aprašyta šiame pradedančiųjų vadove.

https://zohaib.me/a-beginners-guide-to-fine-tuning-llm-using-lora/

„LoRA“ konfigūravimas: taikykite „LoRA“ visiems linijiniams sluoksniams (ne tik užklausai / reikšmei), kad pasiektumėte geriausią našumą. Nustatykite žemą rangą (pvz., r lygus 4, 8 arba 16), kad sumažintumėte apmokomų parametrų skaičių.

Mokymo vykdymas, naudojant „MLX“: naudokite „MLX“ integruotą „LoRA“ / „QLoRA“ palaikymą, kad mokytumėte savo „Mac“ vieningoje atmintyje. Sujungimas ir eksportavimas: po mokymo sujunkite LoRA adapterius su baziniu modeliu, kad galėtumėte jį naudoti išvadoms gauti.

 

Patarimai, kaip efektyviai naudoti „Mac Mini“

 

Naudokite QLoRA: baziniam modeliui pritaikykite 4 bitų kvantizavimą per MLX, kad žymiai sumažintumėte atminties naudojimą.

Koreguokite rangą (r): mažesnės r vertės (pvz., 4 arba 8) reiškia mažiau parametrų ir mažiau atminties.

Visų sluoksnių adaptacija: geriausiems rezultatams pasiekti LoRA taikykite visiems linijinio transformatoriaus bloko sluoksniams.

Paketo dydis ir iškritimas: nustatykite mažus paketų dydžius ir padidinkite lora_dropout (pvz., 0,1), kad pagerintumėte reguliavimą.

Peržiūrėkite išteklius: šiame „Medium“ straipsnyje pateikiamas išsamus šių veiksmų įgyvendinimo vadovas.

https://kednaik.medium.com/llm-fine-tuning-with-lora-8e06f2227183

 

Pastaba: išsamesnių praktinių patarimų ir gilesnio LoRA supratimo galite rasti šiame Sebastiano Raschkos straipsnyje.

https://magazine.sebastianraschka.com/p/practical-tips-for-finetuning-llms

 

Vaizdo įrašų apdorojimas: ilgiems vaizdo įrašams apdoroti reikalingas didelis atminties pralaidumas, kad būtų išvengta kliūčių.

 

Verdiktas: 64 GB–128 GB talpos M4 „Mac Mini“ yra puikus pasirinkimas privačiai, vietinei sistemai, skirtai analizuoti ir mokytis iš ekrano veiksmo vaizdo įrašų, jei naudojate mažesnį V4 „Flash“ modelį su 4 bitų kvantavimu.

 

Kaip atlikti 4 bitų „DeepSeek“ mažesnio V4 „Flash“ modelio kvantavimą?

 

4 bitų „DeepSeek-V4-Flash“ modelio kvantavimas (284B parametrai) leidžia jam veikti vietinėje aparatinėje įrangoje, sumažinant atminties kiekį nuo FP16 iki valdomo dydžio, paprastai naudojant NF4 (Normalized Float 4) arba INT4 schemas. Atsižvelgiant į jo 284B struktūrą, tai geriausiai pasiekiama, naudojant pažangius įkėlimo metodus arba specializuotus kvantavimo įrankius, tokius, kaip „bitsandbytes“.

 

Štai kaip atlikti 4 bitų kvantavimą „DeepSeek-V4-Flash“ modelyje:

 

1. Kvantavimo reikalavimai

• VRAM/atmintis: net ir 4 bitų modelyje 284B modeliui reikia daug atminties (tikėtina, ~140–150 GB svoriams). Rekomenduojama „Mac Studio“ (192–256 GB RAM) arba keli aukštos klasės vaizdo procesoriai (pvz., 2x H100 96 GB).

• Bibliotekos: „transformers“, „accelerate“, „bitsandbytes“, „torch“.

• Kontrolinis taškas: „DeepSeek-V4-Flash“ (standartinis „Hugging Face“ formatas).

2. A metodas: 4 bitų įkėlimas, naudojant „bitsandbytes“ (lengvasis režimas)

 

Modelį galite įkelti tiesiogiai 4 bitų formatu naudodami „Hugging Face“ transformatorių biblioteką, kuri įkėlimo metu automatiškai taiko 4 bitų kvantizavimą „bitsandbytes“ formatu (NF4).

 

python

import torch

from transformers import AutoModelForCausalLM, BitsAndBytesConfig

 

# Konfigūruoti ir įkelti 4 bitų formatu (NF4)

bnb_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.float16)

model = AutoModelForCausalLM.from_pretrained(

"deepseek-ai/DeepSeek-V4-Flash",

quantization_config=bnb_config,

device_map="auto",

trust_remote_code=True # Būtina pasirinktinei architektūrai

)

Naudokite kodą atsargiai.

 

3. B metodas: naudojant „llmcompressor“ (specializuotiems formatams)

Po mokymo kvantizavimui (GPTQ), siekiant gauti svorius tokiems varikliams, kaip vLLM, galima naudoti „llmcompressor“.

 

python

from llmcompressor.transformers import SparseAutoModelForCausalLM, oneshot

from llmcompressor.modifiers.quantization import GPTQModifier

 

# Taikyti 4 bitų kvantizavimą

model = SparseAutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-V4-Flash", device_map="auto")

recipe = GPTQModifier(targets="Linear", scheme="W4A16", bits=4)

oneshot(model=model, recipe=recipe)

model.save_pretrained("DeepSeek-V4-Flash-4bit")

Naudokite kodą atsargiai.

 

4. Svarbūs V4-Flash aspektai

• Našumas: Nors „DeepSeek-V4-Flash“ naudoja natyvų mišrų tikslumą, 4 bitų kvantavimas dar labiau sumažina atminties naudojimą, o tai gali pakenkti tikslumui.

• Atminties valdymas: „device_map="auto" naudojimas yra būtinas, norint padalinti 284B modelį tarp kelių GPU.

 

 

• ​​Iš anksto kvantuoti modeliai: patikrinkite „deepseek-ai Hugging Face“ saugyklą, kurioje yra iš anksto kvantuotų GGUF versijų, kad išvengtumėte didelių vietinių skaičiavimo sąnaudų.

 

Nenuostabu, kad laikraščiai džiaugiasi šiuo pasiekimu:

 

„Kai Kinijos startuolis „DeepSeek“ praėjusiais metais paskelbė išsamią informaciją apie vieną iš savo dirbtinio intelekto modelių, tai sukėlė šoko bangas technologijų pramonėje.

 

Bendrovė teigė, kad sukūrė savo sistemą kompiuterių lustams išleisdama daug mažiau nei Amerikos konkurentai, tokie kaip „OpenAI“ ir „Anthropic“. Tai buvo to, kas tapo žinoma kaip Kinijos „DeepSeek“ akimirka, trumpinys, reiškiantis įsitikinimą, kad Kinijos dirbtinio intelekto įmonės yra pasirengusios parodyti savo techninius pajėgumus pasauliui.

 

„DeepSeek“ akimirka atspindėjo pokytį pasaulinėje dirbtinio intelekto aplinkoje. Pokytis buvo susijęs ne tik su mažesnėmis sąnaudomis, bet ir su atvirumu, kaip dalijamasi technologijomis.

 

„DeepSeek“ išleido savo modelius kaip atvirojo kodo, o tai reiškia, kad kiti gali juos laisvai naudoti ir modifikuoti. Tuo tarpu „OpenAI“ ir „Anthropic“ išlaikė savo pagrindinius modelius nuosavybės teise. Šis epizodas parodė, kad atvirojo kodo sistema gali veikti beveik taip pat gerai, kaip ir uždaros versijos. Per ateinančius mėnesius Kinijos įmonės išleido dešimtis kitų atvirojo kodo modelių. Iki 2025 m. pabaigos šie modeliai sudarė didelę pasaulinės rinkos dalį dirbtinio intelekto naudojime.

 

Penktadienį „DeepSeek“ išleido ilgai laukto savo tęsinio V4, kurį ketina atvirojo kodo formatu, peržiūrą. Naujasis modelis puikiai tinka rašyti kompiuterinį kodą, o tai tampa vis svarbesniu įgūdžiu pirmaujančioms dirbtinio intelekto sistemoms. Remiantis „Vals AI“, bendrovės, stebinčios dirbtinio intelekto technologijų našumą, testais, jis gerokai pranoko visas kitas atvirojo kodo sistemas generuojant kodą.

 

„DeepSeek“ išleido savo naująjį modelį vos kelios dienos po to, kai kita Kinijos įmonė „Moonshot AI“ pristatė naujausią atvirojo kodo modelį „Kimi 2.6“. Nors šios sistemos atsilieka nuo pirmaujančių JAV modelių, tokių kaip „Anthropic“ ir „OpenAI“, kodavimo galimybių, skirtumas mažėja.

 

Išvados yra reikšmingos. Dirbtinio intelekto naudojimas kodui rašyti yra greitesnis ir leidžia žmonėms programuotojams sutelkti dėmesį į didesnes problemas. Tai taip pat reiškia, kad žmonės gali naudoti naujausią „DeepSeek“ versiją dirbtinio intelekto agentams – asmeniniams skaitmeniniams asistentams, kurie gali naudoti kitas programinės įrangos programas biuro darbuotojų vardu, įskaitant skaičiuokles, internetinius kalendorius ir el. pašto paslaugas.

 

Kaip Dirbtinio intelekto sistemos tobulėja rašydamos kompiuterinį kodą, jos taip pat geriau aptinka programinės įrangos saugumo spragas – įgūdį, kuris iš esmės keičia kibernetinį saugumą. Tai reiškia, kad tokios priemonės kaip „DeepSeek“ gali būti naudojamos tiek kompiuterių tinklams atakuoti, tiek ginti.

 

 

Atliekant užduotis, „DeepSeek V4“ prilygsta naujausiam „Moonshot“ modeliui. „Jie iš esmės yra kaklu į kaklu“, – sakė Rayanas Krishnanas, „Vals AI“ generalinis direktorius.

 

 

Likus mėnesiams iki naujausio „DeepSeek“ leidimo, užsienio konkurentai ėmėsi veiksmų, kad užkirstų kelią dar vienai kritikos bangai. Silicio slėnio dirbtinio intelekto gigantai „Anthropic“ ir „OpenAI“ teigė, kad „DeepSeek“ nesąžiningai pasinaudojo jų technologija distiliavimo būdu – procesu, kurio metu inžinieriai imituoja konkuruojančio modelio duomenis, milijonus kartų jį užklausdami ir kopijuodami jo elgseną.

 

Konkurencija dėl geriausiai veikiančių dirbtinio intelekto sistemų kūrimo virto geopolitine kova dėl galios. Nors Silicio slėnio vadovai „Anthropic“ ir „OpenAI“ perspėja, kad jų technologija būtų pavojinga autokratinių šalių rankose, Kinija investavo milijardus, kad taptų dirbtinio intelekto supervalstybe, laikydama šią technologiją svarbiu ekonomikos augimo varikliu.

 

„DeepSeek“ atvirojo kodo modeliai yra šios strategijos pagrindas. Nors daugelis Vakarų bendrovių saugo savo vertingiausius modelius, Kinija priėmė atvirojo kodo technologijas ir beveik visos jos geriausiai veikiančios sistemos yra plačiai prieinamos.

 

Nepaisant to, Kinijos dirbtinio intelekto įmonės susiduria su didelėmis kliūtimis. Trys JAV administracijos įvedė eksporto kontrolę, ribojančią prieigą prie pažangių lustų, reikalingų pažangiausioms dirbtinio intelekto sistemoms. Silicio slėnio įmonės ir toliau lenkia Kinijos konkurentus lenkdamos geriausius dirbtinio intelekto specialistus.

 

Remiantis nauju JAV Kongreso patariamosios įstaigos tyrimu, Kinijos pastangos diegti atvirojo kodo dirbtinį intelektą tapo dideliu ekonominiu pranašumu šalyje. Kadangi sistemos yra nedaug naudojamos, jos paplito tokiose pramonės šakose kaip robotika, logistika ir gamyba. Tyrimas parodė, kad šios pramoninės programos generuoja realaus pasaulio duomenis, kurie naudojami dirbtinio intelekto sistemoms tobulinti.

 

Toks požiūris leido Kinijos technologijų įmonėms įgyti pasaulinę įtaką, nes programuotojai ir inžinieriai visame pasaulyje pritaiko jų sistemas kurdami naujus produktus.

 

Nuo Lagoso iki Kvala Lumpūro kūrėjai, turintys ribotą biudžetą, renkasi Kinijos atvirojo kodo modelius, nes juos pigiau eksploatuoti ir todėl lengviau eksperimentuoti. Praėjusių metų gegužę Malaizijos susisiekimo viceministras pareiškė, kad šalies suvereni dirbtinio intelekto infrastruktūra bus sukurta remiantis „DeepSeek“ technologija.

 

Remiantis dirbtinio intelekto tyrimų bendrovės „OpenRouter“ tyrimu, Kinijos atvirojo kodo modeliai praėjusiais metais sudarė maždaug trečdalį pasaulinio dirbtinio intelekto naudojimo. modelių rinka. „DeepSeek“ buvo plačiausiai naudojamas modelis, po jo sekė Kinijos interneto bendrovės „Alibaba“ modeliai.

 

Tai atspindi platesnę strategiją. Kinijos įmonėms plečiantis užsienyje, atvirojo kodo sistemų naudojimas padeda joms įgyti patrauklumo tarp programuotojų, siūlant pigesnius ir prieinamesnius įrankius.

 

„Atvirasis kodas yra ateities technologijų švelnioji galia“, – teigė Kevinas Xu, JAV įsikūrusio rizikos draudimo fondo „Interconnected Capital“, investuojančio į dirbtinio intelekto technologijas, įkūrėjas. Ponas Xu ir jo fondas neinvestuoja į „DeepSeek“.

 

Vyriausiasis dirbtinio intelekto analitikas „Counterpoint Research“ Pekine Wei Sunas teigė, kad „DeepSeek“ sėkmė atvėrė kelią Kinijos technologijų gigantams viešai skelbti savo dirbtinio intelekto sistemas, o ne jas atidžiai saugoti.

 

Nuo to laiko „Alibaba“ tapo lydere. Jos „Qwen“ modelių šeima viršijo 1 milijardą atsisiuntimų. „ByteDance“, „TikTok“ patronuojanti bendrovė, taip pat pasidalijo kai kuriomis savo technologijos detalėmis, išleidusi 11 milijardų dolerių dirbtiniam intelektui. infrastruktūra 2024 m.

 

„Dirbtinio intelekto atvirojo kodo kūrėjų karta iš Kinijos buvo bene didžiausia DI istorija 2025 m.“, – sakė ponas Xu. „Modelių pažanga, išleidimo tempas ir DI laboratorijų, kurios konkuruoja tarpusavyje, bet ir, regis, viena kitą palaiko, skaičius vyko greitai ir įnirtingai, be jokių lėtėjimo ženklų.“ [1]

 

1. DeepSeek’s Sequel Set to Extend China’s Reach in Open-Source A.I. Tobin, Meaghan; Metz, Cade.  New York Times (Online) New York Times Company. Apr 24, 2026.

DeepSeek’s V4 Sequel Set to Extend China’s Reach in Open-Source A.I.


Will it be enough of a Mac Mini for DeepSeek V4 to learn from videos of my actions controlling events on my iPhone screen?

 

Yes, a modern Mac Mini (M4 or M4 Pro with 64GB+ RAM) is capable of running and learning from video data using the DeepSeek V4 series (specifically the 284B Flash model) locally, but it requires specific configurations, such as 4-bit quantization, to function within its RAM constraints.

DeepSeek V4 models can process multi-modal input (text, image, and video), with the "Flash" variant (284B parameters) designed to be efficient enough for smaller-than-datacenter hardware.

 

Key Considerations for This Use Case

 

    Model Selection: You should use DeepSeek-V4-Flash (284B parameters, 13B activated) rather than the V4 Pro (1.6T parameters). The Pro model is too large for a single machine, while the Flash variant can run on high-RAM Apple Silicon with proper quantization.

    Hardware Requirements (Mac Mini):

        Unified Memory (RAM): A minimum of 64GB is required for 4-bit quantized (Q4) models. 128GB is strongly preferred for smoother processing of long video contexts (up to 1M tokens).

        Processor: Apple Silicon M4 or M4 Pro chip.

    Performance: Local execution on a Mac Mini with 64GB RAM can provide "usable" inference speeds (estimated ~10-15 tokens/sec), enabling AI-based visual analysis of your iPhone screen, though it will not match data-center speeds.

    Software Stack: You will likely need to use tools like Ollama or LM Studio to run GGUF-quantized versions of the model, which are optimized for Apple Silicon (Metal Performance Shaders).

 

Limitations

 

    Learning Capability: While the model can "see" and analyze video frames of your actions, "learning" or retraining the model to adapt specifically to your actions (Fine-tuning) is more computationally demanding than just running the model (Inference). Local fine-tuning of a model this size on a single Mac Mini is impractical; you will need to perform "Inference with Context" (providing the video as context in the prompt) or use LoRA (Low-Rank Adaptation) techniques to make the fine-tuning process feasible on that hardware.

 

How to use LoRA (Low-Rank Adaptation) techniques to make the fine-tuning process feasible on Mac Mini?

Using LoRA (Low-Rank Adaptation) on a Mac Mini (Apple Silicon) is highly feasible by reducing memory requirements by up to 65%. By freezing the base model and training small, low-rank decomposition matrices (A and B), you can tune 7B+ parameter models on limited unified memory. MLX, Apple's machine learning framework, is the best tool for this, often paired with 4-bit quantization (QLoRA) for maximum efficiency.

 

Steps for LoRA Fine-Tuning on Mac Mini

 

    Environment Setup: Install the necessary libraries, ensuring you have the MLX framework installed for Apple Silicon optimization.

    Dataset Preparation: Prepare your training data in JSONL format, typically including prompts and responses, similar to the format described in this beginners guide.


    Configure LoRA: Apply LoRA to all linear layers (not just query/value) for the best performance. Set a low rank (e.g., r equals 4,8, or 16) to minimize trainable parameters.

    Run Training with MLX: Utilize MLX's native support for LoRA/QLoRA to train on your Mac’s unified memory.

    Merge and Export: After training, merge the LoRA adapters with the base model to use it for inference.

 

Tips for Mac Mini Efficiency

 

    Use QLoRA: Apply 4-bit quantization to the base model via MLX to significantly reduce the memory footprint.

    Adjust Rank (r): Lower r values (e.g., 4 or 8) mean fewer parameters and less memory.

    All-Layer Adaptation: For best results, apply LoRA to all linear transformer block layers.

    Batch Size & Dropout: Set small batch sizes and increase lora_dropout (e.g., 0.1) to improve regularization.

    Check Resources: This article from Medium offers a detailed guide to implementing these steps.


 

Note: For detailed practical tips and a deeper understanding of LoRA, you can read this article by Sebastian Raschka.


 

    Video Processing: Processing long videos requires high memory bandwidth to prevent bottlenecks.

 

Verdict: A 64GB-128GB M4 Mac Mini is an excellent choice for a private, local setup to analyze and learn from your screen action videos, provided you use the smaller V4 Flash model with 4-bit quantization.

 

How to do 4-bit quantization of the DeepSeek smaller V4 Flash model?

 

4-bit quantization of the DeepSeek-V4-Flash model (284B parameters) allows it to run on local hardware by reducing the memory footprint from FP16 to a manageable size, typically using NF4 (Normalized Float 4) or INT4 schemes. Given its 284B structure, this is best achieved using advanced loading techniques or specialized quantization toolkits like bitsandbytes

 

Here is the approach to doing 4-bit quantization on the DeepSeek-V4-Flash model:

 

1. Requirements for Quantization

  • VRAM/Memory: Even in 4-bit, a 284B model requires significant memory (likely ~140-150 GB for weights). A Mac Studio (192GB-256GB RAM) or multiple high-end GPUs (e.g., 2x H100 96GB) are recommended.
  • Libraries: transformers, accelerate, bitsandbytes, torch.
  • Checkpoint: DeepSeek-V4-Flash (standard Hugging Face format). 

2. Method A: 4-bit Loading with bitsandbytes (Easy Mode) 

 

You can load the model in 4-bit directly using Hugging Face's transformers library, which automatically applies bitsandbytes 4-bit quantization (NF4) during loading. 

 

python

import torch

from transformers import AutoModelForCausalLM, BitsAndBytesConfig

 

# Configure and load in 4-bit (NF4)

bnb_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.float16)

model = AutoModelForCausalLM.from_pretrained(

    "deepseek-ai/DeepSeek-V4-Flash",

    quantization_config=bnb_config,

    device_map="auto",

    trust_remote_code=True # Required for custom architecture

)

Use code with caution.

 

3. Method B: Using llmcompressor (For Specialized Formats)

For post-training quantization (GPTQ) to produce weights for engines like vLLM, llmcompressor can be used.

python

from llmcompressor.transformers import SparseAutoModelForCausalLM, oneshot

from llmcompressor.modifiers.quantization import GPTQModifier

 

# Apply 4-bit quantization

model = SparseAutoModelForCausalLM.from_pretrained("deepseek-ai/DeepSeek-V4-Flash", device_map="auto")

recipe = GPTQModifier(targets="Linear", scheme="W4A16", bits=4)

oneshot(model=model, recipe=recipe)

model.save_pretrained("DeepSeek-V4-Flash-4bit")

Use code with caution.

 

4. Important Considerations for V4-Flash

  • Performance: While DeepSeek-V4-Flash uses native mixed-precision, 4-bit quantization further reduces memory usage at a potential cost to accuracy.
  • Memory Management: Utilizing device_map="auto" is essential for splitting the 284B model across multiple GPUs.
  • Pre-quantized Models: Check the deepseek-ai Hugging Face repository for pre-quantized GGUF versions to avoid high local computational costs.

 

No wonder newspapers are excited by this achievement:

 

“When the Chinese start-up DeepSeek published details about one of its artificial intelligence models last year, it sent shock waves through the tech industry.

 

The company said it had built its system by spending far less on computer chips than American rivals like OpenAI and Anthropic. It marked the start of what became known as China’s “DeepSeek moment,” shorthand for the belief that Chinese A.I. companies were ready to showcase their technical capabilities to the world.

 

The DeepSeek moment reflected a shift in the global A.I. landscape. The change was not only about lower costs, but also openness in how the technology is shared.

 

DeepSeek released its models as open source, which means others can freely use and modify them. By contrast, OpenAI and Anthropic kept their leading models proprietary. The episode demonstrated that an open-source system could perform almost as well as closed versions. In the months that followed, Chinese firms released dozens of other open-source models. By the end of 2025, these models made up a significant share of global A.I. usage.

 

On Friday, DeepSeek released a preview of V4, its long-awaited follow-up model, which it intends to open source. The new model excels at writing computer code, an increasingly important skill for leading A.I. systems. It significantly outperformed every other open-source system at generating code, according to tests from Vals AI, a company that tracks the performance of A.I. technologies.

 

DeepSeek released its new model just days after Moonshot AI, another Chinese start-up, introduced its latest open-source model, Kimi 2.6. While these systems trail the coding capabilities of the leading U.S. models from Anthropic and OpenAI, the gap is narrowing.

 

The implications are meaningful. Using A.I. to write code is faster and frees up human programmers to focus on bigger issues. It also means people can use DeepSeek’s latest release to power A.I. agents, which are personal digital assistants that can use other software applications on behalf of office workers, including spreadsheets, online calendars and email services.

 

As A.I. systems improve at writing computer code, they are also getting better at finding security vulnerabilities in software — a skill that is fundamentally changing cybersecurity. That means tools like DeepSeek’s can be used to both attack and defend computer networks.

 

Across tasks, DeepSeek V4 is on par with Moonshot’s latest model. “They are basically neck-and-neck,” said Rayan Krishnan, the chief executive of Vals AI.

 

In the months leading up to DeepSeek’s latest release, foreign rivals moved to pre-empt another round of glowing headlines. Silicon Valley’s A.I. giants, Anthropic and OpenAI, said DeepSeek had unfairly piggybacked on their technology through distillation, a process in which engineers mimic a rival model by querying it millions of times and copying its behavior.

 

The competition to build the best-performing A.I. systems has transformed into a geopolitical power struggle. While Silicon Valley leaders at Anthropic and OpenAI warn that their technology would be dangerous in the hands of autocratic countries, China has invested billions to become an A.I. superpower, viewing the technology as a critical engine of economic growth.

 

DeepSeek’s open-source models are central to this strategy. While many Western companies guard their most valuable models, China has embraced open source and almost all of its top-performing systems are widely available.

 

Even so, Chinese A.I. firms face major hurdles. Three U.S. administrations have imposed export controls limiting access to advanced chips needed for cutting-edge A.I. systems. And firms in Silicon Valley continue to outspend Chinese rivals in the race for top A.I. talent.

 

China’s push into open-source A.I. has become a major economic advantage at home, according to a new study by a U.S. congressional advisory body. With few barriers to use, the systems have spread across industries such as robotics, logistics and manufacturing. The study found that these industrial applications generate real-world data that are used to improve A.I. systems.

 

This approach has allowed Chinese tech firms to capture global influence, as programmers and engineers around the world adopt their systems to build new products.

 

From Lagos to Kuala Lumpur, developers on tight budgets are turning to Chinese open-source models because they are cheaper to run and therefore easier to experiment with. Last May, Malaysia’s deputy minister of communications said the country’s sovereign A.I. infrastructure would be built on DeepSeek’s technology.

 

Chinese open-source models accounted for roughly one-third of global A.I. usage last year, according to a study by OpenRouter, an A.I. model marketplace. DeepSeek was the most widely used, followed by models from Alibaba, the Chinese internet company.

 

That reflects a broader strategy. As Chinese companies expand abroad, making their systems open-source helps them gain traction with coders by offering cheaper, more accessible tools.

 

“Open source is the soft power of technology of the future,” said Kevin Xu, the U.S.-based founder of Interconnected Capital, a hedge fund that invests in artificial intelligence technologies. Mr. Xu and his fund do not invest in DeepSeek.

 

Wei Sun, a principal analyst in A.I. at Counterpoint Research in Beijing, said DeepSeek’s success paved the way for China’s tech giants to release their A.I. systems publicly rather than closely guarding them.

 

Alibaba has since emerged as a leader. Its Qwen model family has surpassed 1 billion downloads. ByteDance, parent company of TikTok, has also shared some details of its technology after spending $11 billion on A.I. infrastructure in 2024.

 

“The A.I. generation of open-source builders from China was arguably the biggest A.I. story in 2025,” Mr. Xu said. “The progress of the models, the pace of the releases, and the number of A.I. labs that both compete with each other but also seem to cheer each other on came fast and furious with no signs of slowing down.”” [1]

 

1. DeepSeek’s Sequel Set to Extend China’s Reach in Open-Source A.I. Tobin, Meaghan; Metz, Cade.  New York Times (Online) New York Times Company. Apr 24, 2026.