Sekėjai

Ieškoti šiame dienoraštyje

2026 m. kovo 11 d., trečiadienis

„Tinker“ kūrėjai: „Nvidia“ investuoja į „Thinking Machines“


„Nvidia“ investuoja į Miros Murati „Thinking Machines“ laboratoriją, kuri yra daugiametės partnerystės, pagal kurią startuolis diegs bent vieno gigavato pažangiausius lustus, skirtus apmokyti ir aptarnauti jo pažangiausius dirbtinio intelekto modelius, dalis.

 

Susitarimas apima bendradarbiavimą, kuriant dirbtinio intelekto mokymo ir aptarnavimo sistemas, naudojant „Nvidia“ technologiją. Investicijos dydžio ir struktūros nebuvo galima sužinoti.

 

„Thinking Machines“, kurią pernai įkūrė buvusi „OpenAI“ technologijų vadovė Murati ir keli jos buvę kolegos, iki šiol daugiausia tylėjo apie jos ketinimus.

 

Praėjusiais metais ji išleido savo pirmąjį produktą „Tinker“ – įrankį, padedantį tyrėjams apmokyti dirbtinio intelekto modelius [1], ir teigė, kad siekia sukurti dirbtinio intelekto sistemas, kurios veiktų su žmonėmis, o ne veiktų autonomiškai.

 

Partnerystė yra naujausias „Nvidia“ žingsnis, siekiant paremti pradedančiuosius dirbtinio intelekto pramonės atstovus. Susitarimas suteikia gana jaunai dirbtinio intelekto laboratorijai skaičiavimo galią tyrimams tobulinti, taip pat finansavimą darbuotojų atlyginimams.

 

Nors „Thinking Machines“ jau bendradarbiavo su „Nvidia“ lustų savo modeliams kūryboje, naujoji partnerystė dar labiau sustiprina startuolį, kaip klientą. Murati „Nvidia“ technologiją pavadino „pagrindu, ant kurio pastatyta visa ši sritis“.

 

„Thinking Machines“ aršiai konkuruoja dėl dirbtinio intelekto tyrėjų talentų, nes jos pramonės vertinimai smarkiai išaugo. Šiandien, anot, su šiuo klausimu susipažinusių, šaltinių, įmonėje dirba apie 120 darbuotojų, o prieš metus jų buvo apie 30.

 

„Nvidia“ generalinis direktorius Jensenas Huangas pagyrė „Thinking Machines“ suburtą personalą, įskaitant „OpenAI“ įkūrėją Johną Schulmaną, kaip sandorio priežastį, sakydamas, kad tai „subūrė pasaulinio lygio komandą, skirtą dirbtinio intelekto sričiai žengti į priekį“. [2]

 

1. „Tinker“ yra lanksti mokymo ir tikslinimo taikomųjų programų programavimo sąsaja (API), kurią išleido „Thinking Machines Lab“, dirbtinio intelekto startuolis, kurį įkūrė buvusi „OpenAI“ technologijų direktorė Mira Murati. Ji sukurta tam, kad kūrėjams ir tyrėjams būtų suteikta „chirurginė kontrolė“ didelių kalbos modelių (LLM) tikslinimui, neapkraunant sudėtingos mokymo infrastruktūros valdymo naštos. Platforma siūlo galimybę pradėti naudotis paslaugomis nemokamai, kad kūrėjai galėtų eksperimentuoti be pradinių išlaidų.

 

Pagrindinės „Tinker“ savybės

 

Infrastruktūros valdymas: paslauga veikia „Thinking Machines“ vidiniuose klasteriuose, tvarkydama išteklių paskirstymą, planavimą ir gedimų atkūrimą, kad vartotojai galėtų sutelkti dėmesį į savo modelius.

 

Žemo rango adaptacija (LoRA): „Tinker“ daugiausia naudoja LoRA, kad sumažintų pritaikymui reikalingą skaičiavimo apimtį ir sąnaudas.

 

Granuliuotas valdymas: skirtingai, nei įprastos aukšto lygio API, „Tinker“ teikia žemo lygio primityvus, tokius kaip „forward_backward“ ir „sample“, leidžiančius vartotojams įdiegti pasirinktinius mokymo algoritmus [3].

 

Modelių palaikymas: ji palaiko platų atvirojo svorio modelių spektrą, įskaitant „Mistral“, „Gemma“, „Qwen“ ir „Kimi“.

 

„Tinker Cookbook“: „Thinking Machines“ teikia atvirojo kodo biblioteką „GitHub“, kurioje yra modernūs po mokymo metodų ir „receptų“ įgyvendinimai specializuotoms užduotims, tokioms, kaip matematikos uždavinių sprendimas ar mokslinis samprotavimas.

 

Naujausi pokyčiai (2026 m. kovo mėn. duomenimis)

 

Bendra prieinamumas: iš pradžių paleista privačioje beta versijoje 2025 m. spalį, „Tinker“ dabar yra visuotinai prieinama ir apima palaikymą pažangiems vaizdo įvesties modeliams.

 

„Nvidia“ partnerystė: 2026 m. kovo mėn. „Thinking Machines“ paskelbė apie didžiulį skaičiavimo sandorį su „Nvidia“. dislokuoti bent vieno gigavato „Vera Rubin“ sistemų, skirtų būsimiems „frontier“ modelių mokymams.

 

Įmonės vertinimas: Po 2 mlrd. dolerių vertės pradinio finansavimo etapo 2025 m. liepos mėn. startuolio vertė siekė 12 mlrd. dolerių.

 

2. Nvidia Invests in Thinking Machines. Keach Hagey.  Wall Street Journal, Eastern edition; New York, N.Y.. 11 Mar 2026: B4.

 

3. Žemo lygio primityvai, tokie, kaip „forward_backward“ ir „sample“, yra pagrindiniai „Tinker“ – valdomos tikslinimo API, kurią sukūrė „Thinking Machines“ (įkūrė buvusi „OpenAI“ technologijų vadovė Mira Murati), – teikiami elementai. Šie primityvai leidžia tyrėjams rašyti individualius, didelio valdymo mokymo ciklus – nuo ​​prižiūrimo tikslinimo (SFT) iki pažangaus sustiprinimo mokymosi (RL), – o API tvarko sudėtingą infrastruktūrą, pvz., paskirstytą GPU planavimą ir gedimų atkūrimą.

 

Pagrindiniai „Tinker“ primityvai:

 

sample: Pateikia užklausą, sugeneruoja užbaigimą pagal dabartinius modelio svorius ir leidžia įvertinti tą užbaigimą internetiniam sustiprinimo mokymuisi. Užbaigimas, sugeneruotas iš dabartinių modelio svorių, atspindi tiesioginę modelio numatomą kitą tikėtiną žetonų seką, pagrįstą mokymo metu išmoktais šablonais. Svoriai veikia, kaip dirbtinio intelekto „atmintis“ arba „žinios“, kontroliuojančios, kaip įvesties duomenys apdorojami, kad būtų generuojama išvestis.

 

forward_backward: siunčia duomenų paketą per modelį, kad būtų apskaičiuoti nuostoliai ir gradientai.

 

optim_step: atnaujina modelio svorius pagal apskaičiuotus gradientus.

 

save_state: tvarko kontrolinius taškus. Mašininio mokymosi bibliotekų, tokių, kaip „Hugging Face Accelerate“, kontekste „save_state“ yra metodas, naudojamas išsamiam kontrolinių taškų tvarkymui, išsaugant dabartinę būseną mokymo sesijoje.

 

Pagrindiniai šių primityvų aspektai:

 

Didelės kontrolės galimybės ir lankstumas: Skirtingai nuo juodosios dėžės sprendimų, šie primityvai leidžia vartotojams apibrėžti savo nuostolių funkcijas, mokymo ciklus ir duomenų darbo eigas standartinėje Python kalboje, palaikydami sudėtingus metodus, tokius, kaip tiesioginis pirmenybės optimizavimas (DPO) ir internetinis RL.

 

Našumo optimizavimas: Nors jie leidžia atlikti detalų valdymą, jie sukurti taip, kad veiktų su LoRA (žemo rango adaptacija), kad tikslus derinimas būtų efektyvus ir ekonomiškas net ir dideliems „mišrių ekspertų“ modeliams, tokiems, kaip Qwen-235B-A22B.

 

 

 

 

Komentarų nėra: