„Praėjusį rudenį Benas Spectoras investuotojams pateikė neįprastą pasiūlymą.
Stanfordo universiteto doktorantas, turintis labai vertinamą dirbtinio intelekto patirtį, Spectoras neturėjo jokių artimiausių planų užsidirbti pinigų ir tradicinio pristatymų rinkinio. Jis net neturėjo idėjos, kaip sukurti populiarų dirbtinio intelekto produktą.
Jis turėjo laboratoriją pavadinimu „Plostodami lėktuvai“, naują idėją dirbtinio intelekto modeliams mokyti ir uolumą samdyti talentingus jaunus tyrėjus, norinčius spręsti didžiausias dirbtinio intelekto problemas.
Rizikos kapitalo įmonės pasinaudojo proga jį paremti.
„Mažos, talentingų jaunų žmonių komandos, gebančios į problemą pažvelgti nauju būdu – tokios organizacijos iš tikrųjų laimi“, – sakė 25 metų Spectoras.
„Plostodami lėktuvai“ – tai nuoroda į biologinius ženklus, kuriuos būsimas dirbtinis intelektas turėtų gauti iš gamtos – yra naujos startuolių bangos, kurią kai kurie praminė „neolab“, dalis. Šie startuoliai teikia pirmenybę ilgalaikiams tyrimams ir naujų dirbtinio intelekto modelių kūrimui, o ne tiesioginiam pelnui.
Susidomėjimas „neolab“ sparčiai išaugo, investuotojams ieškant kito „OpenAI“. kuri prasidėjo kaip tyrimų laboratorija ir vėliau tapo viena vertingiausių pasaulyje startuolių.
Didelė dalis geriausių dirbtinio intelekto tyrėjų mano, kad tokie modeliai kaip „ChatGPT“ ir „Claude“ iš esmės atsidūrė aklavietėje ir niekada nepasieks tokio intelekto lygio, kuris prilygtų ar viršytų žmonių intelektą (didžiausios dirbtinio intelekto bendrovės ginčija šį požiūrį).
Nors yra daugiau nei tūkstantis startuolių, kurių vertė siekia 1 milijardą dolerių ar daugiau, tyrėjų ir investuotojų teigimu, „neolab“ įmonių skaičius paprastai siekia dešimtis.
Kai kurių „neolab“ įmonių vertė išaugo iki dešimčių milijardų dolerių, todėl kritikai teigia, kad dauguma jų turi mažai galimybių gauti pelno ar išleisti sėkmingą produktą. Laboratorijos sukėlė akademikų verbavimo manija taip, kad atitraukia perspektyvius studentus nuo akademinės bendruomenės.
Šį mėnesį „Flapping Airplanes“ pritraukė 180 milijonų dolerių, o jos vertė siekia 1,5 milijardo dolerių, iš investuotojų, įskaitant GV, „Sequoia Capital“, „Index Ventures“ ir „Menlo Ventures“. Benas Spectoras pasitraukė iš savo doktorantūros programos 2013 m. Rugsėjis.
Sausio mėnesį „Humans&“ pritraukė 480 mln. JAV dolerių, o bendras įvertinimas siekė 4,48 mlrd. JAV dolerių, kad sukurtų dirbtinio intelekto sistemas, kurios padėtų žmonėms bendradarbiauti. Spalio mėnesį „Reflection AI“ pritraukė 2 mlrd. JAV dolerių, o bendras įvertinimas siekė 8 mlrd. JAV dolerių, kad sukurtų atvirojo kodo modelį. Rugsėjį su 300 mln. JAV dolerių finansavimu pradėjo veikti „Periodic Labs“, kurios tikslas – kurti dirbtinį intelektą moksliniams tyrimams automatizuoti.
Taip pat yra „Safe Superintelligence“ – dirbtinio intelekto laboratorija, kurią įkūrė Ilja Sutskeveris, vienas iš „OpenAI“ įkūrėjų ir buvęs vyriausiasis mokslininkas, kuriam daugiausia priskiriami „ChatGPT“ išradimai.
2024 m. birželį Sutskeveris pareiškė, kad steigia naują įmonę, turinčią vieną tikslą: kurti saugų superintelektą. Iki šiol jis pritraukė 3 mlrd. JAV dolerių, o paskutinį kartą – 32 mlrd. JAV dolerių, ir neįprastai atvirai kalbėjo su investuotojais apie savo ketinimus.
„Apibūdinčiau tai taip: yra keletas idėjų, kurios, mano manymu, yra perspektyvios, ir noriu jas ištirti“, – lapkričio mėnesį „Dwarkesh Podcast“ epizode sakė Sutskeveris, nežadėdamas, kad tokios idėjos lems proveržį, produktą ar pajamas. Jis taip pat teigė, kad dirbtinis intelektas grįžta į „tyrimų amžių“, išplėtęs savo veiklą nuo 2020 iki 2025 m.
Anksčiau ambicingiausi dirbtinio intelekto tyrimai buvo vykdomi akademinėse įstaigose arba įmonių tyrimų padaliniuose, tokiuose kaip „Google“ „DeepMind“. Startuoliai daugiausia dėmesio skyrė šių tyrimų pritaikymo, kuris galėtų uždirbti pinigų, paieškai.
Dirbtinio intelekto bumas paskatino investuotojus finansuoti pačius tyrimus.
„Rizikos kapitalo laboratorija – tai naujas dalykas“, – sakė Pete'as Sonsini, „Laude Ventures“ įkūrėjas. „Tai nėra tradicinis rizikos kapitalas.“
Pasak tyrimų bendrovės „PitchBook“, JAV dirbtinio intelekto startuoliai praėjusiais metais surinko rekordinę 222 mlrd. JAV dolerių sumą. Investuotojai teigė, kad mato vis daugiau tyrėjų, siūlančių neolaboratorijas.
Ne visi įsitikinę, kad šie tyrėjai gali generuoti finansinę grąžą.
„Techninė praraja, kurią kiekviena iš šių neolaboratorijų turi įveikti, yra labai didelė, ir manau, kad ši rizika yra labai reali“, – sakė Ashu Gargas, „Foundation Capital“ generalinis partneris. „Didžioji dauguma jų jos visai neperžengs.“ Jie galiausiai sukurs kažką, kas tiesiog bus šiek tiek geresnis.
O jei esi šiek tiek geresnis už alternatyvas, tu nesvarbus.“
Vienas didžiausių iššūkių, su kuriuo susiduria „neolab“ – talentų išlaikymas. Epochoje, kai didžiausių technologijų kompanijų generaliniai direktoriai siūlo daugiau nei 300 mln. dolerių už dirbtinio intelekto ekspertų samdymą, startuoliams sunku išlaikyti savo vertinamus tyrėjus.
Tai realybė, kurią neseniai dramatiškai pabrėžė „Thinking Machines Lab“.
Buvusios „OpenAI“ vadovės Miros Murati įkurta „Thinking Machines“ sausio mėnesį prarado du savo įkūrėjus, Barret Zoph ir Luke'ą Metzą, kurie perėjo į „OpenAI“. Spalio mėnesį kitas įkūrėjas, Andrew Tullochas, išvyko dirbti į „Meta“. Pastaraisiais mėnesiais „Thinking Machines“ ieškojo papildomo kapitalo, kuris galėtų įvertinti įmonę 50 mlrd. dolerių.
Šie nuostoliai sunervino investuotojus, kurie siekė daugiau sužinoti apie dirbtinio intelekto įkūrėjų motyvaciją.
„Ar tai finansinė motyvacija, ar noras iš tikrųjų daryti įtaką?“ – klausė Dave'as Munichiello, GV vadovaujantis partneris ir „Flapping Airplanes“ investuotojas. „Ar jie dirba 10 metų? O gal jie turi keturis namus, kuriuos turi sumokėti?“
„Flapping Airplanes“ strategija konkuruoti žiauriame talentų kare yra nebandyti samdyti garsiausių tyrėjų. Vietoj to, jie verbuoja naujokus, kurie paprastai siektų daktaro laipsnio arba dirbtų kvantinių tyrimų įmonėje.
Jaunesnių dirbtinio intelekto startuolių talentų antplūdis reiškia mažiau grynai akademinių tyrėjų. Stefano Ermonas, Stanfordo universiteto informatikos profesorius, teigė, kad tai didžiausia kaita, kurią jis matė akademinėje bendruomenėje per dešimtmetį, kurį dėsto.
„Mažiau žmonių eis akademines pareigas ir galbūt bus sunkiau parengti kitą kartą“, – sakė Ermonas.
Tuo pačiu metu tyrėjai supranta, kad galimybė greitai ir lengvai pritraukti daug rizikos kapitalo gali ilgai netrukti.
Lapkritį Ermonas paskelbė, kad surinko 50 mln. dolerių naujai laboratorijai „Inception“, kuri daugiausia dėmesio skiria difuzijos modelių [1] kūrimui tekstui ir kodui generuoti.
„Tai pirmas kartas, kai pajutau, kad taip, potencialas yra toks didelis ir mes esame unikalioje padėtyje, kad galėtume tai pasiekti“, – sakė Ermonas. „Dabar arba niekada.“ [2]
Sutskeveris, nežadėdamas, kad jo idėjos lems proveržį, produktą ar pajamas daro teisingai. „Theranos“ išplėtota, bet nesėkminga vieno kraujo lašo panaudojimo išsamiai diagnostikai koncepcija lėmė „Theranos“ vadovų įkalinimą už investuotojų klaidinimą. „Theranos“ žadėjo didelę vertę – lengvą diagnostiką. Tyrimų projektai siekia išsiaiškinti tai, kas dar nežinoma, ir dažnai, pagal tyrimo projektų apibrėžimą, neduoda rezultato, kurio tikėtasi. Kalėjimas nėra pati smagiausia vieta pasaulyje.
1. Difuzijos modeliai yra galingi dirbtinio intelekto generatyviniai modeliai, kurie sukuria aukštos kokybės duomenis (pvz., vaizdus, garsą, tekstą), išmokdami atvirkšti laipsnišką „triukšmo“ procesą, efektyviai paversdami gryną triukšmą nuosekliu, tikrovišku turiniu per iteracinius triukšmo mažinimo veiksmus, kurie yra tokių garsių įrankių kaip DALL-E ir „Midjourney“ pagrindas, įvaldant sudėtingus duomenų pasiskirstymus. Jie veikia dviem etapais: tiesioginis procesas, kurio metu duomenys prideda triukšmo, kol jie tampa grynu statiniu, ir atvirkštinis procesas, kurio metu neuroninis tinklas išmoksta numatyti ir pašalinti tą triukšmą žingsnis po žingsnio, generuodamas naujus pavyzdžius iš atsitiktinio triukšmo.
Kaip jie veikia (du procesai)
Tiesioginė difuzija (triukšmo šalinimas):
Paima realius duomenis (pvz., vaizdą) ir palaipsniui prideda nedidelį kiekį atsitiktinio triukšmo (pvz., Gauso triukšmo) per daugelį žingsnių.
Galiausiai originalūs duomenys visiškai sunaikinami, todėl jų nebeįmanoma atskirti nuo gryno atsitiktinio triukšmo.
Atvirkštinė difuzija (triukšmo šalinimas / generavimas):
Neuroninis tinklas (dažnai U-Net architektūra [3]) yra apmokytas atvirkšti šį procesą, išmokdamas numatyti ir pašalinti kiekviename žingsnyje pridedamą triukšmą.
Norėdamas sugeneruoti kažką naujo, modelis pradeda nuo atsitiktinio triukšmo ir iteratyviai taiko išmoktus triukšmo šalinimo veiksmus, vadovaujamas tinklo, kol atsiranda aiškus, naujas duomenų pavyzdys.
Pagrindinės charakteristikos ir privalumai
Aukštos kokybės generavimas: sukuria įspūdingo detalumo ir realizmo rezultatus, dažnai pranokstančius senesnius modelius, tokius kaip GAN.
Stabilumas: siūlo stabilesnį mokymą, palyginti su kai kuriais kitais generatyviniais modeliais.
Universalumas: taikomas įvairiems duomenų tipams, įskaitant vaizdus, garsą ir tekstą.
Sąlyginis generavimas: gali generuoti konkrečius rezultatus pagal teksto raginimus (tekstas į vaizdą) arba kitas sąlygas.
Pavyzdžiai ir taikymas
Tekstas į vaizdą: stabili difuzija, DALL-E 2, „Midjourney“, „Google Imagen“.
Vaizdų redagavimas: trūkstamų dalių užpildymas, išplėtimas (vaizdų išplėtimas).
Moksliniai tyrimai: medžiagų mokslas (kristalinių struktūrų prognozavimas), Žemės sistemos mokslas (palydovų duomenys).
2. Nėra pardavimų? Nėra produkto? Nėra problemų. DI Investuotojai vis dar nekantrauja. Clark, Kate. „Wall Street Journal“, rytinis leidimas; Niujorkas, N.Y.. 2026 m. sausio 28 d.: A1.
3. „U-Net“ yra U formos konvoliucinio neuroninio tinklo (CNN) architektūra, garsėjanti tiksliu vaizdų segmentavimu, ypač medicinoje, kuris efektyviai fiksuoja kontekstą ir lokalizaciją, naudodamas susitraukiantį (kodavimo) kelią funkcijoms išgauti ir simetrišką besiplečiantį (dekodavimo) kelią segmentavimo žemėlapiui rekonstruoti, sujungtą „praleidžiamosiomis jungtimis“, kurios sujungia smulkiagrūdes detales su platesniu kontekstu. Ši konstrukcija leidžia jam gerai dirbti su ribotais mokymo duomenimis, generuojant pikselių lygio klasifikacijas (pvz., atskiriant navikus nuo sveikų audinių).
Pagrindiniai komponentai
Kodavimo įrenginys (susitraukiantis kelias):
Sumažina įvesties vaizdo atranką per konvoliucinius ir sujungimo sluoksnius, fiksuodamas aukšto lygio ypatybes (tai, kas yra vaizde).
Dekodavimo įrenginys (išplečiantis kelias):
Padidina ypatybių žemėlapių atranką, naudodamas transponuotas konvoliucijas [4], ir sujungia juos su kodavimo įrenginio ypatybėmis per praleidžiamąsias jungtis, kad būtų tiksliai Nustatyti objektų buvimo vietą (kur daiktai yra).
Praleisti ryšius:
Sujungti funkcijų žemėlapius iš kodavimo įrenginio tiesiai į atitinkamus dekodavimo sluoksnius, išsaugodami erdvines detales, prarastas mažinant diskretizavimą, o tai labai svarbu tikslioms riboms.
U forma:
Simetriška kodavimo įrenginio ir dekodavimo struktūra suteikia tinklui „U“ formą, leidžiančią jam išmokti ir kontekstą, ir tikslią lokalizaciją.
Kaip tai veikia (supaprastinta)
Įvestis: Įvedamas vaizdas (pvz., medicininis nuskaitymas).
Kodavimas: Vaizdas perduodamas per požymių išskyrimą, mažėjant dydžiui, bet praturtėjant semantine informacija (pvz., „ši sritis greičiausiai yra ląstelė“).
Kliūtis (tiltas): Giliausia U dalis jungia kodavimo įrenginį ir dekoderį.
Dekodavimas: Funkcijos yra padidinamos, o svarbiausios detalės iš ankstyvųjų kodavimo įrenginio sluoksnių (nukopijuotos per praleidžiamuosius ryšius) yra pridedamos atgal, kad būtų lengviau nustatyti ribas.
Išvestis: Segmentavimo žemėlapis, kuriame kiekvienas pikselis yra klasifikuojamas (pvz., priekinis planas / fonas, navikas / ne navikas).
Taikymas
Biomedicininis vaizdavimas: Ląstelių, navikų, organų segmentavimas rentgeno nuotraukose, MRT, mikroskopijoje.
Palydoviniai vaizdai: Kelių, pastatų, ledynų žemėlapių sudarymas.
Generatyvusis dirbtinis intelektas: Vaizdų triukšmo šalinimas, vaizdo vertimas (pvz., eskizų pavertimas nuotraukomis).
4. Transpozicinė konvoliucija (dar žinoma kaip dekonvoliucija arba dalinė žingsninė konvoliucija) yra neuroninio tinklo operacija, naudojama funkcijų žemėlapių erdvinei skiriamajai gebai (padidinimui) padidinti, veikiant kaip standartinės konvoliucijos atvirkštinė dalis. Užuot susiejęs daug įvesties pikselių su vienu išvesties pikseliu, jis susieja vieną įvesties pikselį su daugeliu išvesties pikselių, todėl idealiai tinka dekoderių tinklams, vaizdų segmentavimui ir generatyviniams priešpriešiniams tinklams (GAN). Jis veikia kiekvieną įvesties reikšmę padaugindamas iš apmokomo branduolio, šias gautas matricas patalpindamas ant didesnio išvesties tinklelio ir sumuodamas persidengiančius regionus.
Pagrindiniai transponuotos konvoliucijos aspektai:
• Tikslas: padidinti arba „išskleisti“ mažesnį, mažos skiriamosios gebos elementų žemėlapį į didesnį, didelės skiriamosios gebos.
• Mechanizmas: kiekvienas įvesties tenzoriaus elementas padauginamas iš apmokomo filtro (branduolio), o gauti svertiniai branduoliai patalpinami ant išvesties žemėlapio, paprastai su persidengimu.
• Žingsnių sąveika: žingsnis >1 transponuotoje konvoliucijoje nereiškia įvesties pikselių praleidimo; greičiau tai reiškia, kad branduolys juda greičiau per išvestį, todėl išvesties žingsnis yra didesnis.
• Komponentai: dažnai apima užpildymą, kuris gali sumažinti išvesties dydį, priešingai nei standartinis konvoliucijos elgesys.
• Naudojimo atvejai: Esminiai architektūrose, kurioms reikalingas diskretizavimas iš viršaus, pvz., „U-Net“ semantiniam segmentavimui arba GAN vaizdams generuoti iš triukšmo vektorių.
Skirtumai nuo įprastos konvoliucijos:
Nors įprasta konvoliucija sumažina 4×4 įvestį iki 2×2 išvesties, transponuota konvoliucija tai apverčia, paversdama 2×2 į 4×4 (darant prielaidą, kad branduolys yra 3×3, o žingsnio ilgis – 2). Svarbu pažymėti, kad transponuota konvoliucija nėra tiesioginė matematinė įprastos konvoliucijos inversija, o būdas pasiekti „didesnės diskretizacijos“ versiją toje pačioje formoje.
Komentarų nėra:
Rašyti komentarą