Sekėjai

Ieškoti šiame dienoraštyje

2025 m. rugsėjo 4 d., ketvirtadienis

Kaip permąstyti dirbtinį intelektą


„GPT-5, naujausia „OpenAI“ dirbtinio intelekto sistema, turėjo pakeisti žaidimo taisykles, būti milijardų dolerių investicijų ir beveik trejų metų darbo kulminacija. Bendrovės generalinis direktorius Samas Altmanas leido suprasti, kad GPT-5 galėtų prilygti dirbtiniam bendrajam intelektui (D.B.I.) – D.I., kuris yra toks pat protingas ir lankstus, kaip ir bet kuris žmogus-ekspertas.

 

Vietoj to, kaip jau rašiau, modelis neatitiko lūkesčių. Per kelias valandas nuo jo išleidimo kritikai rado visokių gluminančių klaidų: jis neatsakė į kai kuriuos paprastus matematikos klausimus, negalėjo patikimai skaičiuoti ir kartais pateikdavo absurdiškus atsakymus į senas mįsles. Kaip ir jo pirmtakai, D.I. modelis vis dar haliucinuoja (nors ir rečiau) ir jį kamuoja klausimai dėl jo patikimumo. Nors kai kurie žmonės buvo sužavėti, mažai kas jį laikė kvantiniu šuoliu ir niekas netikėjo, kad tai D.B.I. Daugelis vartotojų prašė grąžinti senąjį modelį.

 

GPT-5 yra žingsnis į priekį, bet toli gražu neprilygsta D.I. revoliucijai, kurios daugelis tikėjosi. Tai bloga žinia įmonėms ir investuotojams, kurie dėjo dideles pastangas dėl šios technologijos. Ir tai reikalauja permąstyti vyriausybės politiką ir investicijas, kurios buvo pagrįstos pernelyg dideliais lūkesčiais. Dabartinė strategija, kuria siekiama tik padidinti dirbtinį intelektą, yra labai ydinga – moksliškai, ekonomiškai ir politiškai.

 

Reikia permąstyti daug dalykų – nuo ​​reguliavimo iki tyrimų strategijos. Vienas iš raktų į tai gali būti dirbtinio intelekto mokymas ir vystymas, įkvėptas kognityvinių mokslų.

 

Iš esmės tokie žmonės, kaip ponas Altmanas, „Anthropic“ generalinis direktorius Dario Amodei ir daugybė kitų technologijų lyderių bei investuotojų pernelyg pasitikėjo spekuliatyvia ir neįrodyta hipoteze, vadinama mastelio keitimu: idėja, kad dirbtinio intelekto modelių mokymas su vis daugiau duomenų, naudojant vis daugiau techninės įrangos, galiausiai, sukurs dirbtinį intelektą arba net „superintelektą“, kuris pranoksta žmones.

 

Tačiau, kaip perspėjau 2022 m. esė pavadinimu „Gilusis mokymasis atsitrenkia į sieną“, vadinamasis mastelio keitimas nėra fizikinis visatos dėsnis, kaip gravitacija, o hipotezė, pagrįstos istorinėmis tendencijomis. Dideli kalbos modeliai, kurie maitina tokias sistemas, kaip GPT-5 tėra patobulintos statistinės regurgitacijos mašinos, todėl jos ir toliau susidurs su problemomis, susijusiomis su tiesa, haliucinacijomis ir samprotavimais. Mastelio keitimas nenuvestų mūsų prie D.B.I. šventojo gralio.

 

Daugelis technologijų pramonės atstovų priešiškai vertino mano prognozes. Ponas Altmanas išjuokė mane, kaip „vidutinišką gilaus mokymosi skeptiką“ ir praėjusiais metais teigė, kad „nėra jokios sienos“. Elonas Muskas pasidalijo memu, kuriame kritikuoja mano esė.

 

Dabar atrodo, kad buvau teisus. Pridėjus daugiau duomenų prie didelių kalbos modelių, kurie yra apmokyti kurti tekstą, mokydamiesi iš didžiulių žmonių teksto duomenų bazių, jie tobulėja tik iki tam tikro lygio. Net ir žymiai padidinus mastelį, jie vis tiek iki galo nesupranta sąvokų, su kuriomis susiduria – todėl kartais jie neteisingai atsako arba sukuria juokingai neteisingus piešinius.

 

Mastelio keitimas kurį laiką veikė – ankstesnės GPT modelių kartos padarė įspūdingą pažangą, palyginti su jų pirmtakais. Tačiau per pastaruosius metus sėkmė ėmė blėsti. Liepos mėnesį išleista pono Musko dirbtinio intelekto sistema „Grok 4“ turėjo 100 kartų daugiau mokymo, nei „Grok 2“, tačiau ji buvo tik šiek tiek geresnė. Didelis „Meta“ „Llama 4“ modelis, daug didesnis už savo pirmtaką, taip pat dažniausiai buvo laikomas nesėkme. Kaip daugelis dabar mato, GPT-5 įtikinamai rodo, kad mastelio keitimas prarado pagreitį.

 

D.B.I. atsiradimo iki 2027 m. tikimybė dabar atrodo menka. Vyriausybė leido dirbtinio intelekto įmonėms gyventi žavingą gyvenimą beveik be jokio reguliavimo. Dabar ji turėtų priimti įstatymus, kurie spręstų sąnaudų ir žalos, nesąžiningai perkeliamos visuomenei, problemą – nuo ​​dezinformacijos iki giliųjų klastočių, „D.I. „nepadoraus“ turinio, kibernetinių nusikaltimų, autorių teisių pažeidimų, psichinės sveikatos ir energijos vartojimo.

 

Be to, vyriausybės ir investuotojai turėtų tvirtai remti investicijas į mokslinius tyrimus, nesusijusius su mastelio keitimu. Kognityviniai mokslai (įskaitant psichologiją, vaiko raidą, proto filosofiją ir lingvistiką) moko, kad intelektas yra daugiau, nei vien statistinė mimikrija, ir siūlo tris perspektyvias idėjas, kaip sukurti pakankamai patikimą, daug turtingesnį intelektą.

 

Pirma, žmonės nuolat kuria ir palaiko vidinius pasaulio modelius – apie juos supančius žmones ir objektus, bei kaip viskas veikia. Pavyzdžiui, skaitydami romaną, sukuriate savotišką mentalinę duomenų bazę apie tai, kas yra kiekvienas individualus veikėjas ir ką jis ar ji atstovauja. Tai gali apimti veikėjų profesijas, jų tarpusavio santykius, jų motyvaciją ir tikslus ir pan. Fantastiniame ar mokslinės fantastikos romane pasaulio modelis gali apimti net naujus fizikos dėsnius.

 

Daugelį generatyvinio dirbtinio intelekto trūkumų galima atsekti dėl nesugebėjimo išgauti tinkamų pasaulio modelių iš savo mokymo duomenų. Tai paaiškina, kodėl, pavyzdžiui, naujausi dideli kalbų modeliai negali iki galo suprasti, kaip veikia šachmatai. Dėl to jie linkę atlikti nelegalius ėjimus, nesvarbu, kiek žaidimų jie buvo apmokyti. Mums reikia ne tik sistemų, kurios imituotų žmonių kalbą; mums taip pat reikia sistemų, kurios suprastų pasaulį, kad galėtų apie jį giliau samprotauti. Dėmesys tam, kaip sukurti naujos kartos dirbtinio intelekto sistemas, pagrįstas pasaulio modeliais, turėtų būti pagrindinis būsimų tyrimų tikslas. „Google DeepMind“ ir Fei-Fei Li „World Labs“ žengia žingsnius šia linkme.

 

Antra, mašininio mokymosi sritis (kuri sukūrė didelius kalbos modelius) mėgsta užduoti dirbtinio intelekto sistemoms išmokti absoliučiai viską nuo nulio, nuskaitant duomenis iš interneto, be jokių integruotų elementų. Tačiau, kaip pabrėžė kognityviniai mokslininkai, tokie, kaip Stevenas Pinkeris, Elizabeth Spelke ir aš, žmogaus protas gimsta su tam tikromis pagrindinėmis žiniomis apie pasaulį, kurios leidžia mums suvokti sudėtingesnes sąvokas. Įtraukus pagrindines sąvokas, tokias, kaip laikas, erdvė ir priežastingumas, sistemos galėtų geriau organizuoti duomenis, su kuriais susiduria, į turtingesnius pradinius taškus, o tai gali lemti turtingesnius rezultatus. (Verses AI darbas, susijęs su fiziniu ir suvokimo supratimu vaizdo žaidimuose, yra vienas žingsnis šia linkme.)

 

Galiausiai, dabartinė paradigma taiko savotišką „vienas dydis tinka visiems“ metodą, remdamasi vienu kognityviniu mechanizmu – dideliu kalbos modeliu – viskam išspręsti. Tačiau žinome, kad žmogaus protas naudoja daug skirtingų įrankių daugeliui skirtingų problemų spręsti. Pavyzdžiui, garsus psichologas Danielis Kahnemanas teigė, kad žmonės naudoja vieną mąstymo sistemą, kuri yra greita, refleksyvi ir automatinė, daugiausia paremta patirties statistika, bet taip pat paviršutiniška ir linkusi į klaidas; kartu su antrąja sistema, kuri labiau paremta abstraktaus samprotavimo ir lėto bei varginančio apgalvoto mąstymo. Dideli kalbos modeliai, kurie yra šiek tiek panašūs į pirmąją sistemą, bando viską atlikti, taikydami vieną statistinį metodą, tačiau dėl to yra nepatikimi.

 

Mums reikia naujo požiūrio, artimesnio tam, ką aprašė p. Kahnemanas. Tai gali būti „neurosimbolinis“ DI, kuris sujungia statistiškai pagrįstus neuroninius tinklus (iš kurių semiasi dideli kalbos modeliai) su kai kuriomis senesnėmis simbolinio DI idėjomis.

 

Simbolinis dirbtinis intelektas (DI) iš prigimties yra abstraktesnis ir labiau orientuotas į svarstymą; jis apdoroja informaciją remdamasis logikos, algebros ir kompiuterinio programavimo užuominomis. Jau seniai pasisakau už šių dviejų tradicijų sujungimą. Vis dažniau matome, kaip tokios įmonės, kaip „Amazon“ ir „Google DeepMind“ taiko tokį hibridinį požiūrį (netgi „OpenAI“, regis, tyliai tai daro). Iki dešimtmečio pabaigos neurosimbolinis DI gali užgožti grynąjį mastelio keitimą.

 

Dideli kalbos modeliai turėjo savo panaudojimo būdų, ypač kodavimui, rašymui ir minčių generavimui, kuriuose žmonės vis dar tiesiogiai dalyvauja. Tačiau kad ir kokie dideli jie būtų, jie niekada nebuvo verti mūsų pasitikėjimo. Norėdami sukurti DI, kuriuo galėtume nuoširdžiai pasitikėti, ir turėti galimybę dirbtinio intelekto srityje, turime atsisakyti mastelio keitimo atributų. Mums reikia naujų idėjų. Grįžimas prie kognityvinių mokslų gali būti kitas logiškas kelionės etapas.

 

Gary Marcus yra Niujorko universiteto emeritas profesorius ir „Geometrinio intelekto“ įkūrėjas bei generalinis direktorius. Naujausia jo knyga yra „Silicio slėnio sutramdymas“. Jis leidžia informacinį biuletenį apie dirbtinį intelektą.“ [1]

 

1. How to Rethink A.I.: Guest Essay. Marcus, Gary.  New York Times (Online) New York Times Company. Sep 3, 2025.

Komentarų nėra: