„GPT-5, naujausia „OpenAI“ dirbtinio intelekto sistema,
turėjo pakeisti žaidimo taisykles, būti milijardų dolerių investicijų ir beveik
trejų metų darbo kulminacija. Bendrovės generalinis direktorius Samas Altmanas
leido suprasti, kad GPT-5 galėtų prilygti dirbtiniam bendrajam intelektui (D.B.I.)
– D.I., kuris yra toks pat protingas ir lankstus, kaip ir bet kuris
žmogus-ekspertas.
Vietoj to, kaip jau rašiau, modelis neatitiko lūkesčių. Per
kelias valandas nuo jo išleidimo kritikai rado visokių gluminančių klaidų: jis
neatsakė į kai kuriuos paprastus matematikos klausimus, negalėjo patikimai
skaičiuoti ir kartais pateikdavo absurdiškus atsakymus į senas mįsles. Kaip ir
jo pirmtakai, D.I. modelis vis dar haliucinuoja (nors ir rečiau) ir jį kamuoja
klausimai dėl jo patikimumo. Nors kai kurie žmonės buvo sužavėti, mažai kas jį
laikė kvantiniu šuoliu ir niekas netikėjo, kad tai D.B.I. Daugelis vartotojų
prašė grąžinti senąjį modelį.
GPT-5 yra žingsnis į priekį, bet toli gražu neprilygsta D.I.
revoliucijai, kurios daugelis tikėjosi. Tai bloga žinia įmonėms ir investuotojams,
kurie dėjo dideles pastangas dėl šios technologijos. Ir tai reikalauja permąstyti
vyriausybės politiką ir investicijas, kurios buvo pagrįstos pernelyg dideliais
lūkesčiais. Dabartinė strategija, kuria siekiama tik padidinti dirbtinį
intelektą, yra labai ydinga – moksliškai, ekonomiškai ir politiškai.
Reikia
permąstyti daug dalykų – nuo reguliavimo iki tyrimų strategijos. Vienas iš
raktų į tai gali būti dirbtinio intelekto mokymas ir vystymas, įkvėptas
kognityvinių mokslų.
Iš esmės
tokie žmonės, kaip ponas Altmanas, „Anthropic“ generalinis direktorius Dario
Amodei ir daugybė kitų technologijų lyderių bei investuotojų pernelyg
pasitikėjo spekuliatyvia ir neįrodyta hipoteze, vadinama mastelio keitimu:
idėja, kad dirbtinio intelekto modelių mokymas su vis daugiau duomenų,
naudojant vis daugiau techninės įrangos, galiausiai, sukurs dirbtinį intelektą
arba net „superintelektą“, kuris pranoksta žmones.
Tačiau, kaip
perspėjau 2022 m. esė pavadinimu „Gilusis mokymasis atsitrenkia į sieną“,
vadinamasis mastelio keitimas nėra fizikinis visatos dėsnis, kaip gravitacija,
o hipotezė, pagrįstos istorinėmis tendencijomis. Dideli kalbos modeliai, kurie
maitina tokias sistemas, kaip GPT-5 tėra patobulintos statistinės
regurgitacijos mašinos, todėl jos ir toliau susidurs su problemomis,
susijusiomis su tiesa, haliucinacijomis ir samprotavimais. Mastelio keitimas
nenuvestų mūsų prie D.B.I. šventojo gralio.
Daugelis technologijų pramonės atstovų priešiškai vertino
mano prognozes. Ponas Altmanas išjuokė mane, kaip „vidutinišką gilaus mokymosi
skeptiką“ ir praėjusiais metais teigė, kad „nėra jokios sienos“. Elonas Muskas
pasidalijo memu, kuriame kritikuoja mano esė.
Dabar
atrodo, kad buvau teisus. Pridėjus daugiau duomenų prie didelių kalbos modelių,
kurie yra apmokyti kurti tekstą, mokydamiesi iš didžiulių žmonių teksto duomenų
bazių, jie tobulėja tik iki tam tikro lygio. Net ir žymiai padidinus mastelį,
jie vis tiek iki galo nesupranta sąvokų, su kuriomis susiduria – todėl kartais
jie neteisingai atsako arba sukuria juokingai neteisingus piešinius.
Mastelio
keitimas kurį laiką veikė – ankstesnės GPT modelių kartos padarė įspūdingą
pažangą, palyginti su jų pirmtakais. Tačiau per pastaruosius metus sėkmė ėmė
blėsti. Liepos mėnesį išleista pono Musko dirbtinio intelekto sistema „Grok 4“
turėjo 100 kartų daugiau mokymo, nei „Grok 2“, tačiau ji buvo tik šiek tiek
geresnė. Didelis „Meta“ „Llama 4“ modelis, daug didesnis už savo pirmtaką, taip
pat dažniausiai buvo laikomas nesėkme. Kaip daugelis dabar mato, GPT-5
įtikinamai rodo, kad mastelio keitimas prarado pagreitį.
D.B.I. atsiradimo iki 2027 m. tikimybė dabar atrodo menka.
Vyriausybė leido dirbtinio intelekto įmonėms gyventi žavingą gyvenimą beveik be
jokio reguliavimo. Dabar ji turėtų priimti įstatymus, kurie spręstų sąnaudų ir
žalos, nesąžiningai perkeliamos visuomenei, problemą – nuo dezinformacijos
iki giliųjų klastočių, „D.I. „nepadoraus“ turinio, kibernetinių nusikaltimų,
autorių teisių pažeidimų, psichinės sveikatos ir energijos vartojimo.
Be to,
vyriausybės ir investuotojai turėtų tvirtai remti investicijas į mokslinius
tyrimus, nesusijusius su mastelio keitimu. Kognityviniai mokslai (įskaitant
psichologiją, vaiko raidą, proto filosofiją ir lingvistiką) moko, kad
intelektas yra daugiau, nei vien statistinė mimikrija, ir siūlo tris
perspektyvias idėjas, kaip sukurti pakankamai patikimą, daug turtingesnį intelektą.
Pirma,
žmonės nuolat kuria ir palaiko vidinius pasaulio modelius – apie juos supančius
žmones ir objektus, bei kaip viskas veikia. Pavyzdžiui, skaitydami romaną,
sukuriate savotišką mentalinę duomenų bazę apie tai, kas yra kiekvienas
individualus veikėjas ir ką jis ar ji atstovauja. Tai gali apimti veikėjų
profesijas, jų tarpusavio santykius, jų motyvaciją ir tikslus ir pan.
Fantastiniame ar mokslinės fantastikos romane pasaulio modelis gali apimti net
naujus fizikos dėsnius.
Daugelį
generatyvinio dirbtinio intelekto trūkumų galima atsekti dėl nesugebėjimo
išgauti tinkamų pasaulio modelių iš savo mokymo duomenų. Tai paaiškina, kodėl,
pavyzdžiui, naujausi dideli kalbų modeliai negali iki galo suprasti, kaip
veikia šachmatai. Dėl to jie linkę atlikti nelegalius ėjimus, nesvarbu, kiek
žaidimų jie buvo apmokyti. Mums reikia ne tik sistemų, kurios imituotų žmonių
kalbą; mums taip pat reikia sistemų, kurios suprastų pasaulį, kad galėtų apie
jį giliau samprotauti. Dėmesys tam, kaip sukurti naujos kartos dirbtinio
intelekto sistemas, pagrįstas pasaulio modeliais, turėtų būti pagrindinis
būsimų tyrimų tikslas. „Google DeepMind“ ir Fei-Fei Li „World Labs“ žengia
žingsnius šia linkme.
Antra,
mašininio mokymosi sritis (kuri sukūrė didelius kalbos modelius) mėgsta užduoti
dirbtinio intelekto sistemoms išmokti absoliučiai viską nuo nulio, nuskaitant
duomenis iš interneto, be jokių integruotų elementų. Tačiau, kaip pabrėžė
kognityviniai mokslininkai, tokie, kaip Stevenas Pinkeris, Elizabeth Spelke ir
aš, žmogaus protas gimsta su tam tikromis pagrindinėmis žiniomis apie pasaulį,
kurios leidžia mums suvokti sudėtingesnes sąvokas. Įtraukus pagrindines
sąvokas, tokias, kaip laikas, erdvė ir priežastingumas, sistemos galėtų geriau
organizuoti duomenis, su kuriais susiduria, į turtingesnius pradinius taškus, o
tai gali lemti turtingesnius rezultatus. (Verses AI darbas, susijęs su fiziniu
ir suvokimo supratimu vaizdo žaidimuose, yra vienas žingsnis šia linkme.)
Galiausiai,
dabartinė paradigma taiko savotišką „vienas dydis tinka visiems“ metodą,
remdamasi vienu kognityviniu mechanizmu – dideliu kalbos modeliu – viskam
išspręsti. Tačiau žinome, kad žmogaus protas naudoja daug skirtingų įrankių
daugeliui skirtingų problemų spręsti. Pavyzdžiui, garsus psichologas Danielis
Kahnemanas teigė, kad žmonės naudoja vieną mąstymo sistemą, kuri yra greita,
refleksyvi ir automatinė, daugiausia paremta patirties statistika, bet taip pat
paviršutiniška ir linkusi į klaidas; kartu su antrąja sistema, kuri labiau
paremta abstraktaus samprotavimo ir lėto bei varginančio apgalvoto mąstymo.
Dideli kalbos modeliai, kurie yra šiek tiek panašūs į pirmąją sistemą, bando
viską atlikti, taikydami vieną statistinį metodą, tačiau dėl to yra nepatikimi.
Mums reikia
naujo požiūrio, artimesnio tam, ką aprašė p. Kahnemanas. Tai gali būti
„neurosimbolinis“ DI, kuris sujungia statistiškai pagrįstus neuroninius tinklus
(iš kurių semiasi dideli kalbos modeliai) su kai kuriomis senesnėmis simbolinio
DI idėjomis.
Simbolinis
dirbtinis intelektas (DI) iš prigimties yra abstraktesnis ir labiau orientuotas
į svarstymą; jis apdoroja informaciją remdamasis logikos, algebros ir
kompiuterinio programavimo užuominomis. Jau seniai pasisakau už šių dviejų
tradicijų sujungimą. Vis dažniau matome, kaip tokios įmonės, kaip „Amazon“ ir
„Google DeepMind“ taiko tokį hibridinį požiūrį (netgi „OpenAI“, regis, tyliai
tai daro). Iki dešimtmečio pabaigos neurosimbolinis DI gali užgožti grynąjį
mastelio keitimą.
Dideli
kalbos modeliai turėjo savo panaudojimo būdų, ypač kodavimui, rašymui ir minčių
generavimui, kuriuose žmonės vis dar tiesiogiai dalyvauja. Tačiau kad ir kokie
dideli jie būtų, jie niekada nebuvo verti mūsų pasitikėjimo. Norėdami sukurti
DI, kuriuo galėtume nuoširdžiai pasitikėti, ir turėti galimybę dirbtinio
intelekto srityje, turime atsisakyti mastelio keitimo atributų. Mums reikia
naujų idėjų. Grįžimas prie kognityvinių mokslų gali būti kitas logiškas
kelionės etapas.
Gary Marcus yra Niujorko universiteto emeritas profesorius
ir „Geometrinio intelekto“ įkūrėjas bei generalinis direktorius. Naujausia jo
knyga yra „Silicio slėnio sutramdymas“. Jis leidžia informacinį biuletenį apie
dirbtinį intelektą.“ [1]
1. How to Rethink A.I.: Guest Essay. Marcus, Gary. New York
Times (Online) New York Times Company. Sep 3, 2025.