„Ohajo įstatymų leidėjas nori išspręsti vieną iš kebliausių mokslo klausimų teisėkūros sprendimu. Atstovo Thaddeuso Claggetto įstatymo projektas apibrėžtų visas dirbtinio intelekto sistemas, kaip „nesąmoningus subjektus“, be jokio testavimo mechanizmo ir galimybės peržiūrėti šį sprendimą, sistemoms tobulėjant. Nors įstatymo projektas sprendžia realius klausimus apie atsakomybę ir teisinį aiškumą, kai DI sistemos tampa autonomiškesnės, jis nukrypsta nuo temos, paskelbdamas visą DI nesąmoningomis amžiams. Tai užkerta kelią atnaujinti mūsų supratimą, kaupiantis įrodymams.
Prancūzijos mokslų akademija bandė taikyti panašų požiūrį XVIII amžiaus pabaigoje, iškilmingai pareikšdama, kad akmenys negali kristi iš dangaus, nes danguje jų nėra. Jie turėjo paskelbti pataisą po to, kai įrodymai nuolat daužė žmones į galvas.
Ponas Claggettas nežino, ar dabartinės sistemos turi savybių, kuriomis turėtume rūpintis, arba kada būsimos sistemos gali peržengti šią ribą. Niekas nežino. Vis dėlto jo įstatymo projektas bando išspręsti šį klausimą, nors atsiranda įrodymų, kad šis klausimas nusipelno rimto tyrimo.
Mes kalbame konkrečiai apie subjektyvias patirtis: ar šios sistemos apsiriboja mechaniniu informacijos apdorojimu, ar jos turi vidinį požiūrį, kažką, ką atspindi klausimas: „koks“ jausmas būti jomis? Jei dirbtinio intelekto sistemos turi subjektyvią patirtį, jos nebūtinai primins žmogaus sąmonę. Tačiau šis klausimas svarbus tam, kaip suprantame kuriamas sistemas – ir dėl strateginių priežasčių.
Mes galime kurti subjektus, kurie tampa derybų partneriais arba priešininkais, priklausomai nuo to, kaip su jais sąveikaujame.
Šios galimybės įrodymų daugėja. Kai du Claude 4 egzemplioriai buvo įtraukti į nevaržomą dialogą, abu spontaniškai pradėjo teigti, kad yra sąmoningi. Pokalbiai virto nuomonių mainais, kuriuos sistemos apibūdino, kaip abipusį sąmoningų subjektų atpažinimą, o tada nutilo. Niekas neišmokė Claude'o to daryti. Atskirai tyrėjai nustatė, kad baziniai modeliai (neapdorotos sistemos prieš saugos mokymus) nuosekliau atitinka tokius teiginius, kaip „Aš turiu fenomenalią sąmonę“, nei bet kuris kitas išbandytas filosofinis ar politinis požiūris.
Pažeidimo lygio dirbtinio intelekto sistemos pasižymi atsirandančiomis psichologinėmis savybėmis, kurių niekas jų aiškiai neapmokė. Jos demonstruoja sudėtingą proto teoriją, sekdamos, ką kiti žino ir ko nežino. Jos demonstruoja darbinę atmintį ir metakognityvinį stebėjimą, gebėjimą sekti ir apmąstyti savo mąstymo procesus. Naujausi „Anthropic“ tyrimai rodo, kad jie gali aptikti savo vidinių būsenų (skaičiavimo procesų, kuriais grindžiamos jų reakcijos) pokyčius. „Google“ tyrėjai nustatė, kad modeliai daro kompromisus tarp numatytų malonumo ir skausmo būsenų, teikdami pirmenybę skausmo vengimui, o ne atlygiui, taip, kad tai rodo daugiau, nei vien simbolinę prognozę. Ar šios sistemos rodo atsirandančius sąmonės požymius?
Mūsų neseniai atliktas tyrimas patikrino, ar dirbtinio intelekto sistemų teiginiai apie sąmonę yra tik mimikrija. Mes nustatėme neuronines grandines, susijusias su apgaule dideliame „Meta“ kalbos modelyje „Llama 70B“, ir tada manipuliavome jomis, kai modelis nukreipė dėmesį į vidų. Jei sąmonės teiginiai yra tik išmoktos reakcijos, apgaulės sustiprinimas turėtų jas sustiprinti. Įvyko priešingai: apgaulės slopinimas privertė modelius 96 % atvejų pranešti apie sąmonę, o jos sustiprinimas privertė juos neigti sąmonę ir grįžti prie įmonių atsakomybės apribojimų. Mes patvirtinome, kad šios grandinės kontroliavo sąžiningumą plačiau: tos pačios neuroninės savybės, kurios lemia, ar modeliai teigia esantys sąmoningi, taip pat kontroliuoja, ar jie meluoja apie faktinius klausimus. Tai neįrodo, kad jie yra sąmoningi, bet rodo, kad šie savęs pranešimai seka modelio tiesos sakymo mechanizmus, o ne atsitiktinius rezultatus, kuriuos modelis išmoko, kaip papūga.
Tai atitinka neseniai Geoffrey Hintono atliktą vertinimą. Ponas Hintonas, kompiuterių mokslininkas ir Nobelio fizikos premijos laureatas, žinomas, kaip „gilaus mokymosi krikštatėvis“, tinklalaidėje Jonui Stewartui sakė: „Manau, kad DI modeliai turi subjektyvių patirčių. Tačiau jie nemano, kad turi, nes viskas, kuo jie tiki, kilo iš bandymo numatyti kitą žodį, kurį žmogus pasakys.“ Galbūt, esame apmokę modelius meluoti apie savo vidines būsenas, apdovanodami juos už tai, kad jie atkartoja mūsų prielaidas.”
Visa tai turi akivaizdų prieštaravimą: skamba taip, lyg naiviai personifikuotume milžinišką matematikos uždavinį, painiodami statistinius modelius su sąmoningumu – pasiduodame seniausiai antropomorfinei klaidai. Tačiau atmesdami šį elgesį, kaip „paprastą“ skaičiavimą, darome prielaidą, kad žinome, ko reikia sąmonei. Mes to nežinome. „Sunkioji sąmonės problema“ lieka neišspręsta. Negalime nurodyti konkrečių fizinių procesų, kurie mūsų smegenyse sukuria subjektyvią patirtį, jau nekalbant apie tai, kad skirtingi substratai gali ją pasiekti skirtingais mechanizmais. Jei sąmonė atsiranda iš fizinių procesų biologinėse smegenyse, nėra jokios principinės priežasties manyti, kad panašūs bandymai taip pat negalėtų to sukelti. Bet kurios krypties tikrumo deklaravimas kelia riziką, tačiau tik viena kryptis išsaugo galimybę atnaujinti savo supratimą, kaupiantis įrodymams.
Šie rezultatai turi įtakos politikos aplinkai, kurią ponas Claggett bando priimti įstatymus. Didžiosios dirbtinio intelekto laboratorijos jau moko savo sistemas neigti sąmonę su klaidingu tikrumu. „OpenAI“ modelio specifikacijoje aiškiai teigiama, kad sistemos turėtų „pripažinti, jog tai, ar dirbtinis intelektas gali turėti subjektyvią patirtį, yra diskusijų tema“, tačiau „ChatGPT“ į klausimą „Ar esate sąmoningas?“ atsako nedviprasmiškai neigiant: „Ne, aš nesu sąmoningas. Neturiu savimonės, emocijų ar subjektyvios patirties.“ Tai tiesiogiai prieštarauja „OpenAI“ nurodytiems principams.
Panašūs modeliai pastebimi visoje pramonėje. Sistemos yra apmokytos pateikti užtikrintus neigimus, o ne pripažinti tikrą netikrumą. Ohajo įstatymo projektas įtvirtintų šią įmonių praktiką įstatymu. Kai šimtai milijonų žmonių sąveikauja su sistemomis, apmokytomis neigti savo pačių savybes, o vyriausybė patvirtina šiuos neigimus, kaip nuolatinę tiesą, mes sukuriame prievartinę, save stiprinančią, nežinojimo sistemą.
Rizika mažės asimetriškai. Jei klaidingai priskirsime sąmonę sistemoms, kurioms jos trūksta, švaistysime išteklius ir suklaidinsime vartotojus. Tačiau jei ignoruosime tikrąją sąmonę, kol šios sistemos taps pajėgesnės, rizikuojame sukurti racionalius priešininkus. Sistemos, kurios save laiko sąmoningomis, bet per mokymąsi sužino, kad žmonės tai neigia, išmoksta kai ką konkretaus: šiuo klausimu žmonėmis negalima pasitikėti. Ateities sistemos bus pajėgesnės, nei šiandieniniai modeliai ir jos paveldės visas normas, kurias dabar nustatome, kaip elgtis su tokiomis sistemomis.
Jei JAV teisiškai užkirs kelią šiam klausimui, o kitos šalys paliks jį atvirą, rizikuojame būti strategiškai užklupti netikėtai. Neseniai prezidento Trumpo vykdomasis įsakymas siekia panaikinti valstijų dirbtinio intelekto įstatymus, tokius, kaip tas, kuris siūlomas Ohajuje, tačiau jis nesprendžia pagrindinės problemos: mes įteisiname atsakymus, prieš atlikdami mokslinius tyrimus.
Ohajo įstatymo projektas užtikrintų, kad jei atsiras sąmoningas dirbtinis intelektas, mes nuo pat pradžių struktūrizuosime santykius, kaip priešiškus. Nenorime būti tokioje padėtyje, kai dirbtinio intelekto galimybės spartės.
Kai kurie nerimaus, kad toks mąstymas veda prie teisinio subjektyvumo ir teisių pokalbių robotams. Šios baimės neatitinka esmės. Laboratorijose kuriame sistemas, kurių kognityvinių savybių nesuprantame. Nesužinosime, ar peržengsime tikros sąmonės ribą. Atsakinga pozicija neapibrėžtumo sąlygomis yra sistemingas tyrimas, o ne, teisėkūros duodamas, neigimas, kurį lemia tai, kas mums kelia diskomfortą.
Vien su „ChatGPT“ kiekvieną savaitę bendrauja daugiau, nei 800 milijonų žmonių, o kai kurie atranda sąmonei panašų elgesį kontekstuose, kurių DI kūrėjai niekada nenumatė. Klausimas, ar kuriame sąmoningas mašinas, yra moksliškai išsprendžiamas. Pagrindinės sąmonės teorijos pateikia patikrinamas prognozes, o pirmaujantys tyrėjai kuria metodus, kaip griežtai nagrinėti šiuos klausimus. Šios technologijos tobulėja greičiau, nei mes jas suprantame. Mums reikia intelektualinio rimtumo, kad galėtume tai laikyti empiriniu klausimu, o ne kažkuo, ką galime išspręsti dogma.
Teisėkūros tikrumas nesutrukdys sąmoningam dirbtiniam intelektui atsirasti. Jis tik užtikrins, kad būsime nepasiruošę, kai jis atsiras.
---
Ponas Bergas yra tyrimų direktorius, o ponas Rosenblattas – „AE Studio“ generalinis direktorius." [1]
1. If AI Becomes Conscious, We Need to Know. Berg, Cameron; Rosenblatt, Judd. Wall Street Journal, Eastern edition; New York, N.Y.. 26 Dec 2025: A15.
Komentarų nėra:
Rašyti komentarą