"Praėjusiais metais apsiribojęs akademinėmis diskusijomis ir technologijų konferencijų renginiais, dirbtinio intelekto klausimas pagaliau patraukė visuomenės dėmesį.
ChatGPT, Dall-E 2 ir kitos naujos programos parodė, kad kompiuteriai gali generuoti sakinius ir vaizdus, primena žmogaus sukurtus kūrinius.
AI tyrinėtojai skambina pavojaus varpais. Kovo mėnesį kai kurie iš pirmaujančių šios srities šviesuolių prisijungė prie technologijų pionierių, tokių, kaip Elonas Muskas ir Steve'as Wozniakas, ragindami padaryti šešių mėnesių pertrauką dirbtinio intelekto eksperimentuose, nes „pažangus AI gali reikšti esminį pokytį gyvybės Žemėje istorijoje, todėl turi būti planuojamas ir valdomas atitinkamai rūpestingai ir su reikiamais ištekliais“. Praėjusį mėnesį OpenAI, sukūrusios ChatGPT, vadovybė paragino „kažką panašaus į TATENA“ – Tarptautinę atominės energijos agentūrą – „dėti superžvalgybos pastangas“, kuri „tikrintų sistemas, reikalautų auditų, patikrintų, ar laikomasi saugos standartų, apriboti diegimo laipsnius, saugumo lygius ir pan. Jei nerimą keliantys asmenys teisūs dėl dirbtinio intelekto pavojų ir bando tai išspręsti TATENA tipo sprendimu, tada mes jau pasmerkti.
Branduolinės analogijos yra svarbios pokalbiuose apie AI riziką. „OpenAI“ generalinis direktorius Samas Altmanas, kuris anksčiau prašė Kongreso reguliuoti AI, diskutuodamas apie jo įmonę, dažnai iškelia Manheteno projektą. Henry Kissingeris, nepasižymėjęs nerimą keliančiomis mintimis, yra sakęs, kad „AI gali būti toks pat, kaip branduolinių ginklų atsiradimas, bet dar mažiau nuspėjamas“.
TATENA modelis yra patrauklus daugeliui žmonių, susirūpinusių AI, nes jo tikslai yra analogiški jų. Agentūros misija – skatinti taikų branduolinės energijos naudojimą, tuo pačiu užkertant kelią branduolinių ginklų plitimui. Daugelis dirbtinio intelekto tyrinėtojų norėtų, kad jų išradimai skatintų žmonių klestėjimą, nepadidindami žmogaus destruktyvumo.
Deja, techniniai branduolinio ginklo valdymo metodai negali būti taikomi kompiuterinėms programoms. Kai branduoliniams ginklams reikia didelės infrastruktūros – reaktorių, sodrinimo įrenginių ir panašių dalykų – AI turi daug mažesnį pėdsaką. „OpenAI“ komanda mano, kad gali būti šios problemos sprendimas, nes „skaičiavimo ir energijos suvartojimo stebėjimas gali labai padėti“, stebint atitiktį.
Tai vis tiek išeitų nepakankama. Kaip pripažįsta OpenAI komanda, „techninės galimybės užtikrinti superintelekto saugumą“ yra „atviras tyrimo klausimas“. Be žinomo standarto nėra būdo įvertinti atitiktį.
Pagrindinis TATENA trūkumas yra ne atitikties įvertinimas, o jos vykdymas. Kai agentūra buvo įkurta 1957 m., buvo trys branduolinės valstybės: JAV, Sovietų Sąjunga ir Didžioji Britanija. TATENA prižiūrint, šis skaičius išaugo trigubai.
Geopolitinės konkurencijos sukėlė branduolinių ginklų plitimą Šaltojo karo metais, kai Prancūzija, Kinija ir Indija detonavo branduolinius įrenginius, o Izraelis sukūrė savo bombą. Nors amerikiečiai ir sovietai norėjo apriboti branduolinius ginklus, nė vienas nenorėjo susilpninti savo koalicijų, atstumdami partnerius, kurie buvo pakeliui į bombą.
TATENA nepavyko įvykdyti savo neplatinimo misijos net po Sovietų Sąjungos žlugimo. Pakistanas ir Šiaurės Korėja nuo to laiko išbandė bombą, o Iranas sodrina uraną beveik ginklų lygio. Izraelis pasiekė keletą reikšmingų neplatinimo sėkmių Irake ir Sirijoje, tačiau paprastai tik didžioji galia gali užtikrinti, kad TATENA laikytųsi reikalavimų. Išskyrus abejotiną veiklą Irake, JAV nusprendė, kad branduolinio ginklo platinimas yra geresnis už karą.
Didėjanti Kinijos galia ir karingumas yra vienas iš daugelio veiksnių, dėl kurių tarptautinis dirbtinio intelekto kontrolės režimas bus sudėtingas. Kinija buvo viena iš nešvankiausių branduolinių ginklų platintojų ir greičiausiai peržengs su ginklais susijusio dirbtinio intelekto ribas, nes mažiau tikėtina, kad AI pradės perversmą ar nepaklus įsakymams, nei Kinijos karinė vadovybė, ir todėl, kad Pekinas sugebės kontroliuoti tarptautinius partnerius, kurie remiasi Kinijos sukurtu AI.
Tačiau net draugiškos demokratijos susidurs su AI apribojimais. Skaičiavimo technologijos suteiks didžiulę ekonominę naudą, o daugelis šių išradimų turės karinio pobūdžio pritaikymų. Amerikos kariuomenė turės naudoti dirbtinį intelektą, ir nors dauguma Amerikos sąjungininkų ir partnerių nori pasislėpti po jos branduoliniu skėčiu, tikėtina, kad jie nesustabdys jų ekonomikos augimo, jei Vašingtonas įves dvigubus dirbtinio intelekto standartus.
Ironiška, bet „OpenAI“ nori priimti TATENA modelį, nors branduolinio ginklo neplatinimo ateitis darosi vis labiau abejotina. Šiaurės Korėjos ir Irano branduolinės programos verčia Amerikos partnerius ir sąjungininkus visoje Azijoje iš naujo įvertinti, kiek jiems reikia branduolinio ginklo.
Galiausiai neplatinimo ir AI rizika turi tą patį silpnumą: jos neįvertina žmogiškojo faktoriaus.
---
P. Watsonas yra Hadsono instituto Li ateities centro direktoriaus pavaduotojas." [1]
1. IAEA for AI? That Model Has Already Failed. Watson, Mike.
Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]. 02 June 2023: A.15.
Komentarų nėra:
Rašyti komentarą