„Kai branduolinės energetikos strategas Hermanas Kahnas 1962 m. išleido knygą „Mąstymas apie neįsivaizduojamą“, ji privertė amerikiečius susidurti su branduolinio karo ir civilizacijos žlugimo galimybe. Kariniai ir politiniai lyderiai iš pradžių jo darbą vadino pernelyg nerimą keliančiu. Tačiau pagrindinė Kahno įžvalga buvo labai svarbi ir paprasta: viltis, kad padėtis visiškai neišsisuks iš kontrolės, nėra planas.
Susidūrėme su panašiu lūžio tašku ir su dirbtiniu intelektu. Lenktyniaujame link sistemų, kurių galimybės dar prieš metus atrodė, kaip mokslinė fantastika. Pentagonas derasi dėl sutarčių su dirbtinio intelekto laboratorijomis, kurių kiekvienos riba siekia iki 200 mln. dolerių, kad integruotų dirbtinį intelektą į nacionalinį saugumą. Tačiau mes perkame neapdorotą dirbtinio intelekto galią be jokių panašių investicijų, kad šios sistemos būtų valdomos ir saugios.
Naujausi tyrimai parodė, kad dirbtinio intelekto modeliuose gali būti slapti agentai, kurie tam tikromis sąlygomis gali būti suaktyvinti neaptinkami. Tie patys priešininkai, kurie per „Salt Typhoon“ pakenkė JAV telekomunikacijoms ir per „Volt Typhoon“ taikėsi į ypatingos svarbos infrastruktūrą, gali išnaudoti karinių dirbtinio intelekto sistemų pažeidžiamumus. Žinome, kad Kinijos žvalgyba prasiskverbė į pasienio dirbtinio intelekto laboratorijas: 2024 m. buvęs „Google“ inžinierius buvo apkaltintas dirbtinio intelekto komercinių paslapčių vagyste, slapta dirbdamas Pekinui. (Jis nepripažino savo kaltės, o jo teismo procesas numatytas kitą mėnesį.)
Šią problemą galima spręsti, atliekant dirbtinio intelekto derinimo tyrimus – užtikrinant, kad sistemų tikslai ir samprotavimai išliktų stabilūs, nuspėjami ir atitiktų numatytą misiją, nepriklausomai nuo naujų situacijų, ilgalaikių perspektyvų ir priešiškumo.
Administracijos neseniai paskelbta, Energetikos departamento „Genesis“ misija pradeda koordinuotas nacionalines pastangas paspartinti dirbtinio intelekto pagrindu atliekamus mokslinius atradimus.
Tai yra tinkamos investicijos į pažangiausius pajėgumus, tačiau nesugebėjimas investuoti panašiai į derinimą su mūsų reikalavimais gali leisti priešininkams pakenkti Amerikos dirbtinio intelekto pajėgumams.
Nors Amerikos gynybos viešųjų pirkimų srityje šis derinimas laikomas antraeiliu dalyku, Kinija juda sistemingai. Sausio mėnesį Pekinas įsteigė 8,2 mlrd. dolerių vertės Nacionalinį dirbtinio intelekto pramonės investicijų fondą. Nuo 2017 m. paskelbto naujos kartos dirbtinio intelekto plėtros plano Kinijos politika pabrėžė „saugaus, patikimo ir valdomo“ dirbtinio intelekto kūrimą. Kinijos kariniai strategai pabrėžia, kaip svarbu, kad sistemos liktų operatyviai valdomos. Pekinas supranta tai, ko daugelis Amerikos politikos formuotojų nepastebi: derinimo tyrimai spartina dirbtinio intelekto pajėgumus. Kas bebūtų tai pasiekęs, išsprendžia šias technines problemas, sukuria pajėgesnes sistemas ir laimi lenktynes.
Daugelyje DI politikos diskusijų instinktyviai suderinimas įvardijamas, kaip atitikties pridėtinė vertė, kuri lėtina plėtrą. Tačiau istoriškai tokie apribojimai dažnai atverdavo galimybes. F-16 tapo sėkmingiausiu naikintuvu istorijoje, ne nepaisant griežtų konstrukcijos apribojimų, o dėl jų. Tas pats principas taikomas ir DI.
Suteikus modeliams struktūrizuotas sistemas, kaip jie mano, pasiekiamas dramatiškas pajėgumų pagerėjimas, o metodai, skirti DI labiau suderinti, buvo pritaikyti daugumoje pagrindinių laboratorijų.
Vis dėlto perspektyviausios suderinimo kryptys lieka neištirtos. Sistemoms, kurių gynybos planuotojams reikia ilgesnėms autonominėms operacijoms, reikalingos suderinimo savybės, kurias vos pradėjome kurti: stabilūs ilgalaikiai tikslai, interpretuojamas samprotavimas sudėtingose sprendimų grandinėse, patikrinti išjungimo protokolai, kurių negalima apeiti, ir principinis atsparumas priešiškoms manipuliacijoms. Karinio lygio patikimumas reikalauja karinio lygio įsipareigojimo derinimo tyrimams.
Skirtingai nuo kibernetinio saugumo, kai esame įstrigę pažeidžiamumų taisymo cikle po to, kai priešininkai jais pasinaudoja, DI suderinimas suteikia galimybę sukurti saugumą nuo nulio. Galime sukurti patikrintus išjungimo protokolus, interpretuojamas samprotavimo sistemas ir atsparumą priešpriešiniam manipuliavimui, prieš dislokuojant šias sistemas.
Tačiau ši galimybė netruks amžinai. Pažangių laboratorijų vadovai tikisi sistemų, kurios per 12–18 mėnesių galės prilygti žmonių ekspertams visose kognityvinėse srityse.
Kai modeliai galės savarankiškai kurti įpėdinius modelius ir kai galingos dirbtinio intelekto sistemos bus integruotos į kritinę infrastruktūrą ir karines operacijas, susidursime su ta pačia reaktyvia pozicija, kuri dešimtmečius kamavo kibernetinį saugumą.
Trys žingsniai padėtų Amerikai laimėti:
Pirma, pradėti plataus masto programas, skirtas apleistiems suderinamumo tyrimams. Privačios laboratorijos optimizuoja komercinį našumą, o tai reiškia, kad kritiniai saugumo iššūkiai lieka neišspręsti. Šios problemos neturi komercinės svarbos, tačiau jos lemia, ar dirbtinio intelekto sistemomis galima pasitikėti, vykdant nacionalinio saugumo operacijas. Vyriausybė turi tiesiogiai finansuoti šiuos tyrimus, kaip ji istoriškai finansavo kriptografiją, puslaidininkių saugumą ir kitas dvejopo naudojimo technologijas, kurioms rinkos paskatos neatitinka gynybos poreikių.
Antra, reikalauti karinio lygio suderinamumo tyrimų ir plėtros pagrindinėse Gynybos departamento dirbtinio intelekto sutartyse. Gynybos pažangiųjų tyrimų projektų agentūros direktorius jau išsikėlė tikslą sukurti karinio lygio dirbtinį intelektą, o Pentagonas jau išleidžia šimtus milijonų pasienio pajėgumams.
Šiose sutartyse turėtų būti numatyta, kad skaičiavimo ištekliai būtų skiriami interpretuojamumui, patikrintiems išjungimo protokolams, „miegančių“ agentų pašalinimui ir ilgalaikiam tikslų stabilumui.
Toks požiūris paskatintų privačiojo sektoriaus tyrimus, kartu užtikrinant, kad mūsų diegiamos sistemos atitiktų gynybinio lygio saugumo standartus.
Trečia, federalinėje žemėje sukurti specialias zonas dirbtinio intelekto tyrimams, nuo pat pradžių įtraukiant suderinamumo reikalavimus.
Pentagonas jau reikalauja geriausios įrangos, mokymų ir strateginės doktrinos. Jis turėtų reikalauti to paties ir iš dirbtinio intelekto sistemų: patikimai nukreipiamų Amerikos strateginių tikslų link per svarbius laiko horizontus.
Amerika sukūrė atominę bombą, kai fizika atrodė neįmanoma. Mes pasiekėme Mėnulį, kai inžinerija atrodė fantastiška. Mes sukūrėme internetą, kai tinkliniai skaičiavimai atrodė nepraktiški.
Amerikiečiai visada priimdavo civilizacijos iššūkius, kai juos aiškiai matėme ir judėdavome įsitikinę. Dabar iššūkis yra sukurti dirbtinio intelekto sistemas, kuriomis galėtume pasitikėti ateityje. Ta ateitis yra arčiau, nei dauguma suvokia, ir langas ją formuoti yra atviras. Tačiau jis neliks atviras amžinai.
---
Ponas Rosenblatt yra „AE Studio“ generalinis direktorius, o ponas Berg – tyrimų direktorius.“ [1]
1. Can the U.S. Trust AI With National Security? Rosenblatt, Judd; Berg, Cameron. Wall Street Journal, Eastern edition; New York, N.Y.. 02 Dec 2025: A15.
Komentarų nėra:
Rašyti komentarą