„JAV nacionalinio
saugumo pareigūnai perspėja, kad naujosios technologijos gali apversti karą,
kibernetinį konfliktą ir – kraštutiniu atveju – branduolinio ginklo
panaudojimą.
Kai prezidentas
Bidenas spalį paskelbė griežtus apribojimus parduoti Kinijai pažangiausius
kompiuterių lustus, jis iš dalies jas pardavė publikai, siekdamas suteikti Amerikos
pramonei galimybę atkurti savo konkurencingumą.
Tačiau Pentagone
ir Nacionalinėje saugumo taryboje buvo antra darbotvarkė: ginklų kontrolė. Jei
Kinijos kariuomenė negalės gauti lustų, teigia teorija, ji gali sulėtinti
pastangas kurti ginklus, varomus dirbtinio intelekto. Tai suteiktų Baltiesiems
rūmams ir pasauliui laiko išsiaiškinti kai kurias dirbtinio intelekto naudojimo
taisykles, pradedant jutikliais, raketomis ir kibernetiniais ginklais, ir
galiausiai apsisaugoti nuo kai kurių Holivudo užburtų košmarų – autonominių
robotų žudikų ir kompiuterių. kurie užrakina savo žmones kūrėjus.
Dabar kyla baimės
rūkas, supantis populiarųjį ChatGPT pokalbių robotą ir kitus generatyvius A.I.
Dėl to programinės įrangos lustų apribojimas Pekine atrodo, tik laikinas
sprendimas. Kai Bidenas ketvirtadienį atvyko į Baltuosiuose rūmuose vykusį
technologijų vadovų, kurie stengiasi apriboti technologijų keliamą riziką,
susitikimą, pirmasis jo komentaras buvo „tai, ką jūs darote, turi didžiulį
potencialą ir didžiulį pavojų“.
Pasak jo
nacionalinio saugumo padėjėjų, tai atspindėjo naujausius slaptus pranešimus
apie naujosios technologijos potencialą apversti karą, kibernetinį konfliktą ir
– kraštutiniu atveju – sprendimų dėl branduolinių ginklų panaudojimo priėmimą.
Tačiau net kai
Bidenas perspėjo, Pentagono pareigūnai, kalbėdami technologijų forumuose, teigė
manantys, kad šešių mėnesių pertrauka kuriant kitos kartos ChatGPT ir panašią
programinę įrangą buvo bloga idėja: kinai to nepadarys, palauk, rusai irgi ne.
„Jei sustosime,
atspėkite, kas nesustos: potencialūs priešai užsienyje“, – trečiadienį sakė
Pentagono vyriausiasis informacijos pareigūnas Johnas Shermanas. "Turime
ir toliau judėti".
Jo atviras
pareiškimas pabrėžė įtampą, kuri šiandien jaučiama visoje gynybos
bendruomenėje. Niekas iš tikrųjų nežino, ką gali šios naujos technologijos, kai
kalbama apie ginklų kūrimą ir kontrolę, ir jie neįsivaizduoja, koks ginklų
kontrolės režimas, jei toks būtų, galėtų veikti.
Nuojauta neaiški,
bet kelia didelį nerimą. Ar „ChatGPT“ galėtų padėti blogiems veikėjams, kurie
anksčiau neturėjo lengvos prieigos prie destruktyvių technologijų? Ar tai
galėtų pagreitinti supervalstybių konfrontaciją, paliekant mažai laiko
diplomatijai ir deryboms?
„Pramonė čia nėra
kvaila, ir jūs jau matote pastangas susireguliuoti“, – sakė Ericas Schmidtas,
buvęs „Google“ pirmininkas, ėjęs Gynybos inovacijų tarybos pirmininko pareigas
2016–2020 m.
„Taigi pramonėje
šiuo metu vyksta neoficialių pokalbių serija – visi neoficialūs – apie tai,
kokios priemonės būtų A.I., kaip sauga“, – sakė ponas Schmidtas, kuris kartu su buvusiu
valstybės sekretoriumi Henry Kissingeriu yra parašęs straipsnių ir knygų seriją
apie dirbtinio intelekto potencialą apversti geopolitiką.
Preliminarios
pastangos į sistemą įdėti apsauginius turėklus yra aiškūs visiems, kurie
išbandė pradines ChatGPT iteracijas. Botai neatsakys į klausimus apie tai,
kaip, pavyzdžiui, pakenkti ką nors, užpilant narkotikais, kaip susprogdinti
užtvanką ar suluošinti branduolines centrifugas – visas operacijas, kurias JAV
ir kitos šalys vykdė be dirbtinio intelekto įrankių.
Tačiau tie
juodieji veiksmų sąrašai tik sulėtins piktnaudžiavimą šiomis sistemomis;
nedaugelis mano, kad gali visiškai sustabdyti tokias pastangas. Apeiti saugos
ribas visada reikia įsilaužti, ką gali patvirtinti visi, kurie bandė išjungti
skubius automobilio saugos diržų perspėjimo signalus.
Nors nauja
programinė įranga išpopuliarino šią problemą, ji vargu ar yra nauja Pentagonui.
Pirmosios taisyklės dėl autonominių ginklų kūrimo buvo paskelbtos prieš
dešimtmetį. Pentagono Jungtinis dirbtinio intelekto centras buvo įkurtas prieš
penkerius metus, siekiant ištirti dirbtinio intelekto panaudojimą kovose.
Kai kurie ginklai
jau veikia autopilotu. Raketos „Patriot“, kurios numuša į saugomą oro erdvę
patenkančias raketas ar lėktuvus, jau seniai turi „automatinį“ režimą. Tai
leidžia jiems šaudyti be žmogaus įsikišimo, kai kas nors patenka į taikinius greičiau,
nei žmogus galėtų sureaguoti.
Tačiau manoma,
kad juos prižiūrės žmonės, kurie prireikus gali nutraukti atakas.
Mohseno
Fakhrizadeho, geriausio Irano branduolinio mokslo mokslininko, nužudymą
Izraelio „Mossad“ įvykdė, naudodamas autonominį kulkosvaidį, sumontuotą pikape,
kuriam padėjo dirbtinis intelektas, nors, atrodo, buvo didelis nuotolinio
valdymo pultas.
Rusija sakė, kad neseniai ji pradėjo gaminti – bet dar
nedislokavo – savo povandeninę Poseidono branduolinę torpedą. Jei ji
pateisintų Rusijos ažiotažą, toks ginklas galėtų savarankiškai keliauti per
vandenyną, išvengdamas esamos priešraketinės gynybos, kad galėtų pristatyti branduolinį
ginklą, praėjus kelioms dienoms po jo paleidimo.
Kol kas nėra
sutarčių ar tarptautinių susitarimų, kurie būtų susiję su tokiais autonominiais
ginklais. Epochoje, kai ginklų kontrolės susitarimų atsisakoma greičiau, nei
dėl jų deramasi, tokio susitarimo perspektyvų mažai. Tačiau iššūkiai, kuriuos
kelia „ChatGPT“ ir panašūs į jį, yra skirtingi ir tam tikrais atžvilgiais
sudėtingesni.
Kariuomenėje A.I.
įkvėptos sistemos gali pagreitinti mūšio lauko sprendimų tempą tiek, kad jie
sukuria visiškai naują atsitiktinių smūgių riziką arba sprendimus, priimtus dėl
klaidinančių ar sąmoningai klaidingų įspėjimų apie ateinančias atakas.
„Pagrindinė
problema su A.I. kariuomenėje ir nacionaliniame saugume yra tai, kaip apsiginti
nuo atakų, kurios yra greitesnės, nei žmogaus sprendimų priėmimas“, – sakė M.
Schmidtas. „Ir aš manau, kad ši problema yra neišspręsta. Kitaip tariant,
raketa ateina taip greitai, kad turi būti automatinis atsakas. Kas nutiks, jei
tai klaidingas signalas?
Šaltasis karas
buvo nusėtas istorijomis apie klaidingus įspėjimus – kažkada dėl to, kad mokymo
juosta, skirta praktikuoti branduolinį atsaką, buvo kažkaip įdėta į netinkamą
sistemą ir perspėjo apie masinį artėjantį sovietų puolimą. (Geras sprendimas
paskatino visus palaukti.) Paulas Scharre'as iš Naujojo Amerikos saugumo
centro savo 2018 m. knygoje „Army of None“ pažymėjo, kad „nuo 1962 m. iki 2002
m. įvyko mažiausiai 13 artimo naudojimo branduolinių incidentų“. „Patikima
nuomone, kad beveik neįvykę incidentai yra normalios, nors ir bauginančios
branduolinio ginklo sąlygos“.
Dėl šios
priežasties, kai įtampa tarp supervalstybių buvo daug mažesnė, nei šiandien,
prezidentų serija bandė derėtis, kad visos pusės skirtų daugiau laiko
branduolinių sprendimų priėmimui, kad niekas nepultų į konfliktą. Tačiau
generatyvus A.I. grasina pastūmėti šalis kita linkme – greitesnio sprendimų
priėmimo link.
Geros naujienos
yra tai, kad didžiosios jėgos, greičiausiai, bus atsargios, nes žino, kaip
atrodys priešininko atsakas. Tačiau kol kas nėra sutartų taisyklių.
Anja Manuel,
buvusi Valstybės departamento pareigūnė, o dabar konsultacinės grupės Rice,
Hadley, Gates ir Manuel vadovė, neseniai rašė, kad, net jei Kinija ir Rusija
nėra pasirengusios deryboms apie A.I. ginklų kontrolę, susitikimai šia
tema baigsis diskusijomis, kokie veiksmai čia būtų tiesiog gėda.
Žinoma, net
Pentagonas susirūpins, kad sutiks su pernelyg daug apribojimų.
„Labai sunkiai
kovojau, kad išsiugdyčiau politiką, pagal kurią, jei turite autonominių ginklų
elementų, jums reikia būdo juos išjungti“, – sakė Danny Hillis, garsus
kompiuterių mokslininkas, kuris buvo lygiagrečių kompiuterių, naudojamų
dirbtiniam intelektui, pradininkas.
P. Hillisas, kuris taip pat dirbo Gynybos
inovacijų valdyboje, sakė, kad pasipriešinimą vystė Pentagono pareigūnai,
kurie sakė, kad „jei mes galime juos išjungti, priešas taip pat gali juos
išjungti“.
Taigi, didesnę
riziką gali kelti atskiri veikėjai, teroristai, išpirkos reikalaujančių
programų grupės ar mažesnės šalys, turinčios pažangių kibernetinių įgūdžių,
pavyzdžiui, Šiaurės Korėja, kurios išmoksta klonuoti mažesnę, mažiau suvaržytą,
ChatGPT versiją. Ir jie gali pastebėti, kad generatyvinis A.I. programinė
įranga puikiai tinka paspartinti kibernetines atakas ir nukreipti
dezinformaciją.
Tomas Burtas,
vadovaujantis pasitikėjimo ir saugos operacijoms įmonėje „Microsoft“, kuri
sparčiai naudojasi naujomis technologijomis savo paieškos sistemoms atnaujinti,
neseniai Džordžo Vašingtono universitete vykusiame forume sakė manantis, kad
A.I. sistemos padėtų gynėjams greičiau aptikti nenormalų elgesį, nei padėtų
užpuolikams. Kiti ekspertai nesutinka. Tačiau jis teigė baiminantis, kad tai
gali „perkrauti“ tikslinės dezinformacijos plitimą.
Visa tai reiškia
visiškai naują ginklų kontrolės erą.
Kai kurie
ekspertai teigia, kad kadangi ChatGPT ir panašios programinės įrangos plitimo
sustabdyti būtų neįmanoma, geriausia viltis yra apriboti specialius lustus ir
kitą skaičiavimo galią, reikalingą technologijai tobulinti. Tai neabejotinai
bus viena iš daugelio skirtingų ginklų kontrolės formulių, pateiktų per
ateinančius kelerius metus, tuo metu, kai didžiosios branduolinės valstybės,
bent jau atrodo, nėra suinteresuotos derėtis dėl senų ginklų, tuo labiau dėl
naujų."
Veiksmų planas prieš pietus:
Pirma – pagaminti super kompiuterio lustus,
Antra – užvaldyti pasaulį.
Komentarų nėra:
Rašyti komentarą