Sekėjai

Ieškoti šiame dienoraštyje

2023 m. gegužės 5 d., penktadienis

Kita baimė dėl dirbtinio intelekto (A.I.): Holivudo robotai žudikai tapo kariuomenės įrankiais

„JAV nacionalinio saugumo pareigūnai perspėja, kad naujosios technologijos gali apversti karą, kibernetinį konfliktą ir – kraštutiniu atveju – branduolinio ginklo panaudojimą.

 

     Kai prezidentas Bidenas spalį paskelbė griežtus apribojimus parduoti Kinijai pažangiausius kompiuterių lustus, jis iš dalies jas pardavė publikai, siekdamas suteikti Amerikos pramonei galimybę atkurti savo konkurencingumą.

 

     Tačiau Pentagone ir Nacionalinėje saugumo taryboje buvo antra darbotvarkė: ginklų kontrolė. Jei Kinijos kariuomenė negalės gauti lustų, teigia teorija, ji gali sulėtinti pastangas kurti ginklus, varomus dirbtinio intelekto. Tai suteiktų Baltiesiems rūmams ir pasauliui laiko išsiaiškinti kai kurias dirbtinio intelekto naudojimo taisykles, pradedant jutikliais, raketomis ir kibernetiniais ginklais, ir galiausiai apsisaugoti nuo kai kurių Holivudo užburtų košmarų – autonominių robotų žudikų ir kompiuterių. kurie užrakina savo žmones kūrėjus.

 

     Dabar kyla baimės rūkas, supantis populiarųjį ChatGPT pokalbių robotą ir kitus generatyvius A.I. Dėl to programinės įrangos lustų apribojimas Pekine atrodo, tik laikinas sprendimas. Kai Bidenas ketvirtadienį atvyko į Baltuosiuose rūmuose vykusį technologijų vadovų, kurie stengiasi apriboti technologijų keliamą riziką, susitikimą, pirmasis jo komentaras buvo „tai, ką jūs darote, turi didžiulį potencialą ir didžiulį pavojų“.

 

     Pasak jo nacionalinio saugumo padėjėjų, tai atspindėjo naujausius slaptus pranešimus apie naujosios technologijos potencialą apversti karą, kibernetinį konfliktą ir – kraštutiniu atveju – sprendimų dėl branduolinių ginklų panaudojimo priėmimą.

 

     Tačiau net kai Bidenas perspėjo, Pentagono pareigūnai, kalbėdami technologijų forumuose, teigė manantys, kad šešių mėnesių pertrauka kuriant kitos kartos ChatGPT ir panašią programinę įrangą buvo bloga idėja: kinai to nepadarys, palauk, rusai irgi ne.

 

     „Jei sustosime, atspėkite, kas nesustos: potencialūs priešai užsienyje“, – trečiadienį sakė Pentagono vyriausiasis informacijos pareigūnas Johnas Shermanas. "Turime ir toliau judėti".

 

     Jo atviras pareiškimas pabrėžė įtampą, kuri šiandien jaučiama visoje gynybos bendruomenėje. Niekas iš tikrųjų nežino, ką gali šios naujos technologijos, kai kalbama apie ginklų kūrimą ir kontrolę, ir jie neįsivaizduoja, koks ginklų kontrolės režimas, jei toks būtų, galėtų veikti.

 

     Nuojauta neaiški, bet kelia didelį nerimą. Ar „ChatGPT“ galėtų padėti blogiems veikėjams, kurie anksčiau neturėjo lengvos prieigos prie destruktyvių technologijų? Ar tai galėtų pagreitinti supervalstybių konfrontaciją, paliekant mažai laiko diplomatijai ir deryboms?

 

     „Pramonė čia nėra kvaila, ir jūs jau matote pastangas susireguliuoti“, – sakė Ericas Schmidtas, buvęs „Google“ pirmininkas, ėjęs Gynybos inovacijų tarybos pirmininko pareigas 2016–2020 m.

 

     „Taigi pramonėje šiuo metu vyksta neoficialių pokalbių serija – visi neoficialūs – apie tai, kokios priemonės būtų A.I., kaip sauga“, – sakė ponas Schmidtas, kuris kartu su buvusiu valstybės sekretoriumi Henry Kissingeriu yra parašęs straipsnių ir knygų seriją apie dirbtinio intelekto potencialą apversti geopolitiką.

 

     Preliminarios pastangos į sistemą įdėti apsauginius turėklus yra aiškūs visiems, kurie išbandė pradines ChatGPT iteracijas. Botai neatsakys į klausimus apie tai, kaip, pavyzdžiui, pakenkti ką nors, užpilant narkotikais, kaip susprogdinti užtvanką ar suluošinti branduolines centrifugas – visas operacijas, kurias JAV ir kitos šalys vykdė be dirbtinio intelekto įrankių.

 

     Tačiau tie juodieji veiksmų sąrašai tik sulėtins piktnaudžiavimą šiomis sistemomis; nedaugelis mano, kad gali visiškai sustabdyti tokias pastangas. Apeiti saugos ribas visada reikia įsilaužti, ką gali patvirtinti visi, kurie bandė išjungti skubius automobilio saugos diržų perspėjimo signalus.

 

     Nors nauja programinė įranga išpopuliarino šią problemą, ji vargu ar yra nauja Pentagonui. Pirmosios taisyklės dėl autonominių ginklų kūrimo buvo paskelbtos prieš dešimtmetį. Pentagono Jungtinis dirbtinio intelekto centras buvo įkurtas prieš penkerius metus, siekiant ištirti dirbtinio intelekto panaudojimą kovose.

 

     Kai kurie ginklai jau veikia autopilotu. Raketos „Patriot“, kurios numuša į saugomą oro erdvę patenkančias raketas ar lėktuvus, jau seniai turi „automatinį“ režimą. Tai leidžia jiems šaudyti be žmogaus įsikišimo, kai kas nors patenka į taikinius greičiau, nei žmogus galėtų sureaguoti.

 

     Tačiau manoma, kad juos prižiūrės žmonės, kurie prireikus gali nutraukti atakas.

 

     Mohseno Fakhrizadeho, geriausio Irano branduolinio mokslo mokslininko, nužudymą Izraelio „Mossad“ įvykdė, naudodamas autonominį kulkosvaidį, sumontuotą pikape, kuriam padėjo dirbtinis intelektas, nors, atrodo, buvo didelis nuotolinio valdymo pultas.

 

     Rusija sakė, kad  neseniai ji pradėjo gaminti – bet dar nedislokavo – savo povandeninę Poseidono branduolinę torpedą. Jei ji pateisintų Rusijos ažiotažą, toks ginklas galėtų savarankiškai keliauti per vandenyną, išvengdamas esamos priešraketinės gynybos, kad galėtų pristatyti branduolinį ginklą, praėjus kelioms dienoms po jo paleidimo.

 

     Kol kas nėra sutarčių ar tarptautinių susitarimų, kurie būtų susiję su tokiais autonominiais ginklais. Epochoje, kai ginklų kontrolės susitarimų atsisakoma greičiau, nei dėl jų deramasi, tokio susitarimo perspektyvų mažai. Tačiau iššūkiai, kuriuos kelia „ChatGPT“ ir panašūs į jį, yra skirtingi ir tam tikrais atžvilgiais sudėtingesni.

 

     Kariuomenėje A.I. įkvėptos sistemos gali pagreitinti mūšio lauko sprendimų tempą tiek, kad jie sukuria visiškai naują atsitiktinių smūgių riziką arba sprendimus, priimtus dėl klaidinančių ar sąmoningai klaidingų įspėjimų apie ateinančias atakas.

 

     „Pagrindinė problema su A.I. kariuomenėje ir nacionaliniame saugume yra tai, kaip apsiginti nuo atakų, kurios yra greitesnės, nei žmogaus sprendimų priėmimas“, – sakė M. Schmidtas. „Ir aš manau, kad ši problema yra neišspręsta. Kitaip tariant, raketa ateina taip greitai, kad turi būti automatinis atsakas. Kas nutiks, jei tai klaidingas signalas?

 

     Šaltasis karas buvo nusėtas istorijomis apie klaidingus įspėjimus – kažkada dėl to, kad mokymo juosta, skirta praktikuoti branduolinį atsaką, buvo kažkaip įdėta į netinkamą sistemą ir perspėjo apie masinį artėjantį sovietų puolimą. (Geras sprendimas paskatino visus palaukti.) Paulas Scharre'as iš Naujojo Amerikos saugumo centro savo 2018 m. knygoje „Army of None“ pažymėjo, kad „nuo 1962 m. iki 2002 m. įvyko mažiausiai 13 artimo naudojimo branduolinių incidentų“. „Patikima nuomone, kad beveik neįvykę incidentai yra normalios, nors ir bauginančios branduolinio ginklo sąlygos“.

 

     Dėl šios priežasties, kai įtampa tarp supervalstybių buvo daug mažesnė, nei šiandien, prezidentų serija bandė derėtis, kad visos pusės skirtų daugiau laiko branduolinių sprendimų priėmimui, kad niekas nepultų į konfliktą. Tačiau generatyvus A.I. grasina pastūmėti šalis kita linkme – greitesnio sprendimų priėmimo link.

 

     Geros naujienos yra tai, kad didžiosios jėgos, greičiausiai, bus atsargios, nes žino, kaip atrodys priešininko atsakas. Tačiau kol kas nėra sutartų taisyklių.

 

     Anja Manuel, buvusi Valstybės departamento pareigūnė, o dabar konsultacinės grupės Rice, Hadley, Gates ir Manuel vadovė, neseniai rašė, kad, net jei Kinija ir Rusija nėra pasirengusios deryboms apie A.I. ginklų kontrolę, susitikimai šia tema baigsis diskusijomis, kokie veiksmai čia būtų tiesiog gėda.

 

     Žinoma, net Pentagonas susirūpins, kad sutiks su pernelyg daug apribojimų.

 

     „Labai sunkiai kovojau, kad išsiugdyčiau politiką, pagal kurią, jei turite autonominių ginklų elementų, jums reikia būdo juos išjungti“, – sakė Danny Hillis, garsus kompiuterių mokslininkas, kuris buvo lygiagrečių kompiuterių, naudojamų dirbtiniam intelektui, pradininkas. 

 

P. Hillisas, kuris taip pat dirbo Gynybos inovacijų valdyboje, sakė, kad pasipriešinimą vystė Pentagono pareigūnai, kurie sakė, kad „jei mes galime juos išjungti, priešas taip pat gali juos išjungti“.

 

     Taigi, didesnę riziką gali kelti atskiri veikėjai, teroristai, išpirkos reikalaujančių programų grupės ar mažesnės šalys, turinčios pažangių kibernetinių įgūdžių, pavyzdžiui, Šiaurės Korėja, kurios išmoksta klonuoti mažesnę, mažiau suvaržytą, ChatGPT versiją. Ir jie gali pastebėti, kad generatyvinis A.I. programinė įranga puikiai tinka paspartinti kibernetines atakas ir nukreipti dezinformaciją.

 

     Tomas Burtas, vadovaujantis pasitikėjimo ir saugos operacijoms įmonėje „Microsoft“, kuri sparčiai naudojasi naujomis technologijomis savo paieškos sistemoms atnaujinti, neseniai Džordžo Vašingtono universitete vykusiame forume sakė manantis, kad A.I. sistemos padėtų gynėjams greičiau aptikti nenormalų elgesį, nei padėtų užpuolikams. Kiti ekspertai nesutinka. Tačiau jis teigė baiminantis, kad tai gali „perkrauti“ tikslinės dezinformacijos plitimą.

 

     Visa tai reiškia visiškai naują ginklų kontrolės erą.

 

     Kai kurie ekspertai teigia, kad kadangi ChatGPT ir panašios programinės įrangos plitimo sustabdyti būtų neįmanoma, geriausia viltis yra apriboti specialius lustus ir kitą skaičiavimo galią, reikalingą technologijai tobulinti. Tai neabejotinai bus viena iš daugelio skirtingų ginklų kontrolės formulių, pateiktų per ateinančius kelerius metus, tuo metu, kai didžiosios branduolinės valstybės, bent jau atrodo, nėra suinteresuotos derėtis dėl senų ginklų, tuo labiau dėl naujų."

 

 

Veiksmų planas prieš pietus:

 

Pirma – pagaminti super kompiuterio lustus,

 

Antra – užvaldyti pasaulį.

Komentarų nėra: