Remiantis 2026 m. pradžios pranešimais, kyla didelis konfliktas dėl pažangaus dirbtinio intelekto (DI) kūrimo ir diegimo Vakarų šalyse, ypač Jungtinėse Valstijose. Ši „kova dėl karo ateities“ apima pastangas integruoti DI, galintį pranokti žmogaus intelektą, su masinio stebėjimo ir autonominių mirtinų operacijų funkcijomis.
Tikslas: „DI pirmiausia“ karinis dominavimas
Spartus pagreitis: 2026 m. sausio mėn. JAV gynybos departamentas pradėjo strategiją tapti „DI pirmiausia“ kovos jėga, siekdamas užsitikrinti neginčijamą lyderystę DI valdomame kare.
Autonomijos siekis: Pentagonas spaudė DI bendroves, tokias kaip „Anthropic“, panaikinti apsaugos priemones, draudžiančias jų DI naudoti autonominėms žudymo operacijoms ir masiniam stebėjimui.
„WarClaude“ iniciatyva: Pranešimai rodo, kad JAV vyriausybė stengiasi sukurti „WarClaude“ – dirbtinio intelekto versiją, skirtą kariniam naudojimui, galinčią identifikuoti, sekti ir nužudyti taikinius be žmogaus įsikišimo.
Strateginis pagrindimas: Šalininkai teigia, kad dirbtinio intelekto valdomų mirtinų autonominių ginklų (LAWS) kūrimas yra būtinas norint išlaikyti pasaulinį viršenybę ir atsispirti panašiems priešininkų, tokių kaip Kinija ir Rusija, pasiekimams.
Konfliktas: etiniai turėklai ir nacionalinis saugumas
Dirbtinio intelekto bendrovių pasipriešinimas: Didžiosios dirbtinio intelekto bendrovės, ypač „Anthropic“, atsisakė panaikinti apribojimus, kurie leidžia „žmonėms būti informuotiems“ apie gyvybės ir mirties klausimus, todėl kyla sutarties nutraukimo ir konflikto su vyriausybe galimybė.
Debatai dėl „Žudymo jungiklio“: Ekspertai perspėja, kad pastangos kurti itin intelektualų dirbtinį intelektą be tinkamų saugos priemonių gali sukelti katastrofiškų pavojų, o kai kurie, pavyzdžiui, Eliezeris Yudkowsky ir Nate'as Soaresas, teigia, kad tai gali lemti žmonijos „išnykimą iš žemėlapio“. Stebėjimo problemos: Kritikai perspėja, kad dirbtinio intelekto valdoma stebėsena, skirta nacionaliniam saugumui, gali būti nukreipta į visuomenę, kenkiant demokratiniam valdymui ir sukuriant „panoptiką“.
„Dirbtinio intelekto pražūties“ perspektyva: Kai kurie tyrėjai teigia, kad lenktynės dėl superintelekto yra „beprotiškos lenktynės“, kurias reikia sustabdyti, nes rizika prarasti antžmogiško dirbtinio intelekto kontrolę yra per didelė.
Karo ateities pasekmės
Nepatikimos sistemos: Tokie ekspertai kaip Anna Hehir perspėja, kad dirbtinis intelektas šiuo metu yra pernelyg nepatikimas ir nenuspėjamas, kad būtų naudojamas didelės rizikos, mirtinuose ir autonominiuose scenarijuose.
Karo slenksčio mažinimas: Padidėjusi automatizacija kare gali palengvinti konfliktų pradžią ir apsunkinti jų kontrolę, o tai gali sukelti „staigius karus“.
Etinės ir teisinės kliūtys: Dirbtinio intelekto naudojimas konfliktuose apsunkina tarptautinę humanitarinę teisę, ypač dėl mašinų atskaitomybės, kai jos sukelia netyčinius nuostolius.
2026 m. kovo mėn. tęsiamos diskusijos apie tai, kas kontroliuoja pažangų dirbtinį intelektą – privačios įmonės su etikos apribojimais ar vyriausybė nacionalinės gynybos vardu.
„Jei 2026 m. kažkur prasidės karas – o šiuo metu jų vyksta keli – yra didelė tikimybė, kad dirbtinis intelektas jame vaidins tam tikrą vaidmenį.
Dirbtinis intelektas naudojamas kovose Irane ir Ukrainoje. JAV jį panaudojo, kai sučiupo Venesuelos lyderį. Izraelis jį panaudojo per karą Gazos ruože.
O dirbtinio intelekto naudojimas mūšio lauke tik prasideda. Štai kodėl dar vienas mūšis, kuris praėjusią savaitę vyko tarp Trumpo administracijos ir Amerikos dirbtinio intelekto bendrovės „Anthropic“, yra toks svarbus. Paklausiau savo kolegos Juliano E. Barneso, ką ši kova reiškia karo ateičiai, amerikiečiams ir pasauliui.
„Anthropic“ yra viena iš pirmaujančių dirbtinio intelekto bendrovių pasaulyje. Jos „Claude“ modelį Pentagonas plačiai naudoja žvalgybos duomenims rinkti, taikiniams nustatyti, operacijoms planuoti ir kt.
Tačiau praėjusios savaitės kova buvo ne apie tai, kaip šiuo metu naudojamas dirbtinis intelektas. Tai buvo apie tai, kaip jis galėtų būti naudojamas.
„Anthropic“ sutartis nustatė du apribojimus: vyriausybė negalėjo naudoti savo technologijos masiniam JAV piliečių stebėjimui. Ir ji negalėjo naudoti Claude'o su autonominiais ginklais, kurie žudo be žmogaus įsikišimo.
Pentagonas tam prieštaravo. Jis pareiškė, kad nenori naudoti dirbtinio intelekto vidaus stebėjimui ar autonominiams žudikams robotams. Tačiau jis atsisakė leisti privačiai bendrovei nustatyti apribojimus, kaip kariuomenė naudoja jos produktą.
Aklavietė buvo sudėtingas sutarčių ginčų ir kultūrinio karo mišinys, pagrindinis baimės dėl dirbtinio intelekto ir susirūpinimo dėl JAV konkurencingumo pasaulinėse lenktynėse dėl dirbtinio intelekto pranašumo taškas.
Penktadienį, po žlugusių derybų, prezidentas Trumpas įsakė visoms federalinėms agentūroms nutraukti „Anthropic“ naudojimą. Pentagonas taip pat pavadino jį „tiekimo grandinės rizika nacionaliniam saugumui“, potencialiai uždrausdamas bet kuriam kariniam rangovui bendradarbiauti su šia bendrove.
Julianas, rašantis apie žvalgybą ir nacionalinį saugumą, rašė apie kovą tarp „Anthropic“ ir Pentagono dar prieš jam pradedant nušviesti karą Irane. (Jis buvo užsiėmęs.)
Julianai, kiek dirbtinis intelektas jau integruotas į karybą ir nacionalinį saugumą?
Jis visiškai integruotas. Dirbtinio intelekto naudojimas kare nebėra teorinis. Dirbtinis intelektas jau yra mūšio lauke. Mes nemanome, kad dideli kalbos modeliai jau naudojami dronams valdyti ar ginklams šaudyti. Tačiau dirbtinis intelektas yra giliai įsitvirtinęs žvalgybos rinkimo procese ir jos panaudojime strateginiams sprendimams priimti.
O dėl ko tiksliai nerimauja „Anthropic“?
Vienas iš jų rūpesčių buvo tas, kad vyriausybė galėtų naudoti dirbtinį intelektą, kad analizuotų komerciškai prieinamus duomenis apie JAV piliečius. Mūsų naršymo internete duomenys, mūsų telefono metaduomenys – komercinės įmonės gali visa tai surinkti ir naudoti dirbtinį intelektą, kad išsiaiškintų, kur buvote, ką lankėtės, ką įsigijote.
„Anthropic“ taip pat nerimauja dėl šios žudikiškų dronų idėjos.
Ir kodėl vyriausybė prieštarauja šioms raudonoms linijoms?
JAV teigia, kad dirbtiniam intelektui priimant sprendimus dėl nužudymo ar ne, visada dalyvaus žmogus. Tačiau su tuo susiję ir kiti sunkumai, nes kas gali stebėti, mąstyti ir priimti sprendimus greičiau, tas laimės mūšį, o žmonės gali sulėtinti šį procesą.
Pagrindinis klausimas – žmonių vaidmuo ateities kare. Ir jis tikriausiai atrodys labai kitaip nei šiandien. Mums jų vis dar reikia, bet dar nenusprendėme, koks bus jų vaidmuo. Todėl sunku iš anksto parašyti dirbtinio intelekto taisykles.
Ką įstatymai sako apie dirbtinį intelektą ir karą?
Pentagonas teigia, kad turėtų pakakti galiojančių įstatymų, reglamentuojančių karo vykdymą. Nes etiško karo principai yra tie patys, nesvarbu, ar metau bombą, ar naudoju programinę įrangą taikymuisi pagerinti.
Tačiau „Anthropic“ teigia, kad dirbtinis intelektas nėra panašus į kitus ginklus. Kitus ginklus riboja jų techninė įranga. Šis lėktuvas skrenda į šią vietą ir numeta bombą. Šis lėktuvas skrenda į šią vietą ir šaudo į kitą lėktuvą.
Didieji kalbų modeliai yra kitokie. Galite paprašyti jų analizuoti duomenis, kad gautų įžvalgų. Galite paprašyti jų siūlyti vietas bombardavimui. Galite paprašyti jų suplanuoti kibernetinę ataką. Jų panaudojimas nuolat kinta.
„Anthropic“ pozicija yra ta, kad tai yra speciali technologija, ir mums reikia specialių apsauginių tvorų.
Taigi, jei apibendrintume, apie ką iš tikrųjų yra ši kova?
Tai apie politiką ir principus – iš abiejų pusių.
„Anthropic“ nori parodyti, kad tai atsakinga, saugumu besirūpinanti įmonė. Tai jų prekės ženklas.
O Pentagonas sako: Tai yra „pabudusio“ dirbtinio intelekto įmonė! Mes kovojame su „pabudusiu“! Tai yra MAGA prekės ženklas.
Kalbant apie principus, Pentagonas teigia, kad visoms įmonėms, kurios su mumis bendradarbiauja, galioja vienas standartas: mus varžo teisėtas šios technologijos naudojimas, o ne jokios privačių įmonių diktuojamos sąlygos.
O „Anthropic“ teigia, kad galiojantys įstatymai netinka dirbtiniam intelektui reguliuoti.
Kaip tai dera su didesniu dirbtiniu intelektu? Lenktynės tarp JAV ir Kinijos? Manau, kad Kinijos įmonės neprašo vyriausybės įrengti apsauginių tvorų.
Tikrai ne. Kinijos įstatymai įpareigoja Kinijos įmones perduoti savo technologijas valstybei. Štai kodėl Kinijos grėsmė kabo virš to, kas ką tik įvyko Vašingtone. Nes JAV mano, kad jei kils karas su Kinija dėl Taivano, pirmasis mūšis bus dronų mūšis dėl Taivano sąsiaurio. Laimės dronai, kurie gali judėti ir priimti sprendimus greičiau.
Jokių apsauginių tvorų taip pat reiškia, kad Kinijos vyriausybė paprašė dirbtinio intelekto įmonių sukurti masinės dezinformacijos įrankius. Ji naudojo dirbtinį intelektą masiniam stebėjimui. Ji naudojo didelius kalbos modelius disidentams identifikuoti. Taigi, kaip Kinija naudojo dirbtinį intelektą, yra tikrasis košmaro scenarijus, apie kurį perspėja „Anthropic“.
Taip pat skaitykite: „OpenAI“, pagrindinis „Anthropic“ konkurentas, pasirašė sutartį su Pentagonu iškart po Trumpo įsakymo. Pirmadienį „OpenAI“ pareiškė, kad iš dalies keičia sutartį, nurodydama, kad jos dirbtinio intelekto sistemos „nebus tyčia naudojamos JAV asmenų ir piliečių stebėjimui šalies viduje.“” [1]
1. The World: A fight about the future of war. Bennhold, Katrin. New York Times (Online) New York Times Company. Mar 4, 2026.
Komentarų nėra:
Rašyti komentarą