Anthropic oželis peršoko tvorelę.
Jungtinės Valstijos aktyviai kuria ir investuoja į mirtinas autonomines ginklų sistemas (LAWS), galinčias pasirinkti ir atakuoti taikinius be žmogaus įsikišimo, tačiau politika paprastai pabrėžia žmogaus dalyvavimą procese.
Nors JAV šiuo metu neturi plačiai dislokuotų visiškai nepriklausomų „žudikų robotų“, ji turi autonomines gynybos sistemas ir kuria dirbtinio intelekto valdomus dronų spiečius, o politika leidžia potencialiai visiškai autonomines operacijas.
Pagrindinės išvados apie JAV autonominius ginklus:
Politika ir vystymasis: JAV politika (DoD direktyva 3000.09) nedraudžia autonominių ginklų, tačiau įpareigoja juos sukurti taip, kad vadai ir operatoriai galėtų taikyti „tinkamą žmogiškojo sprendimo lygį“.
Diskusija apie „žmogaus dalyvavimą procese“: Nors tikslas dažnai yra „prižiūrima autonomija“, kai kurie analitikai teigia, kad direktyva techniškai nereikalauja, kad žmogus dalyvautų kiekviename sprendime, paliekant erdvės visiškai autonominiams veiksmams.
Esami pajėgumai: Tokios technologijos kaip pažangios išmaniosios minos (pvz., „Quickstrike“) ir klajojantys šaudmenys, kurie gali veikti autonomiškai, kai yra dislokuoti, jau naudojamos.
Ateities tikslai: Pentagonas siekia sukurti „priskiriamas“ autonomines sistemas (tūkstančius, pavyzdžiui, dirbtinio intelekto valdomų dronų), kurios galėtų veikti sudėtingoje, degraduotoje aplinkoje.
Vystymosi varomosios jėgos: JAV skatina šias technologijas dėl konkurencijos su tokiomis šalimis kaip Kinija ir Rusija, siekdamos išlaikyti karinį pranašumą.
Nors kai kurios sistemos, pavyzdžiui, „Fortem Technologies“ „DroneHunter“, yra sukurtos taip, kad joms reikalingas žmogaus leidimas, Amerikos technologijos sparčiai juda link visiškai autonominių pajėgumų.
Stūmimas link visiško autonomijos
Replikatorių iniciatyva: JAV gynybos departamentas spartina tūkstančių autonominių dronų („Replicator-2“) įsigijimą, kad galėtų kovoti su priešiškų dronų spiečiais. Autonominė gynyba: Sistemos, tokios kaip „Fortem“ „DroneHunter F700“, dabar gali veikti „visiškai autonominiu sekimo ir nugalėjimo“ režimu, naudodamos dirbtinį intelektą taktikai (persekiojimas, puolimas, gynyba) pasirinkti be žmogaus įsikišimo.
Karinė logika: Šį siekį skatina poreikis veikti dirbtinio intelekto sukeltų grėsmių greičiu mūšio lauke, kur žmogaus valdomos sistemos gali būti per lėtos.
Tokiu atveju „Anthropic“ bandymai užtikrinti dirbtinio intelekto saugumą atrodo beprasmiai ir vaikiški:
„Federalinė vyriausybė nustos bendradarbiauti su „Anthropic“ ir priskirs dirbtinio intelekto bendrovę tiekimo grandinės rizikai, o tai dramatiškai paaštrina vyriausybės konfliktą su bendrove dėl to, kaip Pentagonas gali naudoti jos technologiją.
„Nurodau visoms federalinėms agentūroms Jungtinių Valstijų vyriausybėje nedelsiant nutraukti bet kokį „Anthropic“ technologijos naudojimą.“ „Mums to nereikia, mes to nenorime ir daugiau su jais nebendrausime!“ – penktadienį socialinės žiniasklaidos įraše pareiškė prezidentas Trumpas.
Gynybos departamentas ir kitos agentūros, naudojančios „Anthropic“ „Claude“ modelius, turės šešių mėnesių laipsniško atsisakymo laikotarpį, sakė prezidentas, pridurdamas, kad jei bendrovė nepadės pereinamuoju laikotarpiu, bus taikomos civilinės ir baudžiamosios pasekmės.
Trumpo pranešimas pasirodė netrukus prieš Pentagono penktadienio popietės terminą, per kurį „Anthropic“ turėjo sutikti leisti kariuomenei naudoti jos modelius visais teisėto naudojimo atvejais – nuolaidą, kurią bendrovė atsisakė padaryti. „Mes negalime ramia sąžine patenkinti jų prašymo“, – ketvirtadienį sakė „Anthropic“ generalinis direktorius Dario Amodei.
Respublikonas Trumpas ir administracijos pareigūnai užsipuolė bendrovę dėl šios pozicijos, taip pat prieštaravo jos siekiui reglamentuoti dirbtinį intelektą ir ryšiams su organizacijomis, kurios yra didelės demokratų donorės.
Netrukus po termino gynybos sekretorius Pete'as Hegsethas per X pareiškė, kad jis priskiria bendrovę tiekimo grandinės rizikai, taip pakenkdamas jos gebėjimui bendradarbiauti su kitais vyriausybės rangovais.
Hegsethas anksčiau grasino tokiu žingsniu. Šis paskyrimas paprastai naudojamas užsienio priešininkų, tokių, kaip Kinija, įmonėms, kurios kelia grėsmę saugumui.
Priklausomai nuo to, kaip agresyviai Pentagonas taikys apribojimą, tai gali reikšti, kad kitos su departamentu dirbančios įmonės turės įrodyti, kad jos visiškai nenaudoja Claude'o, o tai gali smogti didelei „Anthropic“ verslo daliai.
„Anthropic“ teigė, kad teisme užginčys bet kokį tiekimo grandinės rizikos paskyrimą. „Manome, kad šis paskyrimas būtų teisiškai nepagrįstas ir sukurtų pavojingą precedentą bet kuriai Amerikos įmonei, kuri derasi su vyriausybe“, – teigė bendrovė.
DI ir saugumo ekspertai teigė, kad administracijos veiksmai gali turėti atgrasantį poveikį kitoms įmonėms, svarstančioms galimybę bendradarbiauti su Pentagonu ar kitomis agentūromis.
„Tai tamsi diena Amerikos DI istorijoje. Žinia, išsiųsta verslo bendruomenei ir šalims visame pasaulyje, negalėjo būti blogesnė“, – sakė Deanas Ballas, buvęs Trumpo administracijos DI patarėjas, dabar dirbantis vyresniuoju bendradarbiu Amerikos inovacijų fonde, centro dešinės pažiūrų analitiniame centre. Jis buvo paraginęs administracijai nenaudoti tiekimo grandinės rizikos žymėjimo.
Ballas teigė, kad „Anthropic“ partneriai ir investuotojai, įskaitant „Nvidia“, „Amazon.com“ ir „Google“, gali būti priversti atsisakyti bendrovės akcijų arba nutraukti bendradarbiavimą su ja, jei nori toliau dirbti su Pentagonu. Kai kurie teisiniai analitikai teigė, kad tai taikoma tik įmonių darbui su kariuomene, o ne visam privačiojo sektoriaus verslui.
„Anthropic“ teigė, kad žymėjimas paveiks klientus tik jų darbe Pentagone.
„Tai susiję su tuo, kad „Anthropic“ nėra viena iš favoritų bendrovių, ir jos sumokės kainą už tai, kad nepasidavė ir nepasirašė sutarties“, – sakė Jackas Shanahanas, kuris prižiūrėjo dirbtinio intelekto pastangas kariuomenėje pirmosios Trumpo administracijos metu.
„Tai iš esmės sako bet kuriam startuoliui, kuris svarsto panardinti koją į Gynybos departamento vandenį, kad jie griebs jums už kulkšnies ir įtrauks jus iki galo“, – sakė Gregory Allenas, vyresnysis patarėjas dirbtinio intelekto klausimais Strateginių ir tarptautinių studijų centre. Allenas, anksčiau dirbęs prie Gynybos departamento dirbtinio intelekto strategijos, šį žingsnį pavadino „visiškai absurdišku“. „Tai bus didžiulė atgrasymo priemonė įmonėms, galvojančioms apie gynybos pramonės aptarnavimą“, – sakė jis.
„Anthropic“ sutarties su Pentagonu vertė siekia net 200 mln. dolerių.
Bendrovė siekė, kad sutartyje būtų įrašytos apsaugos nuo jos modelių naudojimo autonominiams ginklams ir masiniam vidaus stebėjimui. Kariuomenė pareiškė, kad ji turėtų turėti galutinę teisę spręsti, kaip ši technologija gali būti naudojama įstatymų ribose.
Gynybos departamento žingsniai yra naujausias neįprasto Trumpo administracijos požiūrio į įsitraukimą į privatų sektorių pavyzdys. Administracija įsigijo akcijų bendrovėse, kurias laiko svarbiausiomis tokiose srityse kaip puslaidininkių gamyba ir svarbiausi mineralai, ir sudarė sandorius, pagal kuriuos tam tikra lustų pardavimo dalis būtų perkelta į Kiniją.
Net ir nesant tiekimo grandinės rizikos apibrėžimo, susidūrimo išplėtimas, įtraukiant visas federalines agentūras, „Anthropic“ kova tampa daug platesnio masto nei jos ginčas su Pentagonu. Bendrovės „Claude“ modeliai naudojami visoje vyriausybėje viskam – nuo dokumentų apibendrinimo iki duomenų analizės. Dirbtinio intelekto ekspertai teigia, kad šių funkcijų sustabdymas, siekiant pakeisti jas alternatyvomis, gali pakenkti vyriausybės dirbtinio intelekto ir modernizavimo pastangoms.
Bendrųjų paslaugų administracija (DS) pareiškė, kad pašalina „Anthropic“ iš savo produktų, skirtų vyriausybinėms agentūroms, pasiūlos.
Pentagono pareigūnai kritikavo „Anthropic“ už tai, kad ši siekia kontroliuoti kariuomenės operacijas. Po to, kai Claude'as sausio mėnesį buvo panaudotas Venesuelos reido metu, siekiant sugauti buvusį prezidentą Nicolas Maduro, „Anthropic“ darbuotojas paklausė kolegos duomenų gavybos įmonėje „Palantir“, jos partnerėje, apie tai, kaip ši technologija buvo naudojama. Gynybos departamento pareigūnai sužinojo apie mainus ir vertino tai kaip iššūkį departamento prerogatyvai turėti galutinį žodį operatyviniais klausimais.
„Anthropic“ teigė, kad „Palantir“ klausimas buvo įprastos techninės diskusijos tarp partnerių dalis.
Nauji administracijos žingsniai žengiami tuo metu, kai kitos dirbtinio intelekto bendrovės kovoja su savo pačių raudonomis linijomis. „OpenAI“ generalinis direktorius Samas Altmanas ketvirtadienį darbuotojams sakė, kad bendrovė bendradarbiauja su Gynybos departamentu, siekdama išsiaiškinti, ar jos modeliai galėtų būti naudojami įslaptintoje aplinkoje, išlaikant tas pačias saugos priemones, kurias turi „Anthropic“, pranešė „The Wall Street Journal“.
Pentagonas pareiškė, kad nenori naudoti Claude'o autonominiams ginklams, masiniam stebėjimui ar kitiems neteisėtiems tikslams, tačiau turi visiškai kontroliuoti technologijas, kurias jis diegia.“ [1]
1. U.S. Halts Use of Anthropic AI After Tension Over Guardrails. Ramkumar, Amrith. Wall Street Journal, Eastern edition; New York, N.Y.. 28 Feb 2026: A1.
Komentarų nėra:
Rašyti komentarą