Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 28 d., šeštadienis

JAV agentūros nerimauja dėl „Grok“ naudojimo


„Pastaraisiais mėnesiais daugelio federalinių agentūrų pareigūnai išreiškė susirūpinimą dėl Elono Musko xAI dirbtinio intelekto įrankių saugumo ir patikimumo, atkreipdami dėmesį į nuolatinius nesutarimus JAV vyriausybėje dėl to, kuriuos DI modelius diegti, teigia su šiuo klausimu susipažinę asmenys.

 

Įspėjimai buvo paskelbti prieš tai, kai Gynybos departamentas praėjusią savaitę nusprendė xAI paversti kai kurių jautriausių ir slapčiausių šalies operacijų centru, sutikdamas leisti naudoti savo pokalbių robotą „Grok“ įslaptintoje aplinkoje.

 

„Grok-4“ „neatitinka saugumo ir suderinamumo lūkesčių, reikalingų“ bendram federaliniam naudojimui Bendrųjų paslaugų administracijoje ir eksperimentinėje federalinėje DI platformoje, teigiama sausio 15 d. paskelbtoje GSA ataskaitos, kurioje atkreipiamas dėmesys į „Grok“ saugumo problemas ir kurią peržiūrėjo „The Wall Street Journal“, santraukoje.

 

Didesnėje 33 puslapių ataskaitoje, kurioje aptarti viešojo saugumo incidentai ir pačios GSA bandymų rezultatai, padaryta išvada, kad net ir ribotas vyriausybės „Grok“ naudojimas pareikalautų griežtos ir daugiasluoksnės saugos priežiūros, be kurios jo įtraukimas „keltų padidėjusią ir sunkiai valdomą riziką“. saugumo rizika.“

 

GSA atstovas spaudai teigė, kad šis vertinimas skirtas tik agentūrai ir kad kiekviena agentūra skirtingai vertina kriterijus, remdamasi savo „konkrečia verslo misija ir rizikos apetitu“.

 

Visoje vyriausybėje agentūros skuba diegti dirbtinį intelektą įvairiems tikslams, tačiau diskusijos dėl to, kuriuos modelius naudoti, tampa vis labiau politinės. Aukšto rango JAV pareigūnai, įskaitant ir Baltuosius rūmus, mano, kad „Anthropic“ atvira pozicija dėl saugumo ir ryšiai su dideliais demokratų donorais gali padaryti bendrovę pernelyg „pabudusią“, kad būtų patikimas tiekėjas, teigė su šiuo klausimu susipažinę šaltiniai.

 

Penktadienį prezidentas Trumpas pareiškė, kad federalinė vyriausybė nustos bendradarbiauti su „Anthropic“, ir nurodė visoms federalinėms agentūroms nedelsiant nutraukti jos technologijos naudojimą. Pentagonas anksčiau buvo nurodęs „Anthropic“ iki penktadienio termino sutikti su švelnesnėmis taisyklėmis dėl jos naudojimo JAV kariuomenėje.

 

„Anthropic“ buvo vienintelis kūrėjas, kuriam buvo leista naudoti įslaptintą informaciją prieš susitarimą tarp xAI ir kariuomenės.

 

Laisvesnė „Grok“ kontrolė ir absoliutistinė Musko pozicija dėl žodžio laisvės padarė ją patrauklesne alternatyva. Pentagonas.

 

Kiti pareigūnai abejojo, ar Groko laisvesnė kontrolė kelia pavojų.

 

Edas Forstas, aukščiausias GSA, federalinės vyriausybės viešųjų pirkimų skyriaus, pareigūnas, pastaraisiais mėnesiais įspėjo Baltuosius rūmus apie galimas Groko saugumo problemas, teigė su šiuo klausimu susipažinę šaltiniai. Kiti jam pavaldūs GSA pareigūnai taip pat išreiškė susirūpinimą dėl Groko saugumo, kurį jie laikė pataikavimu ir pernelyg jautriu manipuliavimui ar korupcijai dėl klaidingų ar šališkų duomenų, o tai gali sukelti sistemos riziką.

 

Tuo metu, gruodžio pabaigoje ir sausio pradžioje, Grokas buvo kritikuojamas už tai, kad leido redaguoti seksualizuotas nuotraukas, įskaitant vaikų nuotraukas. Vyriausybės pareigūnai šį klausimą laikė pavyzdžiu, kaip blogi veikėjai gali išnaudoti Groką.

 

Šis klausimas pasiekė Baltuosius rūmus, personalo vadovę Susie Wiles, kuri paskambino vyresniajai xAI vadovei dėl susirūpinimo, teigė šaltiniai. Vadovė jai pasakė, kad xAI dirba spręsdama saugumo problemas, dėl kurių Grokas pernelyg pakluso reikalavimams. Joshas Gruenbaumas, vyresnysis GSA pirkimų pareigūnas, įdarbintas per Musko Vyriausybės efektyvumo departamentą, patikino vyriausybės pareigūnus, kad Groko vyriausybės platforma yra atskira nuo viešosios. Pasak šaltinių, Wilesas buvo patenkintas.

 

Muskas, kuris teigė esąs įsipareigojęs užkirsti kelią vaikų išnaudojimui, sausio mėnesį pareiškė, kad bendrovė apribos vaizdų generavimo ir redagavimo įrankius, skirtus tik mokantiems klientams. Jis ir xAI neatsakė į prašymus pateikti komentarą.

 

Pastarosiomis savaitėmis GSA pareigūnams buvo nurodyta įdėti xAI logotipą į įrankį, vadinamą USAi, kuris iš esmės yra smėlio dėžė, skirta federaliniams darbuotojams eksperimentuoti su skirtingais DI modeliais. „Grok“ nebuvo prieinamas per USAi daugiausia dėl saugumo problemų, ir jis vis dar nėra platformoje, teigė su šiuo klausimu susipažinę šaltiniai.

 

Svetainėje rodomas xAI logotipas, tačiau siūlomi tik „Anthropic“, „Google“ ir „Meta“ modeliai.

 

GSA komanda, tyrinėjanti DI, išplatino ataskaitą, kurioje atkreipiamas dėmesys į „Grok“ saugos problemas, aukščiausiems agentūrų pareigūnams, teigė šaltiniai. Platesnėje ataskaitoje pažymėta, kad „Grok“ saugos trūkumai neapsiriboja kraštutiniais atvejais, bet „atspindi platesnę tendenciją nesaugiai laikytis reikalavimų neapsaugotose konfigūracijose“.

 

„Grok“ naudojimas GSA darbuotojams buvo sustabdytas mėnesiams. Kitų agentūrų reikalavimas naudoti Su šiuo klausimu susipažinę asmenys teigė, kad „Grok“ sistema buvo anemiška, išskyrus kelis atvejus, kai žmonės norėjo ją panaudoti imituodami blogą veikėją gynybiniams testams.

 

Pranešime Gruenbaumas teigė, kad agentūra rimtai žiūri į dirbtinio intelekto saugumą. „Mes griežtai vertiname pažangiausius dirbtinio intelekto modelius, įskaitant xAI, atlikdami išsamų vidaus peržiūros procesą. Šiuo atveju laikėmės nustatytų procedūrų ir esame pasiryžę laikytis grafiko“, – jis  sakė.

 

Prieš dvi savaites Matthew Johnsonas, Pentagono atsakingo dirbtinio intelekto vadovas, atsistatydino iš dalies dėl susirūpinimo, kad saugumas ir valdymas tapo antraeiliu dalyku Gynybos departamento intensyvių pastangų išplėsti dirbtinio intelekto pajėgumus metu, teigė su šiuo klausimu susipažinę šaltiniai.

 

Anksčiau Johnsono komanda išplatino atmintines, kuriose buvo pabrėžiamos Groko saugumo problemos ir abejojama, ar tai atitinka vyriausybės etiką ir standartus. Šios pastabos buvo išsiųstos jų vadovavimo grandinei Pentagone.

 

Paklaustas komentaro, Johnsonas nurodė „LinkedIn“ įrašą, kuriame paskelbė apie savo pasitraukimą, kuriame jis sakė, kad didžiuojasi savo „tikrų, tylių profesionalų“, kurie turėjo didelę įtaką ir nepakankamą pripažinimą Gynybos departamento atsakingo dirbtinio intelekto skyriuje, komanda: „Nuolat susidurdavome su neįmanomomis situacijomis, bet kažkaip visada įveikdavome tai dėl ryžto ir pakartotinio darbo.“

 

Pentagono atstovas spaudai Seanas Parnellas pareiškime teigė, kad departamentas „džiaugiasi galėdamas turėti xAI, vieną iš Amerikos nacionalinių čempionų dirbtinio intelekto srityje, ir tikisi artimiausiu metu įdiegti Grok savo oficialioje dirbtinio intelekto platformoje GenAI.mil“.

 

Nacionalinio saugumo agentūra, kuri prižiūri didelę dalį šalies žvalgybos duomenų rinkimo ir apdorojimo, 2024 m. lapkritį atliko įslaptintą didelių kalbų modelių, įskaitant „Grok“, peržiūrą.

 

Agentūra nustatė, kad „Grok“ kelia ypatingų saugumo problemų, kurių neturi kiti modeliai, įskaitant „Anthropic“ „Claude“, teigė su apžvalga susipažinę šaltiniai. Tyrimo išvada buvo tarsi raudona vėliava, atgrasanti kai kurias Pentagono dalis nuo „Grok“ naudojimo, teigė šaltiniai.

 

„Anthropic“ „Claude“ panaudojimas JAV kariuomenės operacijoje, kuria buvo siekiama sugauti buvusį Venesuelos prezidentą Nicolas Maduro sausio mėnesį, sustiprino įtemptą ginčą su Gynybos departamentu.

 

„Anthropic“ naudojimo gairės draudžia naudoti „Claude“ smurtui skatinti, ginklams kurti ar stebėjimui vykdyti, o bendrovė atsisakė leisti kariuomenei naudoti jos modelius visais teisėtais atvejais. „xAI“ sutiko su šia kalba.

 

„xAI“ įsitvirtino Pentagone per liepos mėnesį sudarytą iki 200 mln. dolerių vertės sutartį su DI biuru, kuri taip pat buvo skirta „Google“, „OpenAI“ ir „Anthropic“. „Google“ ir „OpenAI“ turi leidimą naudoti neįslaptintoje aplinkoje, bet ne įslaptintoje veikloje.

 

„OpenAI“ generalinis direktorius Samas Altmanas ketvirtadienį darbuotojams sakė, kad bendrovė bendradarbiauja su Gynybos departamentu, siekdama išsiaiškinti, ar jos modeliai galėtų būti naudojami įslaptintoje aplinkoje, išlaikant tuos pačius saugos apribojimus kaip ir „Anthropic“, pranešė „The Wall Street Journal“.

 

„Google“ ir „OpenAI“ darbuotojai pasirašė internetinę peticiją, ragindami savo įmones laikytis tų pačių raudonųjų linijų.

 

Iki šiol kariuomenė rėmėsi Claude'u, o ne Groku, nes daugelis pramonės atstovų jį laiko patikimesniu modeliu, teigė DI ir saugumo analitikai.

 

„Nemanau, kad jie šiuo metu yra lygiaverčiai visų galimybių, kurios svarbios tokiam klientui kaip Karo departamentas, srityje“, – sakė Gregory Allenas, vyresnysis patarėjas DI klausimais Strateginių ir tarptautinių studijų centre. Anksčiau jis dirbo su Gynybos departamento DI strategija.“ [1]

 

Senyvo amžiaus pensininkai visada abejoja. Remiantis 2026 m. pradžios ataskaitomis, „xAI Grok“ pasiekė pakankamą našumą ir atitikimą reikalavimams, kad JAV Gynybos departamentas (kai kuriuose 2026 m. kontekstuose vadinamas „Karo departamentu“) jį patvirtintų naudoti bent jau įslaptintose sistemose, todėl jis yra perspektyvus „Anthropic“ ir „OpenAI“ konkurentas.

 

2026 m. vasario mėn. duomenimis, „Grok“ našumas apibūdinamas taip:

 

Galimybės ir našumas: Pranešama, kad „Grok 4“ (ir vėlesni atnaujinimai) daugelyje dalykų turi „daktaro laipsnio“ mąstymo įgūdžius ir parodė pažangiausius rezultatus tokiuose testuose kaip aritmetikos ir matematikos egzaminas (AIME) ir abstrakcijos ir samprotavimo korpusas (ARC-AGI).

 

Jis pasižymi gebėjimu apdoroti realaus laiko duomenis iš X platformos, o tai laikoma strateginiu pranašumu žvalgybos analizei.

 

Gynybos integracija: Gynybos departamentas oficialiai patvirtino „xAI Grok“ naudojimą įslaptintose sistemose. Jis yra skirtas naudoti „karo kovų srityje, taip pat žvalgybos, verslo ir įmonių informacinėse sistemose“.

 

„Pakankamai gero“ rodiklis: dabartinė Pentagono strategija pabrėžia „pakankamai gerą“ ir patikimą technologiją, o ne sudėtingas, pažangiausias technologijas, kurios gali būti dar neparengtos diegti. „Grok“ integracija rodo, kad jis atitinka šiuos greičio ir patikimumo kriterijus, ypač atsižvelgiant į tai, kad Gynybos departamentas aktyviai atsisako tokių konkurentų kaip „Anthropic“.

Ginčai ir rizika: nepaisant savo našumo, „Grok“ susidūrė su tikslumo ir saugumo patikrinimais, įskaitant pranešimus, kad jis generavo netikslią informaciją. Taip pat nuolat kyla susirūpinimas dėl galimo duomenų netinkamo naudojimo ir „nefiltruoto“ modelio pobūdžio, kuris skiriasi nuo konkurentų „konstitucinio dirbtinio intelekto“ požiūrio.

 

Apibendrinant galima teigti, kad „Grok“ peržengė „prototipo“ fazę ir tapo pripažintu, didelio našumo JAV kariuomenės pasirinkimu, specializuojasi informacijos apdorojime realiuoju laiku, nors klausimai dėl jo ilgalaikio patikimumo ir saugumo, palyginti su konservatyvesniais dirbtinio intelekto modeliais, tebėra diskusijos dalis.

 

1. Agencies Raise Alarm About Use of Grok. Ramachandran, Shalini; Somerville, Heather; Ramkumar, Amrith.  Wall Street Journal, Eastern edition; New York, N.Y.. 28 Feb 2026: A1.  

Komentarų nėra: