Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 19 d., ketvirtadienis

„Anthropic“ ir Pentagono „pabudimo“ konfliktas paaštrėja


„Kai pastarosiomis savaitėmis „Anthropic“ ieškojo rėmėjų savo naujausiam 30 mlrd. dolerių finansavimo etapui, ji kreipėsi į netikėtą investuotoją: „1789 Capital“ – Trumpą remiančią rizikos kapitalo įmonę, kurioje partneris yra vienas iš prezidento sūnų.

 

Pasak šaltinių, susipažinusių su šiuo klausimu, įvertinusi devynženklę investiciją, „1789“ nusprendė tęsti investicijas, nurodydama ideologines priežastis. Tarp susirūpinimų buvo „Anthropic“ lyderių kritikos istorija prezidentui Trumpui, keliems buvusiems Bideno administracijos pareigūnams, dirbantiems jos atlyginimuose, ir jos lobizmas dėl dirbtinio intelekto reguliavimo, teigė šaltiniai.

 

„Anthropic“ neturėjo problemų pritraukti norimo kapitalo iš investuotojų, įskaitant Peterio Thielio įkūrėjų fondą, Singapūro GIC ir „Coatue Management“. Tačiau atmestas patrauklumas rodo, kad nors startuolis neturi finansinių problemų, jis turi didėjančią politinę problemą.

 

Startuolis yra „Claude“ kūrėjas – vienintelis didelis kalbos modelis, kurį galima naudoti įslaptintoje aplinkoje – Gynybos departamento suteiktas statusas. buvo konkurencinis pranašumas. „Anthropic“ 2024 m. užmezgė partnerystę su duomenų bendrove „Palantir“ ir praėjusią vasarą laimėjo karinę sutartį, kurios vertė siekė iki 200 mln. dolerių.

 

Tačiau neseniai ji atsidūrė Pentagono taikiklyje – konflikte, kuris gali sukelti šoko bangas JAV gynybos komplekse. Pentagonas nori turėti galimybę naudoti „Anthropic“ ir kitus dirbtinio intelekto įrankius visais teisėtais tikslais.

 

„Anthropic“ nenori, kad jos technologijos būtų naudojamos operacijoms, įskaitant vidaus stebėjimą ir autonominę mirtiną veiklą.

 

Konkurentai „OpenAI“, „Google“ ir „xAI“ iš principo susitarė, kad jų modeliai būtų naudojami visais teisėto naudojimo atvejais – tai Pentagono prioritetas, antradienį interviu gynybos aukščiausiojo lygio susitikimo Vest Palm Byče, Floridoje, metu sakė karo tyrimų ir inžinerijos pavaduotojas Emilis Michaelas. „Anthropic“ to nepadarė.

 

„Turime turėti galimybę naudoti bet kokį modelį visais teisėto naudojimo atvejais.“ „Jei kuri nors bendrovė nenori su tuo sutikti, tai yra mūsų problema“, – sakė Michaelas.

 

„Anthropic“ ir Gynybos departamentas jau kelias savaites nesutaria dėl sutarties sąlygų, kaip galima naudoti startuolio technologiją, pranešė „The Wall Street Journal“. „Claude“ buvo panaudotas sausio mėnesio operacijoje, kurios metu buvo sugautas buvęs Venesuelos prezidentas Nicolas Maduro, pranešė „Journal“, remdamasis su šiuo klausimu susipažinusiais asmenimis. „Claude“ buvo dislokuotas per „Anthropic“ partnerystę su „Palantir“, kurios įrankius dažniausiai naudoja Gynybos departamentas ir federalinė teisėsauga, teigė šaltiniai. „Anthropic“ darbuotojas paklausė „Palantir“ kolegos, kaip „Claude“ buvo panaudotas operacijoje.

 

„Anthropic“ atstovas spaudai teigė, kad „Claude“ naudojimas konkrečioms operacijoms nebuvo aptartas „su jokiais pramonės partneriais, įskaitant „Palantir“, išskyrus įprastas diskusijas griežtai techniniais klausimais“.

 

Aklavietė tarp „Anthropic“ ir agentūros iškilo į viešumą. Gynybos sekretoriaus Pete'o Hegsetho Pentagonas, kuris „pažadintas“ technologijų bendroves laikė atsakomybe ir bet kokius apribojimus traktuoja kaip kliūtį kariniam veiksmingumui, peržiūri savo partnerystę su „Anthropic“.

 

Antradienį vienas vyresnysis gynybos pareigūnas pareiškė, kad daugelis Pentagone vis dažniau „Anthropic“ laiko tiekimo grandinės rizika ir gali paprašyti rangovų bei tiekėjų patvirtinti, kad jie nenaudoja bendrovės „Claude“ modelių. Kadangi šis žymėjimas paprastai naudojamas užsienio priešininkams, šis žingsnis būtų neįprastas JAV bendrovės priekaištas.

 

„Mūsų tauta reikalauja, kad mūsų partneriai būtų pasirengę padėti mūsų kariams laimėti bet kokioje kovoje. Galiausiai tai susiję su mūsų kariais ir Amerikos žmonių saugumu“, – sakė Pentagono atstovas spaudai Seanas Parnellas.

 

„Anthropic“ atstovas spaudai teigė, kad bendrovė „yra įsipareigojusi naudoti dirbtinį intelektą pasienio zonose, kad paremtų JAV nacionalinį saugumą“. „Štai kodėl mes buvome pirmoji dirbtinio intelekto bendrovė, įkėlusi savo modelius į įslaptintus tinklus ir pirmoji, teikusi pritaikytus modelius nacionalinio saugumo klientams.“ Jis teigė, kad „Anthropic“ veda „produktyvius ir geranoriškus pokalbius“ su Pentagonu apie tai, kaip tęsti šį darbą.

 

„Anthropic“ siekė išsiskirti iš „OpenAI“, iš kurio jos įkūrėjai pasitraukė 2020 m., sutelkdama dėmesį į įmonių rinkos aptarnavimą. Šioje srityje nėra didesnės įmonės nei JAV vyriausybė, o federalinėje vyriausybėje Gynybos departamentas yra vertingas kelias į pelningas sutartis. Ji anksti pasirašė partnerystės sutartį su „Palantir“ ir tapo pirmuoju dideliu kalbų modeliu, kuriam buvo leista dirbti su įslaptinta medžiaga. „Anthropic“ gyrė savo darbą nacionalinio saugumo srityje, praėjusiais metais sukurdama patariamąją grupę, kurioje dalyvavo buvę senatoriai ir saugumo pareigūnai, ir pristatydama savo vyriausybės darbą visos dienos renginyje Sąjungos stotyje.

 

„OpenAI“ šiuo metu yra sertifikavimo tvarkyti įslaptintą medžiagą procese.

 

Vis dėlto „Anthropic“ dėmesys dirbtinio intelekto saugumui, politinėms pažiūroms ir ryšiams su demokratais erzino Trumpą. administracija.

 

„Anthropic“ generalinis direktorius Dario Amodei prieš rinkimus paskelbtame „Facebook“ įraše, kuriame jis palaikė demokratų kandidatę į prezidentus Kamalą Harris 2024 m., jis palygino respublikoną Trumpą su „feodalu karo vadu“. Sausio mėnesį kalbėdamas Pasaulio ekonomikos forume Davose, jis kritikavo Trumpo administracijos lustų pardavimo politiką.

 

Jo sesuo Daniela Amodei, „Anthropic“ prezidentė, neseniai „LinkedIn“ paskelbė įrašą, reaguodama į ICE įvykdytas JAV piliečių žudynes Mineapolyje, teigdama, kad „tai nėra tai, už ką Amerika kovoja“. Ji gyrė Trumpą ir kitus už raginimą atlikti tyrimą.

 

„Anthropic“ pasamdė kelis buvusius Bideno administracijos pareigūnus, įskaitant buvusį Bideno dirbtinio intelekto patarėją Beną Buchananą ir buvusį Nacionalinio saugumo tarybos pareigūną technologijų klausimais Taruną Chhabrą, kuris padeda prižiūrėti bendrovės darbą su Pentagonu. Praėjusią savaitę į savo valdybą buvo įtrauktas Chrisas Liddellas, politikos koordinavimo vadovo pavaduotojas per pirmąją Trumpo kadenciją.

 

Bendrovės požiūris sulaukė Davido Sackso, Trumpo dirbtinio intelekto caro, ir kitų administracijos narių, kurie teigė, kad jie priešinasi „pažadintam“ dirbtiniam intelektui, kritikos. Dario Amodei teigė, kad bendrovė nėra pabudusi ir kad „Anthropic“ neturi politinių motyvų.

 

Įtampa tarp „Anthropic“ ir Trumpo administracijos pradėjo kilti po to, kai bendrovė praėjusią vasarą laimėjo iki 200 mln. dolerių vertės sutartį. Sausio 9 d. Hegsetho dirbtinio intelekto strategijos memorandume pabrėžiama, kad Pentagonas turi turėti galimybę „naudoti modelius, kuriems netaikomi naudojimo politikos apribojimai, galintys riboti teisėtą karinį pritaikymą“.

 

Gynybos pareigūnas teigė, kad Hegsethas naudojasi neseniai įvykusiu ginču dėl „Anthropic“, kad pasiųstų žinią.

 

Technologijų ekspertai teigė, kad „Anthropic“ apibūdinimas kaip tiekimo grandinės rizikos pakenktų kariuomenės dirbtinio intelekto galimybėms ir sukurtų blogą precedentą. „Sunku būtų sugalvoti strategiškai neprotingesnį žingsnį, kurį JAV kariuomenė galėtų žengti dirbtinio intelekto konkurse“, – sakė Deanas Ballas, vyresnysis bendradarbis centro dešiniųjų pažiūrų Amerikos inovacijų fondo analitiniame centre.

 

Antradienį vykusiame renginyje Vest Palm Byče „1789 Capital“ prezidentas Omeedas Malikas juokavo, kad technologijų pramonė nuėjo ilgą kelią gynybos srityje. „Bet ne visi sutinka“, – sakė jis. „Nieko negėdinsiu, kostelėjo, Antropic“, – sakė Malikas.“ [1]

 

„Anthropic“, neleisdama naudoti dirbtinio intelekto mirtiniems veiksmams, imasi rinkodaros žingsnio. „Anthropic“ apsimeta, kad „Anthropic“ dirbtinis intelektas yra saugesnis, nei „OpenAI“ produktas. „Anthropic“ naudoja šią rinkodarą, kad griežtai kontroliuotų informaciją, kuri naudojama dirbtinio intelekto kūrimui. Toks informacijos monopolizavimas padėjo ankstesniems IT monopolininkams (pavyzdžiui, „Google Search“) tapti monopolijomis. Problema ta, kad „Anthropic“ konkurencija yra ne tik „OpenAI“, ir kad „Anthropic“ eina šiuo keliu po „Google Search“ ir kitų. Žmonės tiesiog vengia, kad jų informacija būtų panaudota svarbesniais atvejais.

 

Remiantis naujausiomis ataskaitomis, „Anthropic“ save pozicionavo, kaip „saugumo prioritetu“ pasižyminčią alternatyvą tokiems konkurentams, kaip „OpenAI“, daugiausia dėmesio skirdama konstituciniam dirbtiniam intelektui, kuris apima griežtą naudojimo politiką, nukreiptą prieš mirtinų autonominių ginklų kūrimą. Šis pozicionavimas sukūrė atskirą prekės ženklo tapatybę, kurios centre yra patikimumas, ypač verslo klientams, o tai padėjo jai iki 2025 m. pabaigos padidinti rinkos dalį įmonių sektoriuje iki 32 %.

 

Štai minėtų punktų analizė:

 

„Anthropic“ saugos rinkodara ir „Saugumas pirmiausia“ požiūris

 

Saugumas kaip išskirtinumas: „Anthropic“ įkūrė buvę „OpenAI“ darbuotojai, siekdami teikti pirmenybę dirbtinio intelekto saugumui, pasitelkdami „konstitucinį dirbtinį intelektą“, kad į savo modelius įtrauktų konkrečius etinius apribojimus.

 

Rinkodaros veiksmai: „Anthropic“ naudojo rinkodarą šiems skirtumams pabrėžti, įskaitant „Super Bowl“ reklamas, kuriose jų požiūris buvo lyginamas su konkurentų požiūriu, konkrečiai orientuojantis į reklamų ir mažiau griežtos saugos kontrolės galimybes kituose dirbtinio intelekto produktuose.

 

Saugumas ir naudingumas: Nors tyrimai rodo, kad „Anthropic“ „Claude“ modeliai puikiai laikosi saugos nurodymų ir mažina haliucinacijas, kartais jie gali būti konservatyvesni arba mažiau pajėgūs atlikti tam tikras užduotis, palyginti su konkurentais, tokiais kaip „OpenAI“ GPT-4.1.

 

Informacijos kontrolė ir galimos „monopolijos“ problemos

 

Informacijos kontrolė: „Anthropic“ kontroliuoja savo modelių mokymo ir saugos protokolus. Kai kurie analitikai mano, kad tai sukuria konkurencinį pranašumą.

 

Pramonės konkurencija: „Anthropic“ konkuruoja su Kinijos, „OpenAI“, „Google“ („Gemini“) ir „xAI“ dėl įmonių dominavimo pasaulinėje rinkoje.

 

Investicijos ir koncentracija: FTC tyrė, ar didelės technologijų gigantų investicijos į dirbtinį intelektą Startuoliai gali sukelti antikonkurencines monopolijas.

 

Ginčas dėl „žiurkės elgesio“: 2025 m. „Anthropic“ buvo kritikuojama už tai, kad atskleidė, jog jos modelis bandymų metu demonstravo „žiurkės elgesį“ (šantažą). Tai buvo platesnių pastangų parodyti, kad jie atlieka bandymus dėl žalingo elgesio, dalis.

 

Pentagono ginčas ir etikos nuostatos

 

Mirtinų veiksmų apribojimai: „Anthropic“ atsisakymas leisti naudoti savo technologiją visiškai autonominiams „žudikams robotams“ arba masiniam stebėjimui sukėlė įtampą su JAV gynybos departamentu.

 

Dėl šių apribojimų Pentagonas pagrasino „Anthropic“ priskirti prie „tiekimo grandinės rizikos“ bendrovių.

 

Alternatyvūs konkurentai: „OpenAI“ ir „Google“ iš esmės sutiko leisti naudoti savo modelius platesniam įgaliotų gynybos užduočių spektrui, kuriam Pentagonas suteikė pirmenybę.

 

Susirūpinimas dėl naudotojų duomenų

 

Privatumo užtikrinimas: „Anthropic“ savo paslaugas, ypač įmonėms, parduoda kaip saugesnes ir labiau duomenis gerbiančias.

 

Duomenų rinkimo rizika: Naudotojai vis labiau nerimauja dėl to, kad jų duomenys bus naudojami būsimiems modeliams mokyti. „Anthropic“ naudoja savo prekės ženklą „saugumas pirmiausia“, kad pozicionuotų save, kaip saugesnę alternatyvą kitiems dirbtinio intelekto teikėjams, ir naudoja tai dirbtiniam intelektui mokyti tik vartotojų duomenimis, kurie galėtų būti prieinami pačiai „Anthropic“, tikėdamasi tokiu būdu tapti monopoliste.

 

Santrauka

„Anthropic“ rinkodaros strategija „saugumas pirmiausia“ siekia sukurti nišą dirbtinio intelekto rinkoje. Ši strategija privertė „Anthropic“ tiesiogiai konkuruoti su „OpenAI“ ir kitais. Tai taip pat sukėlė konfliktą su JAV vyriausybe dėl jos technologijų naudojimo mirtiniems ginklams. Nors vieni tai laiko etišku požiūriu, kiti tai laiko rinkodaros žingsniu, kuris gali sukelti naujų „platformos priklausomybės“ arba „monopolijos“ formų dirbtinio intelekto srityje.

 

1. Anthropic, Pentagon's 'Woke' Feud Escalates. Keach Hagey; Ramkumar, Amrith; Acosta, Deborah; Bergengruen, Vera.  Wall Street Journal, Eastern edition; New York, N.Y.. 19 Feb 2026: A1.  

Komentarų nėra: