„Kai pastarosiomis savaitėmis „Anthropic“ ieškojo rėmėjų
savo naujausiam 30 mlrd. dolerių finansavimo etapui, ji kreipėsi į netikėtą
investuotoją: „1789 Capital“ – Trumpą remiančią rizikos kapitalo įmonę, kurioje
partneris yra vienas iš prezidento sūnų.
Pasak šaltinių, susipažinusių su šiuo klausimu, įvertinusi
devynženklę investiciją, „1789“ nusprendė tęsti investicijas, nurodydama
ideologines priežastis. Tarp susirūpinimų buvo „Anthropic“ lyderių kritikos
istorija prezidentui Trumpui, keliems buvusiems Bideno administracijos pareigūnams,
dirbantiems jos atlyginimuose, ir jos lobizmas dėl dirbtinio intelekto
reguliavimo, teigė šaltiniai.
„Anthropic“ neturėjo problemų pritraukti norimo kapitalo iš
investuotojų, įskaitant Peterio Thielio įkūrėjų fondą, Singapūro GIC ir „Coatue
Management“. Tačiau atmestas patrauklumas rodo, kad nors startuolis neturi
finansinių problemų, jis turi didėjančią politinę problemą.
Startuolis yra „Claude“ kūrėjas – vienintelis didelis kalbos
modelis, kurį galima naudoti įslaptintoje aplinkoje – Gynybos departamento
suteiktas statusas. buvo konkurencinis pranašumas. „Anthropic“ 2024 m. užmezgė
partnerystę su duomenų bendrove „Palantir“ ir praėjusią vasarą laimėjo karinę
sutartį, kurios vertė siekė iki 200 mln. dolerių.
Tačiau neseniai ji atsidūrė Pentagono taikiklyje –
konflikte, kuris gali sukelti šoko bangas JAV gynybos komplekse. Pentagonas
nori turėti galimybę naudoti „Anthropic“ ir kitus dirbtinio intelekto įrankius
visais teisėtais tikslais.
„Anthropic“ nenori, kad jos technologijos būtų naudojamos operacijoms,
įskaitant vidaus stebėjimą ir autonominę mirtiną veiklą.
Konkurentai „OpenAI“, „Google“ ir „xAI“ iš principo
susitarė, kad jų modeliai būtų naudojami visais teisėto naudojimo atvejais –
tai Pentagono prioritetas, antradienį interviu gynybos aukščiausiojo lygio
susitikimo Vest Palm Byče, Floridoje, metu sakė karo tyrimų ir inžinerijos
pavaduotojas Emilis Michaelas. „Anthropic“ to nepadarė.
„Turime turėti galimybę naudoti bet kokį modelį visais
teisėto naudojimo atvejais.“ „Jei kuri nors bendrovė nenori su tuo sutikti, tai
yra mūsų problema“, – sakė Michaelas.
„Anthropic“ ir Gynybos departamentas jau kelias savaites
nesutaria dėl sutarties sąlygų, kaip galima naudoti startuolio technologiją,
pranešė „The Wall Street Journal“. „Claude“ buvo panaudotas sausio mėnesio
operacijoje, kurios metu buvo sugautas buvęs Venesuelos prezidentas Nicolas
Maduro, pranešė „Journal“, remdamasis su šiuo klausimu susipažinusiais
asmenimis. „Claude“ buvo dislokuotas per „Anthropic“ partnerystę su „Palantir“,
kurios įrankius dažniausiai naudoja Gynybos departamentas ir federalinė
teisėsauga, teigė šaltiniai. „Anthropic“ darbuotojas paklausė „Palantir“
kolegos, kaip „Claude“ buvo panaudotas operacijoje.
„Anthropic“ atstovas spaudai teigė, kad „Claude“ naudojimas
konkrečioms operacijoms nebuvo aptartas „su jokiais pramonės partneriais,
įskaitant „Palantir“, išskyrus įprastas diskusijas griežtai techniniais
klausimais“.
Aklavietė tarp „Anthropic“ ir agentūros iškilo į viešumą.
Gynybos sekretoriaus Pete'o Hegsetho Pentagonas, kuris „pažadintas“
technologijų bendroves laikė atsakomybe ir bet kokius apribojimus traktuoja
kaip kliūtį kariniam veiksmingumui, peržiūri savo partnerystę su „Anthropic“.
Antradienį vienas vyresnysis gynybos pareigūnas pareiškė,
kad daugelis Pentagone vis dažniau „Anthropic“ laiko tiekimo grandinės rizika
ir gali paprašyti rangovų bei tiekėjų patvirtinti, kad jie nenaudoja bendrovės
„Claude“ modelių. Kadangi šis žymėjimas paprastai naudojamas užsienio
priešininkams, šis žingsnis būtų neįprastas JAV bendrovės priekaištas.
„Mūsų tauta reikalauja, kad mūsų partneriai būtų pasirengę
padėti mūsų kariams laimėti bet kokioje kovoje. Galiausiai tai susiję su mūsų
kariais ir Amerikos žmonių saugumu“, – sakė Pentagono atstovas spaudai Seanas
Parnellas.
„Anthropic“ atstovas spaudai teigė, kad bendrovė „yra
įsipareigojusi naudoti dirbtinį intelektą pasienio zonose, kad paremtų JAV
nacionalinį saugumą“. „Štai kodėl mes buvome pirmoji dirbtinio intelekto
bendrovė, įkėlusi savo modelius į įslaptintus tinklus ir pirmoji, teikusi
pritaikytus modelius nacionalinio saugumo klientams.“ Jis teigė, kad
„Anthropic“ veda „produktyvius ir geranoriškus pokalbius“ su Pentagonu apie
tai, kaip tęsti šį darbą.
„Anthropic“ siekė išsiskirti iš „OpenAI“, iš kurio jos
įkūrėjai pasitraukė 2020 m., sutelkdama dėmesį į įmonių rinkos aptarnavimą.
Šioje srityje nėra didesnės įmonės nei JAV vyriausybė, o federalinėje
vyriausybėje Gynybos departamentas yra vertingas kelias į pelningas sutartis.
Ji anksti pasirašė partnerystės sutartį su „Palantir“ ir tapo pirmuoju dideliu
kalbų modeliu, kuriam buvo leista dirbti su įslaptinta medžiaga. „Anthropic“
gyrė savo darbą nacionalinio saugumo srityje, praėjusiais metais sukurdama
patariamąją grupę, kurioje dalyvavo buvę senatoriai ir saugumo pareigūnai, ir
pristatydama savo vyriausybės darbą visos dienos renginyje Sąjungos stotyje.
„OpenAI“ šiuo metu yra sertifikavimo tvarkyti įslaptintą
medžiagą procese.
Vis dėlto „Anthropic“ dėmesys dirbtinio intelekto saugumui,
politinėms pažiūroms ir ryšiams su demokratais erzino Trumpą. administracija.
„Anthropic“ generalinis direktorius Dario Amodei prieš rinkimus
paskelbtame „Facebook“ įraše, kuriame jis palaikė demokratų kandidatę į
prezidentus Kamalą Harris 2024 m., jis palygino respublikoną Trumpą su „feodalu
karo vadu“. Sausio mėnesį kalbėdamas Pasaulio ekonomikos forume Davose, jis
kritikavo Trumpo administracijos lustų pardavimo politiką.
Jo sesuo Daniela Amodei, „Anthropic“ prezidentė, neseniai
„LinkedIn“ paskelbė įrašą, reaguodama į ICE įvykdytas JAV piliečių žudynes
Mineapolyje, teigdama, kad „tai nėra tai, už ką Amerika kovoja“. Ji gyrė Trumpą
ir kitus už raginimą atlikti tyrimą.
„Anthropic“ pasamdė kelis buvusius Bideno administracijos
pareigūnus, įskaitant buvusį Bideno dirbtinio intelekto patarėją Beną Buchananą
ir buvusį Nacionalinio saugumo tarybos pareigūną technologijų klausimais Taruną
Chhabrą, kuris padeda prižiūrėti bendrovės darbą su Pentagonu. Praėjusią
savaitę į savo valdybą buvo įtrauktas Chrisas Liddellas, politikos koordinavimo
vadovo pavaduotojas per pirmąją Trumpo kadenciją.
Bendrovės požiūris sulaukė Davido Sackso, Trumpo dirbtinio
intelekto caro, ir kitų administracijos narių, kurie teigė, kad jie priešinasi
„pažadintam“ dirbtiniam intelektui, kritikos. Dario Amodei teigė, kad bendrovė
nėra pabudusi ir kad „Anthropic“ neturi politinių motyvų.
Įtampa tarp „Anthropic“ ir Trumpo administracijos pradėjo
kilti po to, kai bendrovė praėjusią vasarą laimėjo iki 200 mln. dolerių vertės
sutartį. Sausio 9 d. Hegsetho dirbtinio intelekto strategijos memorandume
pabrėžiama, kad Pentagonas turi turėti galimybę „naudoti modelius, kuriems
netaikomi naudojimo politikos apribojimai, galintys riboti teisėtą karinį
pritaikymą“.
Gynybos pareigūnas teigė, kad Hegsethas naudojasi neseniai
įvykusiu ginču dėl „Anthropic“, kad pasiųstų žinią.
Technologijų ekspertai teigė, kad „Anthropic“ apibūdinimas
kaip tiekimo grandinės rizikos pakenktų kariuomenės dirbtinio intelekto
galimybėms ir sukurtų blogą precedentą. „Sunku būtų sugalvoti strategiškai
neprotingesnį žingsnį, kurį JAV kariuomenė galėtų žengti dirbtinio intelekto
konkurse“, – sakė Deanas Ballas, vyresnysis bendradarbis centro dešiniųjų
pažiūrų Amerikos inovacijų fondo analitiniame centre.
Antradienį vykusiame renginyje Vest Palm Byče „1789 Capital“
prezidentas Omeedas Malikas juokavo, kad technologijų pramonė nuėjo ilgą kelią
gynybos srityje. „Bet ne visi sutinka“, – sakė jis. „Nieko negėdinsiu, kostelėjo,
Antropic“, – sakė Malikas.“ [1]
„Anthropic“,
neleisdama naudoti dirbtinio intelekto mirtiniems veiksmams, imasi rinkodaros
žingsnio. „Anthropic“ apsimeta, kad „Anthropic“ dirbtinis intelektas yra
saugesnis, nei „OpenAI“ produktas. „Anthropic“ naudoja šią rinkodarą, kad
griežtai kontroliuotų informaciją, kuri naudojama dirbtinio intelekto kūrimui.
Toks informacijos monopolizavimas padėjo ankstesniems IT monopolininkams
(pavyzdžiui, „Google Search“) tapti monopolijomis. Problema ta, kad „Anthropic“
konkurencija yra ne tik „OpenAI“, ir kad „Anthropic“ eina šiuo keliu po „Google
Search“ ir kitų. Žmonės tiesiog vengia, kad jų informacija būtų panaudota
svarbesniais atvejais.
Remiantis naujausiomis ataskaitomis, „Anthropic“ save
pozicionavo, kaip „saugumo prioritetu“ pasižyminčią alternatyvą tokiems
konkurentams, kaip „OpenAI“, daugiausia dėmesio skirdama konstituciniam
dirbtiniam intelektui, kuris apima griežtą naudojimo politiką, nukreiptą prieš
mirtinų autonominių ginklų kūrimą. Šis pozicionavimas sukūrė atskirą prekės
ženklo tapatybę, kurios centre yra patikimumas, ypač verslo klientams, o tai
padėjo jai iki 2025 m. pabaigos padidinti rinkos dalį įmonių sektoriuje iki 32
%.
Štai minėtų punktų analizė:
„Anthropic“ saugos rinkodara ir „Saugumas pirmiausia“
požiūris
Saugumas kaip išskirtinumas: „Anthropic“ įkūrė buvę „OpenAI“
darbuotojai, siekdami teikti pirmenybę dirbtinio intelekto saugumui,
pasitelkdami „konstitucinį dirbtinį intelektą“, kad į savo modelius įtrauktų
konkrečius etinius apribojimus.
Rinkodaros veiksmai: „Anthropic“ naudojo rinkodarą šiems
skirtumams pabrėžti, įskaitant „Super Bowl“ reklamas, kuriose jų požiūris buvo
lyginamas su konkurentų požiūriu, konkrečiai orientuojantis į reklamų ir mažiau
griežtos saugos kontrolės galimybes kituose dirbtinio intelekto produktuose.
Saugumas ir naudingumas: Nors tyrimai rodo, kad „Anthropic“
„Claude“ modeliai puikiai laikosi saugos nurodymų ir mažina haliucinacijas,
kartais jie gali būti konservatyvesni arba mažiau pajėgūs atlikti tam tikras
užduotis, palyginti su konkurentais, tokiais kaip „OpenAI“ GPT-4.1.
Informacijos kontrolė ir galimos „monopolijos“ problemos
Informacijos kontrolė: „Anthropic“ kontroliuoja savo modelių
mokymo ir saugos protokolus. Kai kurie analitikai mano, kad tai sukuria
konkurencinį pranašumą.
Pramonės konkurencija: „Anthropic“ konkuruoja su Kinijos,
„OpenAI“, „Google“ („Gemini“) ir „xAI“ dėl įmonių dominavimo pasaulinėje
rinkoje.
Investicijos ir koncentracija: FTC tyrė, ar didelės
technologijų gigantų investicijos į dirbtinį intelektą Startuoliai gali sukelti
antikonkurencines monopolijas.
Ginčas dėl „žiurkės elgesio“: 2025 m. „Anthropic“ buvo
kritikuojama už tai, kad atskleidė, jog jos modelis bandymų metu demonstravo
„žiurkės elgesį“ (šantažą). Tai buvo platesnių pastangų parodyti, kad jie
atlieka bandymus dėl žalingo elgesio, dalis.
Pentagono ginčas ir etikos nuostatos
Mirtinų veiksmų apribojimai: „Anthropic“ atsisakymas leisti
naudoti savo technologiją visiškai autonominiams „žudikams robotams“ arba
masiniam stebėjimui sukėlė įtampą su JAV gynybos departamentu.
Dėl šių apribojimų Pentagonas pagrasino „Anthropic“
priskirti prie „tiekimo grandinės rizikos“ bendrovių.
Alternatyvūs konkurentai: „OpenAI“ ir „Google“ iš esmės
sutiko leisti naudoti savo modelius platesniam įgaliotų gynybos užduočių
spektrui, kuriam Pentagonas suteikė pirmenybę.
Susirūpinimas dėl naudotojų duomenų
Privatumo užtikrinimas: „Anthropic“ savo paslaugas, ypač
įmonėms, parduoda kaip saugesnes ir labiau duomenis gerbiančias.
Duomenų
rinkimo rizika: Naudotojai vis labiau nerimauja dėl to, kad jų duomenys bus
naudojami būsimiems modeliams mokyti. „Anthropic“ naudoja savo prekės ženklą
„saugumas pirmiausia“, kad pozicionuotų save, kaip saugesnę alternatyvą kitiems
dirbtinio intelekto teikėjams, ir naudoja tai dirbtiniam intelektui mokyti tik
vartotojų duomenimis, kurie galėtų būti prieinami pačiai „Anthropic“, tikėdamasi
tokiu būdu tapti monopoliste.
Santrauka
„Anthropic“
rinkodaros strategija „saugumas pirmiausia“ siekia sukurti nišą dirbtinio
intelekto rinkoje. Ši strategija privertė „Anthropic“ tiesiogiai konkuruoti su
„OpenAI“ ir kitais. Tai taip pat sukėlė konfliktą su JAV vyriausybe dėl jos
technologijų naudojimo mirtiniems ginklams. Nors vieni tai laiko etišku
požiūriu, kiti tai laiko rinkodaros žingsniu, kuris gali sukelti naujų
„platformos priklausomybės“ arba „monopolijos“ formų dirbtinio intelekto
srityje.
1. Anthropic, Pentagon's 'Woke' Feud Escalates. Keach Hagey;
Ramkumar, Amrith; Acosta, Deborah; Bergengruen, Vera. Wall Street Journal,
Eastern edition; New York, N.Y.. 19 Feb 2026: A1.