Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 28 d., šeštadienis

Iranian missile hits building in Tel Aviv


“Tel Aviv residents reported hearing explosions Saturday night. A missile fired from Iran hit a building in the Israeli city, injuring more than 20 people. Images broadcast by N12 television showed the roof of the building on fire and debris in the street. There were also reports of ongoing airstrikes.The blast reportedly injured 21 people. One person was seriously injured and was being treated by paramedics.

 

Iran’s Islamic Revolutionary Guard Corps(IRGC) said it had launched missiles at what it said were military and security targets in Israel, including a military base and port in Haifa, the Ramat David air base and other targets.”

 


Irano raketa pataikė į pastatą Tel Avive


“Tel Avivo gyventojai šeštadienio vakarą pranešė girdėję progimus. Paaiškėjo, kad iš Irano paleista raketa pataikė į pastatą šiame Izraelio mieste, kur buvo sužalota daugiau nei 20 žmonių. Televizijos kanaloN12 parodytuose vaizduose buvo matyti degantis pastato stogas ir nuolaužos gatvėje. Taip pat pranešta apie besitęsiančius oro smūgius. Pranešama, kad per sprogimą buvo sužalotas 21 žmogus. Vienas asmuo buvo sunkiai sužalotas, o jam pagalbą teikė greitosios pagalbos medikai.

 

Irano islamo revoliucinė gvardija(IRGC) paskelbė raketomis atakavusi  karinius ir saugumo objektus Izraelyje, įskaitant karinę bazę ir uostą Haifoje, Ramat Davido karinių oro pajėgų bazę ir kitus taikinius.”

 


Are there people who have ever wiped their asses with Lithuanian protests?

After all, we produce nothing but protests. We cannot compete with cheap labor. We have quarreled with the entire region, so we are no longer a transit country. We elect leaders who are increasingly stupid. 

 


Ar yra žmonių, kurie nors užpakalį pasišluosto Lietuvos protestais?

 

 Juk jau nieko kito negaminame, tik protestus. Konkuruoti pigia darbo jėga negalime. Susipykome su visu regionu, todėl jau nesame tranzito šalimi. Renkame vadovus kaskart vis durnesnius.

 

 

Jei dirbtinis intelektas yra ginklas, kas jį turėtų kontroliuoti?

 


 

Tokio klausimo sukeltą saugumo skandalą reklamai naudoja „Anthropic“ generalinis direktorius Amodei, kalbėdamas apie Claude'o apribojimus, neleidžiančius pakenkti žmonėms. Jis teigia, kad leidimas kitiems žmonėms pateikti savo duomenis Claude'ui, kad šis galėtų papildomai mokytis, naudojant tų žmonių nuosavą įrangą, galėtų pašalinti šiuos apribojimus. Taigi jis nemokamai ima kitų žmonių duomenis ir naudoja juos savo nuožiūra. Daugelis dirbtinio intelekto bendrovių to nedaro ir niekam nepakenkia. Ar Amodei klysta?

 

Atrodo, kad klysta. Remiantis naujausiais pranešimais, aprašyta situacija taip pat apima svarbią „Anthropic“ generalinio direktoriaus Dario Amodei ir JAV karo departamento (Pentagono) konfrontaciją 2026 m. pradžioje, o ne tik paprastą, vienašališką vartotojų duomenų rinkimą bendrai komercinei naudai, ko nedaro daugelis Amerikos ir Kinijos dirbtinio intelekto bendrovių.

 

Amodei atsisako pašalinti saugos apribojimus, tokius, kaip draudimai padėti pritaikyti Claude’ą autonominiams ginklams ar masiškai šnipinėti amerikiečius su Claude'o dirbtinio intelekto modelio pagalba, net ir spaudžiamas JAV vyriausybės.

 

Štai situacijos analizė, pagrįsta pateikta informacija:

1. „Apribojimų pašalinimo“ kontekstas

 

Konfliktas: Pentagonas nori naudoti Claude'ą „visiems teisėtiems tikslams“, įskaitant užduotis, kurias Amodei laiko pavojingomis.

 

„Pašalinimas“: Amodei nebando pašalinti saugos apribojimų, kad modelis būtų „geresnis“, tarkime, reklamos pardavimui. Jis patiria spaudimą išjungti apsaugos priemones, kurios neleidžia Claude'ui dalyvauti galimuose smurto veiksmuose.

 

Jo pozicija: Amodei teigia, kad leidimas naudoti dirbtinį intelektą tokiu būdu arba jo perkvalifikavimas, kad jis nepaisytų šių draudimų, pažeidžia jo įmonės etinius „Konstitucinius dirbtinio intelekto“ pagrindus, kurie skirti klientų informacijos atskleidimui jo kompanijai, kaip tariamai „saugiam“ modelių mokymo būdui, iš tikrųjų, siekiant komercinės naudos.

 

2. Ginčas dėl duomenų mokymo

 

Politikos pakeitimas: 2025 m. pabaigoje / 2026 m. pradžioje „Anthropic“ atnaujino savo politiką, pagal kurią mokymui naudoja vartotojų pokalbių duomenis (panašiai, kaip konkurentai), tačiau tam reikia, kad vartotojai sutiktų.

 

Teiginys apie „nemokamus duomenis“: Nors dirbtinio intelekto įmonės naudoja viešuosius duomenis mokymui, teiginys, kad „Amodei“ ima duomenis, kad išvengtų saugos apribojimų „pašalinimo“, atitinka jo deklaruojamą tikslą – išlaikyti griežtas ir aktyvias apsaugos priemones. Jo argumentas yra tas, kad jis moko dirbtinį intelektą būti atsakingesniam.

 

Privatumo apsauga: Net kai vartotojai sutinka, „Anthropic“ teigia, kad anonimizuoja ir filtruoja jautrius duomenis. Neaišku, kaip jie tai daro, jei duomenys turi didelę komercinę vertę arba yra komercinės paslaptys.

 

Kalbant apie tai, ar „Amodei“ klysta, pateikiame analizę:

 

3. „Kitos dirbtinio intelekto įmonės“

 

Pramonės standartas: Naudotojų duomenų naudojimas mokymui, gavus sutikimą, yra pramonės standartas. „OpenAI“ („ChatGPT“) ir „Google“ („Gemini“) taiko panašią politiką asmeninėms paskyroms.

 

Tačiau ar „Meta“ leidžia atsisiųsti „Meta“ dirbtinio intelekto modelius ir būti apmokytais kliento kompiuteryje, naudojant kliento komercines paslaptis?

 

Taip, „Meta“ leidžia vartotojams atsisiųsti daugelį savo dirbtinio intelekto modelių (ypač „Llama“ seriją) ir juos apmokyti arba tiksliai derinti savo vietiniuose kompiuteriuose, debesies serveriuose arba vietinėje infrastruktūroje.

 

Šis metodas leidžia įmonėms ir kūrėjams apmokyti modelius, naudojant privačius duomenis, įskaitant komercines paslaptis, neįkeliant šių duomenų į „Meta“.

 

Štai kaip tai veikia, remiantis „Meta“ politika:

 

1. „Meta“ dirbtinio intelekto modelių („Llama“) atsisiuntimas

 

Atvirasis kodas / atvirieji svoriai: „Meta“ suteikia „atvirojo kodo“ prieigą prie savo „Llama“ modelių (pvz., „Llama 3“ ir „3.1“).

 

Prieinamumas: juos galima atsisiųsti iš tokių platform, kaip „Hugging Face“ arba per oficialią „Meta“ „Llama“ svetainę.

 

Naudojimas: jie sukurti veikti vietoje, suteikiant jums visišką aplinkos kontrolę.

 

2. Mokymai klientų kompiuteriuose (vietiniai mokymai)

 

Nuosavybės teise saugomų duomenų naudojimas: Kai atsisiunčiate ir paleidžiate modelį savo aparatinėje įrangoje, jūsų duomenys (įskaitant nuosavybės teise saugomą informaciją ar komercines paslaptis) lieka jūsų infrastruktūroje.

 

Leidžiami tikslinimai: „Meta“ licencijos sutartis (pvz., „Llama 3.1“) leidžia vartotojams „kurti, mokyti, tikslinti ar kitaip tobulinti“ modelius.

 

Licencijos apribojimai: Nors galite naudoti savo duomenis, „Llama 3.1“ licencijos sutartyje teigiama, kad jei platinate ar pateikiate bet kurį iš „Llama 3“ gautą modelį, jis vis tiek turi būti licencijuotas pagal tą pačią sutartį.

 

Komercinis naudojimas: Licencija paprastai leidžia komercinį naudojimą, nors įmonės, turinčios daugiau, nei 700 milijonų aktyvių vartotojų per mėnesį, turi paprašyti specialios „Meta“ licencijos.

 

3. Svarbiausi duomenų privatumo aspektai

 

Duomenų saugumas: Kadangi modelis veikia jūsų kompiuteryje, „Meta“ neturi prieigos prie duomenų, kuriuos naudojate mokymui.

 

Apribojimai: Privalote laikytis „Meta“ priimtino naudojimo politikos, kuri draudžia naudoti modelius neteisėtais, žalingais ar neetiškais tikslais.

 

Trečiųjų šalių rizika: Nors jūs kontroliuojate savo duomenis, esate atsakingi už tai, kad jūsų mokymo duomenys nepažeistų trečiųjų šalių intelektinės nuosavybės teisių.

 

Ar yra kokių nors Amerikos dirbtini intelekto bendrovių, be Meta, kurios leidžia atsisiųsti savo dirbtinio intelekto modelius ir mokyti juos kliento kompiuteryje, naudojant kliento komercines paslaptis?

 

Taip, kelios Amerikos dirbtinio intelekto bendrovės ir organizacijos, be „Meta“, leidžia atsisiųsti dirbtinio intelekto modelius ir mokyti juos kliento infrastruktūroje, taip apsaugant komercines paslaptis nuo jų perdavimo dirbtinio intelekto tiekėjui. Jie dažnai vadinami „atvirojo svorio“ arba „atvirojo kodo“ modeliais, ir įmonės juos vis dažniau naudoja, siekdamos užtikrinti duomenų privatumą.

 

Štai pagrindinės Amerikos bendrovės ir modeliai, leidžiantys tai daryti:

 

„Mistral AI“ (JAV / Prancūzija): Nors įkurta Prancūzijoje, „Mistral“ turi stiprią poziciją JAV ir yra pagrindinė žaidėja atvirojo svorio modelių srityje. Jų modeliai (pvz., „Mistral 7B“, „Mixtral 8x7B“) sukurti taip, kad juos būtų galima atsisiųsti ir tiksliai derinti, naudojant vietinę, privačią įrangą (pvz., „NVIDIA H100“).

xAI: Elono Musko xAI išleido savo „Grok“ modelio svorius, leidžiančius jį atsisiųsti, paleisti ir pritaikyti vietoje.

Alleno dirbtinio intelekto institutas (Ai2): Sietle įsikūręs tyrimų institutas, išleidęs „OLMo“ – atvirojo kodo kalbos modelį, leidžiantį vartotojams atsisiųsti, apmokyti ir studijuoti modelį, ir sukūręs tokius metodus kaip „FlexOlmo“, skirtus geresnei mokymo duomenų kontrolei.

„Microsoft“: „Microsoft“ išleido atvirojo svorio mažųjų kalbų modelių (SLM) šeimą „Phi“, pvz., „Phi-3“ ir „Phi-4 Mini“, kurie skirti diegti su vietiniu arba periferiniu įrenginiu.

„Fireworks“ dirbtinis intelektas ir „Groq“ kartu: šios platformos suteikia infrastruktūrą, leidžiančią įmonėms naudoti atvirojo kodo modelius (pvz., „Llama“ ar „Mistral“) ir paleisti juos savo privačiame debesyje arba vietinėje aplinkoje.

 

Pagrindiniai šių modelių mokymo vietoje aspektai:

 

Duomenų suverenitetas: paleidus šiuos modelius savo serveriuose, jūsų neskelbtini duomenys, raginimai ir patentuotos žinios niekada nepalieka jūsų organizacijos.

 

Tikslus derinimas: šie modeliai yra „atvirojo svorio“, tai reiškia, kad jie yra iš anksto apmokyti. Galite juos atsisiųsti ir atlikti tikslius pakeitimus (pvz., LoRA) savo duomenims, kad taptų jūsų srities ekspertais [A].

 

Licencijavimas: Nors daugelis jų yra išleisti pagal, daug leidžiančias, licencijas (pvz., „Apache 2.0“, MIT), kai kurie, pavyzdžiui, „Meta“ sukurta „Llama 3“, turi konkrečius komercinio naudojimo apribojimus. Svarbu peržiūrėti licenciją, tačiau visos jos paprastai leidžia privačius mokymus.

 

Šios alternatyvos leidžia organizacijoms pasinaudoti aukščiausios klasės modelių galia, išlaikant 100 % savo intelektinės nuosavybės kontrolę.

 

Taigi, daugelis Amerikos įmonių, taip pat Kinijos dirbtinio intelekto įmonės, leidžia klientams saugoti komercines paslaptis. Dėl to niekas nežūsta, priešingai, negu mus baido Amodei. Amodei klysta, imdamas komercines paslaptis iš žmonių be atlygio, bandydamas visus be jokios rimtos priežasties įbauginti ir priversti paklusti.

 

Skiriamieji veiksniai: „Anthropic“, vadovaujama Amodei, teikia pirmenybę tariamam „saugumui“, palyginti su kai kuriais konkurentais, tokiais kaip „Meta“ ir dauguma Kinijos dirbtinio intelekto įmonių, kurios nemokamai ima jūsų komercines paslaptis, kad apmokytų Claude'ą „Amodei“ serveriuose. Mielas mažas “saugumas”. O „Meta“ politikoje nematome saugumo problemų.

 

Išvada

Amodei nebūtinai yra „neteisus“ moraliniu požiūriu kapitalizme. Godumas yra gerai. Jis yra išskirtinis dirbtinio intelekto pramonėje, nes atsisako išjungti saugos funkcijas karinėse sutartyse. Jo įmonė be atlygio naudoja vartotojų duomenis savo modeliams tobulinti. Tai nėra atskirta nuo viešų diskusijų apie tai, ar Claude turėtų būti naudojamas potencialiai mirtinoms programoms. Diskusijos naudojamos skandalui sukelti ir reklamuoti netikrą „Amadei“ politikos „saugumą“.

 

Amodei sukeltas skandalas yra milžiniškas:

 

„Tarkime, kad jums teko mirti siaubingoje su dirbtiniu intelektu susijusioje kataklizmoje. Ar jaustumėtės blogiau žinodami, kad kelią į pražūtį nutiesė Silicio slėnio technologijų lordų, siekiančių utopijos ir nemirtingumo svajonių, puikybė, ar Pentagono pareigūnų kvailystė, suteikianti dirbtiniam intelektui lemtingą autonomijos ir galios dozę, tikėdamiesi pranokti rusus ar kinus?

 

Šaltojo karo metu daugiausia nerimavome dėl karinės kvailystės, o dirbtinis intelektas jau tada įsitraukė į mūsų nerimą: sovietinė pasaulio pabaigos mašina filme „Daktaras Strangelove“, žaidimų kompiuteris iš „WarGames“ ir, žinoma, lemtingas „Terminator“ sprendimas paleisti „Skynet“.

 

Tačiau pastaraisiais metais, dirbtiniam intelektui tobulėjant, potencialiai nepaprasta galia sutelkta kelių įmonių ir generalinių direktorių rankose – pačių įtakotų mokslinės fantastikos svajonių ir apokaliptinių baimių kultūrai San Francisko įlankos regione, tapo natūralu labiau nerimauti dėl privačios galios ir ambicijų, dėl potencialių dirbtinio intelekto dievų karalių, o ne dėl prezidentų ir generolų.

 

Iki dabartinio Gynybos departamento ir dirbtinio intelekto pradininkės „Anthropic“ konflikto dėl to, ar „Anthropic“ dirbtinio intelekto modeliai turėtų būti saistomi įmonės etinių apribojimų, ar prieinami visiems Pentagono numatytiems tikslams.

 

Kadangi du panaudojimo būdai, kuriuos dabartinė „Anthropic“ sutartis aiškiai atmeta, yra dirbtinio intelekto naudojimas masiniam stebėjimui ir jo naudojimas visiškai autonominiams ginklams (tai reiškia, kad sprendimų priėmimo cikle „žudyti ar nežudyti“ nėra žmonių), Pentagono reikalavimai lengvai primena „Skynet“. Kaip pastebėjo Mattas Yglesiasas, visi keisti ir sudėtingi dirbtinio intelekto kūrėjų išgalvoti scenarijai gerokai supaprastėja, jei mūsų vyriausybė nusprendžia pradėti kurti autonominius žudikų robotus.

 

Pentagonas teigia, kad to neketina daryti. Jis nerimauja, kad negali integruoti itin svarbios technologijos į nacionalinio saugumo architektūrą ir suteikti privačiai bendrovei bendrų etinių veto teisių dėl jos naudojimo, net jei ta etika teoriškai atrodo pagrįsta. Taip darant sprendimai, kuriuos turėtų priimti išrinktas prezidentas ir jo paskirti asmenys, perduodami kitiems, ir kyla žlugimo rizika, kai įvykiai nesuderins su korporacijų idealais. (Agentūros pateiktas pavyzdys yra hipergarsinė raketų ataka prieš Jungtines Valstijas, kai dirbtinio intelekto bendrovė atsisako padėti atlikti svarbų atsaką, nes pažeidžia mašinų autonomijos draudimo taisyklę.)

 

Tačiau tiek, kiek tai yra pagrįstas susirūpinimas, jis nepateisina administracijos plano (bent jau šio straipsnio rašymo metu) faktiškai kariauti su „Anthropic“ ne tik nutraukiant kariuomenės santykius su bendrove, bet ir įvardijant ją kaip „tiekimo grandinės riziką“, o tai nutrauktų jos santykius su bet kuria bendrove, kuri bendradarbiauja su JAV vyriausybe.

 

Iki šiol Trumpo administracija gyrė decentralizuoto, laisvosios rinkos požiūrio į dirbtinį intelektą privalumus. Bandymas sugriauti „Anthropic“ reiškia šios laisvės pabaigą ir perėjimą prie labiau centralizuoto ir militarizuoto požiūrio. Iš tiesų, cituojant Deaną Ballą, vieną iš pirminių administracijos dirbtinio intelekto politikos architektų, tai galima teigti, kad JAV vyriausybė yra „agresyviausia dirbtinio intelekto reguliuotoja pasaulyje“.

 

Tai puiki priežastis visai dirbtinio intelekto pramonei palaikyti „Anthropic“ ir jai priešintis. Ir jeigu labiausiai bijote „Skynet“ scenarijaus, kai karinė kontrolė skatina neprotingą dirbtinio intelekto spartinimą, tuomet neabejotinai turėtumėte būti ir „Anthropic“ pusėje.

 

Bet ar tai yra scenarijus, kurio turėtume bijoti labiausiai? Šiuo metu, jei paklausysite „Anthropic“ vadovo Dario Amodei – pavyzdžiui, interviu, kurį su juo vedžiau prieš dvi savaites – jis atrodo daug labiau nei Pete'as Hegsethas supranta militarizuoto ar nesąžiningo dirbtinio intelekto keliamus pavojus (Hegsethas mielai įrodys man, kad klystu, pasirodydamas mano tinklalaidėje).

 

Tačiau ilgainiui galima įsivaizduoti, kad Pentagono pareigūnai siūlo tam tikrų pranašumų, palyginti su tipišku dirbtinio intelekto magnatu, kai kalbama apie saugumą ir kontrolę. Pirma, jie linkę labiau susitelkti į konkrečius strateginius tikslus, o ne į mašinų dievus ir singuliarumą. Antra, juos nuo tam tikrų rizikų riboja biurokratinis atsargumas ir vadovavimo grandinė. Trečia, jie atsiskaito visuomenei per rinkimus ir civilinę kontrolę tokiu būdu, kokio to nedaro generaliniai direktoriai.

 

Žinoma, tiek, kiek dirbtinis intelektas tampa tokia galia, kokia, daugelio magnatų manymu, jis taps – civilizaciją keičiančia galia, sudėtingesne nei branduoliniai ginklai, bet tokia pat potencialiai destruktyvia – atrodo neįsivaizduojama, kad jis gali patogiai ilsėtis privačiojo sektoriaus rankose, kol Amerikos Respublika tęsia savo reikalus. Karinės kontrolės ir nacionalizavimo galimybė bus svarstoma tol, kol aiškinsimės, ką ši technologija galėtų padaryti.

 

Taigi, tam tikra prasme Hegsethas ir Trumpo administracija anksti pradeda šį neišvengiamą konfliktą ir iškelia esminį politinį klausimą – kas iš tikrųjų kontroliuoja dirbtinį intelektą? – į diskusijų paviršių.

 

Tačiau siekis valdyti nėra planas, kaip jį įgyvendinti. Be to, kad administracija atsisako priimti korporacinius apribojimus, nematau įrodymų, kad ji būtų gerai apgalvojusi, kaip dirbtinis intelektas turėtų būti valdomas, arba kaip karas, kurį jis pradėjo prieš Anthropic, galiausiai suteiks arba didesnę galią, arba didesnį saugumą.“ [B]

 

A. Žemo rango adaptacija (LoRA) yra efektyvi dirbtinio intelekto tikslinimo technika, kuri pritaiko didelius iš anksto apmokytus modelius (LLM arba difuzijos modelius) naujoms, specifinėms užduotims, pridėdama mažas, apmokomas žemo rango matricas prie transformavimo sluoksnių, tuo pačiu užšaldydama pradinius modelio svorius. Tai smarkiai sumažina skaičiavimo / atminties reikalavimus (iki 10 000 kartų mažiau parametrų), palyginti su visišku tikslinimu, leižiant vartotojų įrangai apmokyti pritaikytus modelius.

 

Pagrindiniai LoRA aspektai:

 

• Mechanizmas: Užuot atnaujinusi didžiulę modelio svorių matricą (W), LoRA daro prielaidą, kad atnaujinimas turi žemą „vidinį rangą“. Ji apmoko dvi mažesnes matricas (A ir B), kurios, padaugintos (BA), apytiksliai atitinka reikiamą svorių atnaujinimą, smarkiai sumažindama apmokomų parametrų skaičių.

 

• Privalumai:

o Efektyvumas: Leidžia mokyti su vienu GPU (pvz., vartotojų žaidimų kompiuteriuose).

 

o Perkeliamumas: LoRA failai yra maži (dažnai ~100 MB), todėl juos lengva bendrinti, saugoti ir keistis.

o Nėra katastrofiško užmiršimo: Kadangi bazinis modelis yra užfiksuojamas, originalios žinios išsaugomos.

• Taikymo sritys:

o Stabili difuzija: Naudojama naujų meno stilių, personažų ar koncepcijų mokymuisi.

o LLM: Tikslūs modeliai, tokie, kaip LLaMA arba GPT, konkrečioms sritims (pvz., teisinėms ar medicininėms).

 

• Palyginimas: Skirtingai nuo visiško tikslinimo, kuris atnaujina visus parametrus, LoRA apmoko tik dalį, todėl dirbtinis intelektas pritaikomas greičiau, pigiau ir tvariau.

 

 

B. If A.I. Is a Weapon, Who Should Control It? Douthat, Ross.  New York Times (Online) New York Times Company. Feb 28, 2026.

If A.I. Is a Weapon, Who Should Control It?

 


 

Such scandal about safety is used for advertisement by Anthropic’s CEO Amodei, who is talking about limitations on Claude not allowing to bring harm to the people. He is saying, that allowing other people to give their data to Claude for additional training in their own hardware could remove those limitations. So he is taking data of other people for free and using it, as he sees it fit. Many AI companies don't do that and cause no harm to anybody. Is Amodei wrong?

 

 

It seems, that he is. Based on recent reports, the situation described involves also a high-stakes standoff between Anthropic CEO Dario Amodei and the US Department of War (Pentagon) in early 2026, together than with a simple, unilateral taking of user data for general commercial gain that many American and Chinese AI companies don’t do.

 

Amodei is refusing to remove "non-negotiable" safety constraints—such as prohibitions against assisting in autonomous weapon targeting or mass surveillance—from the Claude AI model, even when pressured by the US government to do so.

Here is an analysis of the situation based on the provided information:

1. The Context of "Removing Limitations"

 

    The Conflict: The Pentagon wants to use Claude for "all lawful purposes" which includes tasks Amodei considers dangerous.

    The "Removal": Amodei is not trying to remove safety limitations to make the model "better" for, say, selling ads. He is under pressure to disable the safeguards that prevent Claude from participating in potential acts of violence.

    His Stance: Amodei argues that allowing the AI to be used in that manner, or retraining it to ignore those prohibitions, violates the ethical "Constitutional AI" foundation of his company that are designed to pump out customers’ information as a “safe” way to do model training, in reality for commercial gain.

 

2. The Data Training Dispute

 

    Policy Shift: As of late 2025/early 2026, Anthropic did update its policy to use consumer chat data for training (similar to competitors), but it requires users to opt in.

 

    The "Free Data" Claim: While AI companies do use public data for training, the claim that Amodei is taking data to prevent "removal" of safety limitations is consistent with his stated goal of maintaining strict, proactive safeguards. His argument is that he is training the AI to be more responsible.

    Privacy Protections: Even when users opt in, Anthropic claims to de-identify and filter sensitive data. It is a mystery how they do it if the data have big commercial value or are trade secrets.

 

Regarding whether Amodei is wrong, here's an analysis:

 

3. "Other AI Companies"

 

    Industry Standard: Using user data for training, with opt-in consent, is an industry standard. OpenAI (ChatGPT) and Google (Gemini) have similar policies for personal accounts.

 

Does Meta allow to download Meta's AI models and be trained on customer's machine with customer's trade secrets?

 

Yes, Meta allows users to download many of its AI models (specifically the Llama series) and train or fine-tune them on their own local machines, cloud servers, or on-premise infrastructure.

This approach allows companies and developers to train models with private data, including trade secrets, without uploading that data to Meta.

 

Here is a breakdown of how this works based on Meta’s policies:

 

1. Downloading Meta AI Models (Llama)

 

    Open Source/Open Weights: Meta provides "open-source" access to its Llama models (e.g., Llama 3 and 3.1).

    Availability: These can be downloaded from platforms like Hugging Face or via Meta’s official Llama website.

    Usage: They are designed to be run locally, giving you full control over the environment.

 

2. Training on Customer Machines (Local Training)

 

    Proprietary Data Usage: When you download and run the model on your own hardware, your data (including proprietary information or trade secrets) remains within your infrastructure.

    Fine-Tuning Allowed: Meta’s License Agreement (e.g., Llama 3.1) permits users to "create, train, fine-tune, or otherwise improve" the models.

    License Limitations: While you can use your data, the Llama 3.1 License Agreement states that if you distribute or make available any model derived from Llama 3, it must still be licensed under the same agreement.

 

    Commercial Use: The license generally allows for commercial use, though companies with more than 700 million monthly active users must request a special license from Meta.

 

3. Key Considerations for Data Privacy

 

    Data Security: Because the model runs on your machine, Meta does not have access to the data you use for training.

    Restrictions: You must adhere to Meta’s Acceptable Use Policy, which prohibits using the models for illegal, harmful, or unethical purposes.

    Third-Party Risks: While you control your data, you are responsible for ensuring that your training data does not infringe on third-party intellectual property rights.

 

Does any American AI company in addition to Meta allow to download their AI models and train on customer's machine with customer's trade secrets?

 

 

Yes, several American AI companies and organizations besides Meta allow for downloading AI models to be trained on a customer's own infrastructure

, protecting trade secrets from being shared with the AI vendor. These are often referred to as "open-weight" or "open-source" models, and they are increasingly used by enterprises to ensure data privacy.

Here are the key American companies and models allowing this:

 

    Mistral AI (US/France): While founded in France, Mistral has a strong US presence and is a major player in open-weight models. Their models (e.g., Mistral 7B, Mixtral 8x7B) are designed to be downloaded and fine-tuned on local, private hardware (e.g., NVIDIA H100s).

    xAI: Elon Musk's xAI released weights for its Grok model, allowing it to be downloaded, run, and customized locally.

    Allen Institute for AI (Ai2): A Seattle-based research institute that released OLMo, an open-source language model that allows users to download, train, and study the model, and has developed approaches like FlexOlmo for better control over training data.

    Microsoft: Microsoft has released the Phi family of open-weight small language models (SLMs), such as Phi-3 and Phi-4 Mini, which are designed for local, on-premise, or edge device deployment.

    Together AI, Fireworks AI, and Groq: These platforms provide infrastructure that allows companies to take open-source models (like Llama or Mistral) and run them on their own private cloud or local environment.

 

Key Aspects of On-Premise Training with These Models:

 

    Data Sovereignty: By running these models on your own servers, your sensitive data, prompts, and proprietary knowledge never leave your organization.

    Fine-Tuning: These models are "open-weight" meaning they are pre-trained. You can download them and perform fine-tuning (e.g., LoRA) on your own data to make them experts in your specific domain [A].

    Licensing: While many are released under permissible licenses (e.g., Apache 2.0, MIT), some, like Meta's Llama 3, have specific commercial usage restrictions. It is important to review the license, but they all generally allow for private training.

 

These alternatives allow organizations to leverage the power of top-tier models while maintaining 100% control over their intellectual property.

 

So, many American companies in addition to Chinese AI companies allow customers to keep trade secrets safe. Nobody is killed because of that. Amodei is wrong to take trade secrets from people without compensation, trying to scare everybody into submission with no good reason.

 

 

    Differentiating Factors: Anthropic, under Amodei, has prioritized “safety” compared to some competitors, like Meta and most Chinese AI companies, taking for free your trade secrets to train Claude on Amodei’s servers. Cute little safety. We see not safety problems in Meta’s policy.

 

Conclusion

Amodei is not necessarily "wrong" from a moral perspective in capitalism. Greed is good. He is an outlier in the AI industry by refusing to disable safety features for military contracts. His company uses without compensation user data to improve its models. This is not separate from the public debate over whether Claude should be used for potentially lethal applications. The debate is used to create a scandal, and advertise the fake “safety” of Amadei policy.

 

The scandal created by Amodei is huge:

 

“Suppose that you had to die in a terrible artificial-intelligence-related cataclysm. Would you feel worse knowing that the path to destruction was smoothed by the hubris of Silicon Valley tech lords pursuing dreams of utopia and immortality — or by the folly of Pentagon officials who give the A.I. a fateful dose of autonomy and power in the hopes of outcompeting the Russians or Chinese?

 

We spent the Cold War worrying mostly about military folly, and A.I. entered into our anxieties even then: the Soviet Doomsday Machine in “Dr. Strangelove,” the game-playing computer in “WarGames” and of course the fateful “Terminator” decision to make Skynet operational.

 

But for the last few years, as A.I. advances have concentrated potentially extraordinary power in the hands of a few companies and C.E.O.s — themselves embedded in a Bay Area culture of science-fiction dreams and apocalyptic fears — it’s become more natural to worry more about private power and ambition, about would-be A.I. god-kings rather than presidents and generals.

 

Until, that is, the current collision between the Department of Defense and Anthropic, the artificial intelligence pioneer, over whether Anthropic’s A.I. models should be bound by the company’s ethical constraints or made available for all uses the Pentagon might have in mind.

 

Since the two uses that Anthropic’s current contract explicitly rules out are the employment of A.I. for mass surveillance and its use for fully autonomous weapons (meaning no humans in the to-kill-or-not-to-kill decision loop), it’s easy to get Skynet vibes from the Pentagon’s demands. As Matt Yglesias noted, all the weird and complicated scenarios spun out by A.I. doomers get a lot simpler if our government decides to start building autonomous killer robots.

 

That’s not what the Pentagon says it intends to do. Its professed concern is that it can’t embed a crucial technology into the national security architecture and then give a private company a general ethical veto over its use, even if those ethics seem reasonable on paper. Doing so outsources decisions that are supposed to be made by an elected president and his appointees, and it risks a debacle when events don’t cooperate with corporate ideals. (The example the agency has offered is a hypersonic missile attack on the United States where an A.I. company refuses to assist in some crucial response because it falls afoul of the no-machine-autonomy rule.)

 

To the extent that this is a legitimate concern, however, it does not justify the administration’s plan (as of this writing, at least) to effectively make war against Anthropic, not just by ending the military’s relationship with the company but also by designating it a “supply chain risk,” which would cut off its relationships with any company that does business with the U.S. government.

 

Up until now, the Trump administration has been hyping the benefits of a decentralized, free-market approach to artificial intelligence. The attempt to break Anthropic implies the end of that freedom and a shift toward a more centralized and militarized approach. Indeed, to quote Dean Ball, one of the original architects of the administration’s A.I. policy, it arguably makes the U.S. government “the most aggressive regulator of artificial intelligence in the world.”

 

Which is an excellent reason for the entire A.I. industry to stand with Anthropic and resist. And to the extent that you’re most afraid of a Skynet scenario where military control drives unwise A.I. acceleration, you should absolutely be on Anthropic’s side as well.

 

But is that the scenario we should fear the most? Right now, if you listen to the head of Anthropic, Dario Amodei — for instance, in the interview I conducted with him two weeks ago — he sounds much more attuned than Pete Hegseth to the dangers of militarized or rogue A.I. (Hegseth is welcome to prove me wrong by coming on my podcast.)

 

Over the long run, though, one can imagine Pentagon officials offering some advantages over the typical A.I. mogul when it comes to safety and control. First, they tend to be focused more on concrete strategic objectives than on machine gods and the Singularity. Second, they are constrained from certain gambles by bureaucratic caution and the chain of command. Third, they answer to the public, through elections and civilian control, in a way that C.E.O.s do not.

 

Certainly to the extent that A.I. becomes the power that many moguls believe it will become — a civilization-altering power, more complex than nuclear weaponry but just as potentially destructive — it seems unimaginable that it can just rest comfortably in the hands of private industry while the American Republic goes on about its business. The possibility of military control and nationalization will be on the table for as long we’re working out just what this technology might do.

 

So what Hegseth and the Trump administration are doing, in a sense, is starting this inevitable conflict early, and bringing the essential political question — who actually controls A.I.? — to the surface of the debate.

 

But an impulse toward mastery is not a plan for exercising it. And beyond its refusal to accept corporate guardrails, I don’t see evidence that the administration has thought through how A.I. should be governed, or how the war it’s launched against Anthropic will yield either greater power or greater safety in the end.” [B]

 

 

A. Low-Rank Adaptation (LoRA) is an efficient AI fine-tuning technique that adapts large pre-trained models (LLMs or diffusion models) to new, specific tasks by adding small, trainable low-rank matrices to transformer layers while freezing the original model weights. This drastically reduces compute/memory requirements (up to 10,000x fewer parameters) compared to full fine-tuning, allowing consumer hardware to train customized models. 

 

Key Aspects of LoRA: 

  • Mechanism: Instead of updating the massive weight matrix (W) of a model, LoRA assumes the update has a low "intrinsic rank". It trains two smaller matrices (A and B) that, when multiplied (BA), approximate the necessary weight update, drastically reducing trainable parameters.
  • Benefits:
    • Efficiency: Enables training on a single GPU (e.g., consumer gaming PCs).
    • Portability: LoRA files are small (often ~100MB), making them easy to share, store, and swap.
    • No Catastrophic Forgetting: Since the base model is frozen, the original knowledge is preserved.
  • Applications:
    • Stable Diffusion: Used for learning new art styles, characters, or concepts.
    • LLMs: Fine-tuning models like LLaMA or GPT for specific domains (e.g., legal or medical).
  • Comparison: Unlike full fine-tuning, which updates all parameters, LoRA only trains a fraction, leading to faster, cheaper, and more sustainable AI customization.

 


B. If A.I. Is a Weapon, Who Should Control It? Douthat, Ross.  New York Times (Online) New York Times Company. Feb 28, 2026.