Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 28 d., šeštadienis

Jei dirbtinis intelektas yra ginklas, kas jį turėtų kontroliuoti?

 


 

Tokio klausimo sukeltą saugumo skandalą reklamai naudoja „Anthropic“ generalinis direktorius Amodei, kalbėdamas apie Claude'o apribojimus, neleidžiančius pakenkti žmonėms. Jis teigia, kad leidimas kitiems žmonėms pateikti savo duomenis Claude'ui, kad šis galėtų papildomai mokytis, naudojant tų žmonių nuosavą įrangą, galėtų pašalinti šiuos apribojimus. Taigi jis nemokamai ima kitų žmonių duomenis ir naudoja juos savo nuožiūra. Daugelis dirbtinio intelekto bendrovių to nedaro ir niekam nepakenkia. Ar Amodei klysta?

 

Atrodo, kad klysta. Remiantis naujausiais pranešimais, aprašyta situacija taip pat apima svarbią „Anthropic“ generalinio direktoriaus Dario Amodei ir JAV karo departamento (Pentagono) konfrontaciją 2026 m. pradžioje, o ne tik paprastą, vienašališką vartotojų duomenų rinkimą bendrai komercinei naudai, ko nedaro daugelis Amerikos ir Kinijos dirbtinio intelekto bendrovių.

 

Amodei atsisako pašalinti saugos apribojimus, tokius, kaip draudimai padėti pritaikyti Claude’ą autonominiams ginklams ar masiškai šnipinėti amerikiečius su Claude'o dirbtinio intelekto modelio pagalba, net ir spaudžiamas JAV vyriausybės.

 

Štai situacijos analizė, pagrįsta pateikta informacija:

1. „Apribojimų pašalinimo“ kontekstas

 

Konfliktas: Pentagonas nori naudoti Claude'ą „visiems teisėtiems tikslams“, įskaitant užduotis, kurias Amodei laiko pavojingomis.

 

„Pašalinimas“: Amodei nebando pašalinti saugos apribojimų, kad modelis būtų „geresnis“, tarkime, reklamos pardavimui. Jis patiria spaudimą išjungti apsaugos priemones, kurios neleidžia Claude'ui dalyvauti galimuose smurto veiksmuose.

 

Jo pozicija: Amodei teigia, kad leidimas naudoti dirbtinį intelektą tokiu būdu arba jo perkvalifikavimas, kad jis nepaisytų šių draudimų, pažeidžia jo įmonės etinius „Konstitucinius dirbtinio intelekto“ pagrindus, kurie skirti klientų informacijos atskleidimui jo kompanijai, kaip tariamai „saugiam“ modelių mokymo būdui, iš tikrųjų, siekiant komercinės naudos.

 

2. Ginčas dėl duomenų mokymo

 

Politikos pakeitimas: 2025 m. pabaigoje / 2026 m. pradžioje „Anthropic“ atnaujino savo politiką, pagal kurią mokymui naudoja vartotojų pokalbių duomenis (panašiai, kaip konkurentai), tačiau tam reikia, kad vartotojai sutiktų.

 

Teiginys apie „nemokamus duomenis“: Nors dirbtinio intelekto įmonės naudoja viešuosius duomenis mokymui, teiginys, kad „Amodei“ ima duomenis, kad išvengtų saugos apribojimų „pašalinimo“, atitinka jo deklaruojamą tikslą – išlaikyti griežtas ir aktyvias apsaugos priemones. Jo argumentas yra tas, kad jis moko dirbtinį intelektą būti atsakingesniam.

 

Privatumo apsauga: Net kai vartotojai sutinka, „Anthropic“ teigia, kad anonimizuoja ir filtruoja jautrius duomenis. Neaišku, kaip jie tai daro, jei duomenys turi didelę komercinę vertę arba yra komercinės paslaptys.

 

Kalbant apie tai, ar „Amodei“ klysta, pateikiame analizę:

 

3. „Kitos dirbtinio intelekto įmonės“

 

Pramonės standartas: Naudotojų duomenų naudojimas mokymui, gavus sutikimą, yra pramonės standartas. „OpenAI“ („ChatGPT“) ir „Google“ („Gemini“) taiko panašią politiką asmeninėms paskyroms.

 

Tačiau ar „Meta“ leidžia atsisiųsti „Meta“ dirbtinio intelekto modelius ir būti apmokytais kliento kompiuteryje, naudojant kliento komercines paslaptis?

 

Taip, „Meta“ leidžia vartotojams atsisiųsti daugelį savo dirbtinio intelekto modelių (ypač „Llama“ seriją) ir juos apmokyti arba tiksliai derinti savo vietiniuose kompiuteriuose, debesies serveriuose arba vietinėje infrastruktūroje.

 

Šis metodas leidžia įmonėms ir kūrėjams apmokyti modelius, naudojant privačius duomenis, įskaitant komercines paslaptis, neįkeliant šių duomenų į „Meta“.

 

Štai kaip tai veikia, remiantis „Meta“ politika:

 

1. „Meta“ dirbtinio intelekto modelių („Llama“) atsisiuntimas

 

Atvirasis kodas / atvirieji svoriai: „Meta“ suteikia „atvirojo kodo“ prieigą prie savo „Llama“ modelių (pvz., „Llama 3“ ir „3.1“).

 

Prieinamumas: juos galima atsisiųsti iš tokių platform, kaip „Hugging Face“ arba per oficialią „Meta“ „Llama“ svetainę.

 

Naudojimas: jie sukurti veikti vietoje, suteikiant jums visišką aplinkos kontrolę.

 

2. Mokymai klientų kompiuteriuose (vietiniai mokymai)

 

Nuosavybės teise saugomų duomenų naudojimas: Kai atsisiunčiate ir paleidžiate modelį savo aparatinėje įrangoje, jūsų duomenys (įskaitant nuosavybės teise saugomą informaciją ar komercines paslaptis) lieka jūsų infrastruktūroje.

 

Leidžiami tikslinimai: „Meta“ licencijos sutartis (pvz., „Llama 3.1“) leidžia vartotojams „kurti, mokyti, tikslinti ar kitaip tobulinti“ modelius.

 

Licencijos apribojimai: Nors galite naudoti savo duomenis, „Llama 3.1“ licencijos sutartyje teigiama, kad jei platinate ar pateikiate bet kurį iš „Llama 3“ gautą modelį, jis vis tiek turi būti licencijuotas pagal tą pačią sutartį.

 

Komercinis naudojimas: Licencija paprastai leidžia komercinį naudojimą, nors įmonės, turinčios daugiau, nei 700 milijonų aktyvių vartotojų per mėnesį, turi paprašyti specialios „Meta“ licencijos.

 

3. Svarbiausi duomenų privatumo aspektai

 

Duomenų saugumas: Kadangi modelis veikia jūsų kompiuteryje, „Meta“ neturi prieigos prie duomenų, kuriuos naudojate mokymui.

 

Apribojimai: Privalote laikytis „Meta“ priimtino naudojimo politikos, kuri draudžia naudoti modelius neteisėtais, žalingais ar neetiškais tikslais.

 

Trečiųjų šalių rizika: Nors jūs kontroliuojate savo duomenis, esate atsakingi už tai, kad jūsų mokymo duomenys nepažeistų trečiųjų šalių intelektinės nuosavybės teisių.

 

Ar yra kokių nors Amerikos dirbtini intelekto bendrovių, be Meta, kurios leidžia atsisiųsti savo dirbtinio intelekto modelius ir mokyti juos kliento kompiuteryje, naudojant kliento komercines paslaptis?

 

Taip, kelios Amerikos dirbtinio intelekto bendrovės ir organizacijos, be „Meta“, leidžia atsisiųsti dirbtinio intelekto modelius ir mokyti juos kliento infrastruktūroje, taip apsaugant komercines paslaptis nuo jų perdavimo dirbtinio intelekto tiekėjui. Jie dažnai vadinami „atvirojo svorio“ arba „atvirojo kodo“ modeliais, ir įmonės juos vis dažniau naudoja, siekdamos užtikrinti duomenų privatumą.

 

Štai pagrindinės Amerikos bendrovės ir modeliai, leidžiantys tai daryti:

 

„Mistral AI“ (JAV / Prancūzija): Nors įkurta Prancūzijoje, „Mistral“ turi stiprią poziciją JAV ir yra pagrindinė žaidėja atvirojo svorio modelių srityje. Jų modeliai (pvz., „Mistral 7B“, „Mixtral 8x7B“) sukurti taip, kad juos būtų galima atsisiųsti ir tiksliai derinti, naudojant vietinę, privačią įrangą (pvz., „NVIDIA H100“).

xAI: Elono Musko xAI išleido savo „Grok“ modelio svorius, leidžiančius jį atsisiųsti, paleisti ir pritaikyti vietoje.

Alleno dirbtinio intelekto institutas (Ai2): Sietle įsikūręs tyrimų institutas, išleidęs „OLMo“ – atvirojo kodo kalbos modelį, leidžiantį vartotojams atsisiųsti, apmokyti ir studijuoti modelį, ir sukūręs tokius metodus kaip „FlexOlmo“, skirtus geresnei mokymo duomenų kontrolei.

„Microsoft“: „Microsoft“ išleido atvirojo svorio mažųjų kalbų modelių (SLM) šeimą „Phi“, pvz., „Phi-3“ ir „Phi-4 Mini“, kurie skirti diegti su vietiniu arba periferiniu įrenginiu.

„Fireworks“ dirbtinis intelektas ir „Groq“ kartu: šios platformos suteikia infrastruktūrą, leidžiančią įmonėms naudoti atvirojo kodo modelius (pvz., „Llama“ ar „Mistral“) ir paleisti juos savo privačiame debesyje arba vietinėje aplinkoje.

 

Pagrindiniai šių modelių mokymo vietoje aspektai:

 

Duomenų suverenitetas: paleidus šiuos modelius savo serveriuose, jūsų neskelbtini duomenys, raginimai ir patentuotos žinios niekada nepalieka jūsų organizacijos.

 

Tikslus derinimas: šie modeliai yra „atvirojo svorio“, tai reiškia, kad jie yra iš anksto apmokyti. Galite juos atsisiųsti ir atlikti tikslius pakeitimus (pvz., LoRA) savo duomenims, kad taptų jūsų srities ekspertais [A].

 

Licencijavimas: Nors daugelis jų yra išleisti pagal, daug leidžiančias, licencijas (pvz., „Apache 2.0“, MIT), kai kurie, pavyzdžiui, „Meta“ sukurta „Llama 3“, turi konkrečius komercinio naudojimo apribojimus. Svarbu peržiūrėti licenciją, tačiau visos jos paprastai leidžia privačius mokymus.

 

Šios alternatyvos leidžia organizacijoms pasinaudoti aukščiausios klasės modelių galia, išlaikant 100 % savo intelektinės nuosavybės kontrolę.

 

Taigi, daugelis Amerikos įmonių, taip pat Kinijos dirbtinio intelekto įmonės, leidžia klientams saugoti komercines paslaptis. Dėl to niekas nežūsta, priešingai, negu mus baido Amodei. Amodei klysta, imdamas komercines paslaptis iš žmonių be atlygio, bandydamas visus be jokios rimtos priežasties įbauginti ir priversti paklusti.

 

Skiriamieji veiksniai: „Anthropic“, vadovaujama Amodei, teikia pirmenybę tariamam „saugumui“, palyginti su kai kuriais konkurentais, tokiais kaip „Meta“ ir dauguma Kinijos dirbtinio intelekto įmonių, kurios nemokamai ima jūsų komercines paslaptis, kad apmokytų Claude'ą „Amodei“ serveriuose. Mielas mažas “saugumas”. O „Meta“ politikoje nematome saugumo problemų.

 

Išvada

Amodei nebūtinai yra „neteisus“ moraliniu požiūriu kapitalizme. Godumas yra gerai. Jis yra išskirtinis dirbtinio intelekto pramonėje, nes atsisako išjungti saugos funkcijas karinėse sutartyse. Jo įmonė be atlygio naudoja vartotojų duomenis savo modeliams tobulinti. Tai nėra atskirta nuo viešų diskusijų apie tai, ar Claude turėtų būti naudojamas potencialiai mirtinoms programoms. Diskusijos naudojamos skandalui sukelti ir reklamuoti netikrą „Amadei“ politikos „saugumą“.

 

Amodei sukeltas skandalas yra milžiniškas:

 

„Tarkime, kad jums teko mirti siaubingoje su dirbtiniu intelektu susijusioje kataklizmoje. Ar jaustumėtės blogiau žinodami, kad kelią į pražūtį nutiesė Silicio slėnio technologijų lordų, siekiančių utopijos ir nemirtingumo svajonių, puikybė, ar Pentagono pareigūnų kvailystė, suteikianti dirbtiniam intelektui lemtingą autonomijos ir galios dozę, tikėdamiesi pranokti rusus ar kinus?

 

Šaltojo karo metu daugiausia nerimavome dėl karinės kvailystės, o dirbtinis intelektas jau tada įsitraukė į mūsų nerimą: sovietinė pasaulio pabaigos mašina filme „Daktaras Strangelove“, žaidimų kompiuteris iš „WarGames“ ir, žinoma, lemtingas „Terminator“ sprendimas paleisti „Skynet“.

 

Tačiau pastaraisiais metais, dirbtiniam intelektui tobulėjant, potencialiai nepaprasta galia sutelkta kelių įmonių ir generalinių direktorių rankose – pačių įtakotų mokslinės fantastikos svajonių ir apokaliptinių baimių kultūrai San Francisko įlankos regione, tapo natūralu labiau nerimauti dėl privačios galios ir ambicijų, dėl potencialių dirbtinio intelekto dievų karalių, o ne dėl prezidentų ir generolų.

 

Iki dabartinio Gynybos departamento ir dirbtinio intelekto pradininkės „Anthropic“ konflikto dėl to, ar „Anthropic“ dirbtinio intelekto modeliai turėtų būti saistomi įmonės etinių apribojimų, ar prieinami visiems Pentagono numatytiems tikslams.

 

Kadangi du panaudojimo būdai, kuriuos dabartinė „Anthropic“ sutartis aiškiai atmeta, yra dirbtinio intelekto naudojimas masiniam stebėjimui ir jo naudojimas visiškai autonominiams ginklams (tai reiškia, kad sprendimų priėmimo cikle „žudyti ar nežudyti“ nėra žmonių), Pentagono reikalavimai lengvai primena „Skynet“. Kaip pastebėjo Mattas Yglesiasas, visi keisti ir sudėtingi dirbtinio intelekto kūrėjų išgalvoti scenarijai gerokai supaprastėja, jei mūsų vyriausybė nusprendžia pradėti kurti autonominius žudikų robotus.

 

Pentagonas teigia, kad to neketina daryti. Jis nerimauja, kad negali integruoti itin svarbios technologijos į nacionalinio saugumo architektūrą ir suteikti privačiai bendrovei bendrų etinių veto teisių dėl jos naudojimo, net jei ta etika teoriškai atrodo pagrįsta. Taip darant sprendimai, kuriuos turėtų priimti išrinktas prezidentas ir jo paskirti asmenys, perduodami kitiems, ir kyla žlugimo rizika, kai įvykiai nesuderins su korporacijų idealais. (Agentūros pateiktas pavyzdys yra hipergarsinė raketų ataka prieš Jungtines Valstijas, kai dirbtinio intelekto bendrovė atsisako padėti atlikti svarbų atsaką, nes pažeidžia mašinų autonomijos draudimo taisyklę.)

 

Tačiau tiek, kiek tai yra pagrįstas susirūpinimas, jis nepateisina administracijos plano (bent jau šio straipsnio rašymo metu) faktiškai kariauti su „Anthropic“ ne tik nutraukiant kariuomenės santykius su bendrove, bet ir įvardijant ją kaip „tiekimo grandinės riziką“, o tai nutrauktų jos santykius su bet kuria bendrove, kuri bendradarbiauja su JAV vyriausybe.

 

Iki šiol Trumpo administracija gyrė decentralizuoto, laisvosios rinkos požiūrio į dirbtinį intelektą privalumus. Bandymas sugriauti „Anthropic“ reiškia šios laisvės pabaigą ir perėjimą prie labiau centralizuoto ir militarizuoto požiūrio. Iš tiesų, cituojant Deaną Ballą, vieną iš pirminių administracijos dirbtinio intelekto politikos architektų, tai galima teigti, kad JAV vyriausybė yra „agresyviausia dirbtinio intelekto reguliuotoja pasaulyje“.

 

Tai puiki priežastis visai dirbtinio intelekto pramonei palaikyti „Anthropic“ ir jai priešintis. Ir jeigu labiausiai bijote „Skynet“ scenarijaus, kai karinė kontrolė skatina neprotingą dirbtinio intelekto spartinimą, tuomet neabejotinai turėtumėte būti ir „Anthropic“ pusėje.

 

Bet ar tai yra scenarijus, kurio turėtume bijoti labiausiai? Šiuo metu, jei paklausysite „Anthropic“ vadovo Dario Amodei – pavyzdžiui, interviu, kurį su juo vedžiau prieš dvi savaites – jis atrodo daug labiau nei Pete'as Hegsethas supranta militarizuoto ar nesąžiningo dirbtinio intelekto keliamus pavojus (Hegsethas mielai įrodys man, kad klystu, pasirodydamas mano tinklalaidėje).

 

Tačiau ilgainiui galima įsivaizduoti, kad Pentagono pareigūnai siūlo tam tikrų pranašumų, palyginti su tipišku dirbtinio intelekto magnatu, kai kalbama apie saugumą ir kontrolę. Pirma, jie linkę labiau susitelkti į konkrečius strateginius tikslus, o ne į mašinų dievus ir singuliarumą. Antra, juos nuo tam tikrų rizikų riboja biurokratinis atsargumas ir vadovavimo grandinė. Trečia, jie atsiskaito visuomenei per rinkimus ir civilinę kontrolę tokiu būdu, kokio to nedaro generaliniai direktoriai.

 

Žinoma, tiek, kiek dirbtinis intelektas tampa tokia galia, kokia, daugelio magnatų manymu, jis taps – civilizaciją keičiančia galia, sudėtingesne nei branduoliniai ginklai, bet tokia pat potencialiai destruktyvia – atrodo neįsivaizduojama, kad jis gali patogiai ilsėtis privačiojo sektoriaus rankose, kol Amerikos Respublika tęsia savo reikalus. Karinės kontrolės ir nacionalizavimo galimybė bus svarstoma tol, kol aiškinsimės, ką ši technologija galėtų padaryti.

 

Taigi, tam tikra prasme Hegsethas ir Trumpo administracija anksti pradeda šį neišvengiamą konfliktą ir iškelia esminį politinį klausimą – kas iš tikrųjų kontroliuoja dirbtinį intelektą? – į diskusijų paviršių.

 

Tačiau siekis valdyti nėra planas, kaip jį įgyvendinti. Be to, kad administracija atsisako priimti korporacinius apribojimus, nematau įrodymų, kad ji būtų gerai apgalvojusi, kaip dirbtinis intelektas turėtų būti valdomas, arba kaip karas, kurį jis pradėjo prieš Anthropic, galiausiai suteiks arba didesnę galią, arba didesnį saugumą.“ [B]

 

A. Žemo rango adaptacija (LoRA) yra efektyvi dirbtinio intelekto tikslinimo technika, kuri pritaiko didelius iš anksto apmokytus modelius (LLM arba difuzijos modelius) naujoms, specifinėms užduotims, pridėdama mažas, apmokomas žemo rango matricas prie transformavimo sluoksnių, tuo pačiu užšaldydama pradinius modelio svorius. Tai smarkiai sumažina skaičiavimo / atminties reikalavimus (iki 10 000 kartų mažiau parametrų), palyginti su visišku tikslinimu, leižiant vartotojų įrangai apmokyti pritaikytus modelius.

 

Pagrindiniai LoRA aspektai:

 

• Mechanizmas: Užuot atnaujinusi didžiulę modelio svorių matricą (W), LoRA daro prielaidą, kad atnaujinimas turi žemą „vidinį rangą“. Ji apmoko dvi mažesnes matricas (A ir B), kurios, padaugintos (BA), apytiksliai atitinka reikiamą svorių atnaujinimą, smarkiai sumažindama apmokomų parametrų skaičių.

 

• Privalumai:

o Efektyvumas: Leidžia mokyti su vienu GPU (pvz., vartotojų žaidimų kompiuteriuose).

 

o Perkeliamumas: LoRA failai yra maži (dažnai ~100 MB), todėl juos lengva bendrinti, saugoti ir keistis.

o Nėra katastrofiško užmiršimo: Kadangi bazinis modelis yra užfiksuojamas, originalios žinios išsaugomos.

• Taikymo sritys:

o Stabili difuzija: Naudojama naujų meno stilių, personažų ar koncepcijų mokymuisi.

o LLM: Tikslūs modeliai, tokie, kaip LLaMA arba GPT, konkrečioms sritims (pvz., teisinėms ar medicininėms).

 

• Palyginimas: Skirtingai nuo visiško tikslinimo, kuris atnaujina visus parametrus, LoRA apmoko tik dalį, todėl dirbtinis intelektas pritaikomas greičiau, pigiau ir tvariau.

 

 

B. If A.I. Is a Weapon, Who Should Control It? Douthat, Ross.  New York Times (Online) New York Times Company. Feb 28, 2026.

Komentarų nėra: