Tokio klausimo sukeltą saugumo skandalą reklamai naudoja
„Anthropic“ generalinis direktorius Amodei, kalbėdamas apie Claude'o
apribojimus, neleidžiančius pakenkti žmonėms. Jis teigia, kad leidimas kitiems
žmonėms pateikti savo duomenis Claude'ui, kad šis galėtų papildomai mokytis,
naudojant tų žmonių nuosavą įrangą, galėtų pašalinti šiuos apribojimus. Taigi jis
nemokamai ima kitų žmonių duomenis ir naudoja juos savo nuožiūra. Daugelis
dirbtinio intelekto bendrovių to nedaro ir niekam nepakenkia. Ar Amodei klysta?
Atrodo, kad klysta. Remiantis naujausiais pranešimais,
aprašyta situacija taip pat apima svarbią „Anthropic“ generalinio direktoriaus
Dario Amodei ir JAV karo departamento (Pentagono) konfrontaciją 2026 m.
pradžioje, o ne tik paprastą, vienašališką vartotojų duomenų rinkimą bendrai
komercinei naudai, ko nedaro daugelis Amerikos ir Kinijos dirbtinio intelekto
bendrovių.
Amodei atsisako pašalinti saugos apribojimus, tokius, kaip
draudimai padėti pritaikyti Claude’ą autonominiams ginklams ar masiškai šnipinėti
amerikiečius su Claude'o dirbtinio intelekto modelio pagalba, net ir
spaudžiamas JAV vyriausybės.
Štai situacijos analizė, pagrįsta pateikta informacija:
1. „Apribojimų pašalinimo“ kontekstas
Konfliktas: Pentagonas nori naudoti Claude'ą „visiems
teisėtiems tikslams“, įskaitant užduotis, kurias Amodei laiko pavojingomis.
„Pašalinimas“: Amodei nebando pašalinti saugos apribojimų,
kad modelis būtų „geresnis“, tarkime, reklamos pardavimui. Jis patiria spaudimą
išjungti apsaugos priemones, kurios neleidžia Claude'ui dalyvauti galimuose
smurto veiksmuose.
Jo pozicija: Amodei teigia, kad leidimas naudoti dirbtinį
intelektą tokiu būdu arba jo perkvalifikavimas, kad jis nepaisytų šių draudimų,
pažeidžia jo įmonės etinius „Konstitucinius dirbtinio intelekto“ pagrindus,
kurie skirti klientų informacijos atskleidimui jo kompanijai, kaip tariamai „saugiam“
modelių mokymo būdui, iš tikrųjų, siekiant komercinės naudos.
2. Ginčas dėl duomenų mokymo
Politikos pakeitimas: 2025 m. pabaigoje / 2026 m. pradžioje
„Anthropic“ atnaujino savo politiką, pagal kurią mokymui naudoja vartotojų
pokalbių duomenis (panašiai, kaip konkurentai), tačiau tam reikia, kad
vartotojai sutiktų.
Teiginys apie „nemokamus duomenis“: Nors dirbtinio intelekto
įmonės naudoja viešuosius duomenis mokymui, teiginys, kad „Amodei“ ima
duomenis, kad išvengtų saugos apribojimų „pašalinimo“, atitinka jo deklaruojamą
tikslą – išlaikyti griežtas ir aktyvias apsaugos priemones. Jo argumentas yra
tas, kad jis moko dirbtinį intelektą būti atsakingesniam.
Privatumo apsauga: Net kai vartotojai sutinka, „Anthropic“
teigia, kad anonimizuoja ir filtruoja jautrius duomenis. Neaišku, kaip jie tai
daro, jei duomenys turi didelę komercinę vertę arba yra komercinės paslaptys.
Kalbant apie tai, ar „Amodei“ klysta, pateikiame analizę:
3. „Kitos dirbtinio intelekto įmonės“
Pramonės standartas: Naudotojų duomenų naudojimas mokymui,
gavus sutikimą, yra pramonės standartas. „OpenAI“ („ChatGPT“) ir „Google“
(„Gemini“) taiko panašią politiką asmeninėms paskyroms.
Tačiau ar
„Meta“ leidžia atsisiųsti „Meta“ dirbtinio intelekto modelius ir būti apmokytais
kliento kompiuteryje, naudojant kliento komercines paslaptis?
Taip, „Meta“
leidžia vartotojams atsisiųsti daugelį savo dirbtinio intelekto modelių (ypač
„Llama“ seriją) ir juos apmokyti arba tiksliai derinti savo vietiniuose
kompiuteriuose, debesies serveriuose arba vietinėje infrastruktūroje.
Šis metodas
leidžia įmonėms ir kūrėjams apmokyti modelius, naudojant privačius duomenis,
įskaitant komercines paslaptis, neįkeliant šių duomenų į „Meta“.
Štai kaip tai veikia, remiantis „Meta“ politika:
1. „Meta“ dirbtinio intelekto modelių („Llama“)
atsisiuntimas
Atvirasis kodas / atvirieji svoriai: „Meta“ suteikia
„atvirojo kodo“ prieigą prie savo „Llama“ modelių (pvz., „Llama 3“ ir „3.1“).
Prieinamumas: juos galima atsisiųsti iš tokių platform, kaip
„Hugging Face“ arba per oficialią „Meta“ „Llama“ svetainę.
Naudojimas: jie sukurti veikti vietoje, suteikiant jums
visišką aplinkos kontrolę.
2. Mokymai klientų kompiuteriuose (vietiniai mokymai)
Nuosavybės
teise saugomų duomenų naudojimas: Kai atsisiunčiate ir paleidžiate modelį savo
aparatinėje įrangoje, jūsų duomenys (įskaitant nuosavybės teise saugomą
informaciją ar komercines paslaptis) lieka jūsų infrastruktūroje.
Leidžiami
tikslinimai: „Meta“ licencijos sutartis (pvz., „Llama 3.1“) leidžia vartotojams
„kurti, mokyti, tikslinti ar kitaip tobulinti“ modelius.
Licencijos
apribojimai: Nors galite naudoti savo duomenis, „Llama 3.1“ licencijos
sutartyje teigiama, kad jei platinate ar pateikiate bet kurį iš „Llama 3“ gautą
modelį, jis vis tiek turi būti licencijuotas pagal tą pačią sutartį.
Komercinis
naudojimas: Licencija paprastai leidžia komercinį naudojimą, nors įmonės,
turinčios daugiau, nei 700 milijonų aktyvių vartotojų per mėnesį, turi
paprašyti specialios „Meta“ licencijos.
3. Svarbiausi duomenų privatumo aspektai
Duomenų
saugumas: Kadangi modelis veikia jūsų kompiuteryje, „Meta“ neturi prieigos prie
duomenų, kuriuos naudojate mokymui.
Apribojimai: Privalote laikytis „Meta“ priimtino naudojimo
politikos, kuri draudžia naudoti modelius neteisėtais, žalingais ar neetiškais
tikslais.
Trečiųjų šalių rizika: Nors jūs kontroliuojate savo
duomenis, esate atsakingi už tai, kad jūsų mokymo duomenys nepažeistų trečiųjų
šalių intelektinės nuosavybės teisių.
Ar yra kokių
nors Amerikos dirbtini intelekto bendrovių, be Meta, kurios leidžia atsisiųsti
savo dirbtinio intelekto modelius ir mokyti juos kliento kompiuteryje,
naudojant kliento komercines paslaptis?
Taip, kelios
Amerikos dirbtinio intelekto bendrovės ir organizacijos, be „Meta“, leidžia
atsisiųsti dirbtinio intelekto modelius ir mokyti juos kliento
infrastruktūroje, taip apsaugant komercines paslaptis nuo jų perdavimo
dirbtinio intelekto tiekėjui. Jie dažnai vadinami „atvirojo svorio“ arba
„atvirojo kodo“ modeliais, ir įmonės juos vis dažniau naudoja, siekdamos
užtikrinti duomenų privatumą.
Štai pagrindinės Amerikos bendrovės ir modeliai, leidžiantys
tai daryti:
„Mistral AI“ (JAV / Prancūzija): Nors įkurta Prancūzijoje,
„Mistral“ turi stiprią poziciją JAV ir yra pagrindinė žaidėja atvirojo svorio
modelių srityje. Jų modeliai (pvz., „Mistral 7B“, „Mixtral 8x7B“) sukurti taip,
kad juos būtų galima atsisiųsti ir tiksliai derinti, naudojant vietinę,
privačią įrangą (pvz., „NVIDIA H100“).
xAI: Elono Musko xAI išleido savo „Grok“ modelio svorius,
leidžiančius jį atsisiųsti, paleisti ir pritaikyti vietoje.
Alleno dirbtinio intelekto institutas (Ai2): Sietle įsikūręs
tyrimų institutas, išleidęs „OLMo“ – atvirojo kodo kalbos modelį, leidžiantį
vartotojams atsisiųsti, apmokyti ir studijuoti modelį, ir sukūręs tokius
metodus kaip „FlexOlmo“, skirtus geresnei mokymo duomenų kontrolei.
„Microsoft“: „Microsoft“ išleido atvirojo svorio mažųjų
kalbų modelių (SLM) šeimą „Phi“, pvz., „Phi-3“ ir „Phi-4 Mini“, kurie skirti
diegti su vietiniu arba periferiniu įrenginiu.
„Fireworks“ dirbtinis intelektas ir „Groq“ kartu: šios
platformos suteikia infrastruktūrą, leidžiančią įmonėms naudoti atvirojo kodo
modelius (pvz., „Llama“ ar „Mistral“) ir paleisti juos savo privačiame debesyje
arba vietinėje aplinkoje.
Pagrindiniai šių modelių mokymo vietoje aspektai:
Duomenų
suverenitetas: paleidus šiuos modelius savo serveriuose, jūsų neskelbtini
duomenys, raginimai ir patentuotos žinios niekada nepalieka jūsų organizacijos.
Tikslus
derinimas: šie modeliai yra „atvirojo svorio“, tai reiškia, kad jie yra iš
anksto apmokyti. Galite juos atsisiųsti ir atlikti tikslius pakeitimus (pvz.,
LoRA) savo duomenims, kad taptų jūsų srities ekspertais [A].
Licencijavimas: Nors daugelis jų yra išleisti pagal, daug
leidžiančias, licencijas (pvz., „Apache 2.0“, MIT), kai kurie, pavyzdžiui,
„Meta“ sukurta „Llama 3“, turi konkrečius komercinio naudojimo apribojimus.
Svarbu peržiūrėti licenciją, tačiau visos jos paprastai leidžia privačius
mokymus.
Šios
alternatyvos leidžia organizacijoms pasinaudoti aukščiausios klasės modelių
galia, išlaikant 100 % savo intelektinės nuosavybės kontrolę.
Taigi, daugelis Amerikos įmonių, taip pat Kinijos dirbtinio
intelekto įmonės, leidžia klientams saugoti komercines paslaptis. Dėl to niekas
nežūsta, priešingai, negu mus baido Amodei. Amodei klysta, imdamas komercines
paslaptis iš žmonių be atlygio, bandydamas visus be jokios rimtos priežasties
įbauginti ir priversti paklusti.
Skiriamieji veiksniai: „Anthropic“, vadovaujama Amodei,
teikia pirmenybę tariamam „saugumui“, palyginti su kai kuriais konkurentais,
tokiais kaip „Meta“ ir dauguma Kinijos dirbtinio intelekto įmonių, kurios
nemokamai ima jūsų komercines paslaptis, kad apmokytų Claude'ą „Amodei“
serveriuose. Mielas mažas “saugumas”. O „Meta“ politikoje nematome saugumo
problemų.
Išvada
Amodei nebūtinai yra „neteisus“ moraliniu požiūriu
kapitalizme. Godumas yra gerai. Jis yra išskirtinis dirbtinio intelekto
pramonėje, nes atsisako išjungti saugos funkcijas karinėse sutartyse. Jo įmonė
be atlygio naudoja vartotojų duomenis savo modeliams tobulinti. Tai nėra
atskirta nuo viešų diskusijų apie tai, ar Claude turėtų būti naudojamas
potencialiai mirtinoms programoms. Diskusijos naudojamos skandalui sukelti ir
reklamuoti netikrą „Amadei“ politikos „saugumą“.
Amodei sukeltas skandalas yra milžiniškas:
„Tarkime, kad jums teko mirti siaubingoje su dirbtiniu
intelektu susijusioje kataklizmoje. Ar jaustumėtės blogiau žinodami, kad kelią
į pražūtį nutiesė Silicio slėnio technologijų lordų, siekiančių utopijos ir
nemirtingumo svajonių, puikybė, ar Pentagono pareigūnų kvailystė, suteikianti
dirbtiniam intelektui lemtingą autonomijos ir galios dozę, tikėdamiesi pranokti
rusus ar kinus?
Šaltojo karo metu daugiausia nerimavome dėl karinės
kvailystės, o dirbtinis intelektas jau tada įsitraukė į mūsų nerimą: sovietinė
pasaulio pabaigos mašina filme „Daktaras Strangelove“, žaidimų kompiuteris iš
„WarGames“ ir, žinoma, lemtingas „Terminator“ sprendimas paleisti „Skynet“.
Tačiau pastaraisiais metais, dirbtiniam intelektui
tobulėjant, potencialiai nepaprasta galia sutelkta kelių įmonių ir generalinių
direktorių rankose – pačių įtakotų mokslinės fantastikos svajonių ir
apokaliptinių baimių kultūrai San Francisko įlankos regione, tapo natūralu
labiau nerimauti dėl privačios galios ir ambicijų, dėl potencialių dirbtinio
intelekto dievų karalių, o ne dėl prezidentų ir generolų.
Iki dabartinio Gynybos departamento ir dirbtinio intelekto
pradininkės „Anthropic“ konflikto dėl to, ar „Anthropic“ dirbtinio intelekto
modeliai turėtų būti saistomi įmonės etinių apribojimų, ar prieinami visiems
Pentagono numatytiems tikslams.
Kadangi du panaudojimo būdai, kuriuos dabartinė „Anthropic“
sutartis aiškiai atmeta, yra dirbtinio intelekto naudojimas masiniam stebėjimui
ir jo naudojimas visiškai autonominiams ginklams (tai reiškia, kad sprendimų
priėmimo cikle „žudyti ar nežudyti“ nėra žmonių), Pentagono reikalavimai
lengvai primena „Skynet“. Kaip pastebėjo Mattas Yglesiasas, visi keisti ir
sudėtingi dirbtinio intelekto kūrėjų išgalvoti scenarijai gerokai supaprastėja,
jei mūsų vyriausybė nusprendžia pradėti kurti autonominius žudikų robotus.
Pentagonas teigia, kad to neketina daryti. Jis nerimauja,
kad negali integruoti itin svarbios technologijos į nacionalinio saugumo
architektūrą ir suteikti privačiai bendrovei bendrų etinių veto teisių dėl jos
naudojimo, net jei ta etika teoriškai atrodo pagrįsta. Taip darant sprendimai,
kuriuos turėtų priimti išrinktas prezidentas ir jo paskirti asmenys, perduodami
kitiems, ir kyla žlugimo rizika, kai įvykiai nesuderins su korporacijų
idealais. (Agentūros pateiktas pavyzdys yra hipergarsinė raketų ataka prieš
Jungtines Valstijas, kai dirbtinio intelekto bendrovė atsisako padėti atlikti
svarbų atsaką, nes pažeidžia mašinų autonomijos draudimo taisyklę.)
Tačiau tiek, kiek tai yra pagrįstas susirūpinimas, jis
nepateisina administracijos plano (bent jau šio straipsnio rašymo metu)
faktiškai kariauti su „Anthropic“ ne tik nutraukiant kariuomenės santykius su
bendrove, bet ir įvardijant ją kaip „tiekimo grandinės riziką“, o tai nutrauktų
jos santykius su bet kuria bendrove, kuri bendradarbiauja su JAV vyriausybe.
Iki šiol Trumpo administracija gyrė decentralizuoto,
laisvosios rinkos požiūrio į dirbtinį intelektą privalumus. Bandymas sugriauti
„Anthropic“ reiškia šios laisvės pabaigą ir perėjimą prie labiau centralizuoto
ir militarizuoto požiūrio. Iš tiesų, cituojant Deaną Ballą, vieną iš pirminių
administracijos dirbtinio intelekto politikos architektų, tai galima teigti,
kad JAV vyriausybė yra „agresyviausia dirbtinio intelekto reguliuotoja
pasaulyje“.
Tai puiki priežastis visai dirbtinio intelekto pramonei
palaikyti „Anthropic“ ir jai priešintis. Ir jeigu labiausiai bijote „Skynet“
scenarijaus, kai karinė kontrolė skatina neprotingą dirbtinio intelekto
spartinimą, tuomet neabejotinai turėtumėte būti ir „Anthropic“ pusėje.
Bet ar tai yra scenarijus, kurio turėtume bijoti labiausiai?
Šiuo metu, jei paklausysite „Anthropic“ vadovo Dario Amodei – pavyzdžiui,
interviu, kurį su juo vedžiau prieš dvi savaites – jis atrodo daug labiau nei
Pete'as Hegsethas supranta militarizuoto ar nesąžiningo dirbtinio intelekto
keliamus pavojus (Hegsethas mielai įrodys man, kad klystu, pasirodydamas mano
tinklalaidėje).
Tačiau ilgainiui galima įsivaizduoti, kad Pentagono
pareigūnai siūlo tam tikrų pranašumų, palyginti su tipišku dirbtinio intelekto
magnatu, kai kalbama apie saugumą ir kontrolę. Pirma, jie linkę labiau
susitelkti į konkrečius strateginius tikslus, o ne į mašinų dievus ir
singuliarumą. Antra, juos nuo tam tikrų rizikų riboja biurokratinis atsargumas
ir vadovavimo grandinė. Trečia, jie atsiskaito visuomenei per rinkimus ir
civilinę kontrolę tokiu būdu, kokio to nedaro generaliniai direktoriai.
Žinoma, tiek, kiek dirbtinis intelektas tampa tokia galia,
kokia, daugelio magnatų manymu, jis taps – civilizaciją keičiančia galia,
sudėtingesne nei branduoliniai ginklai, bet tokia pat potencialiai destruktyvia
– atrodo neįsivaizduojama, kad jis gali patogiai ilsėtis privačiojo sektoriaus
rankose, kol Amerikos Respublika tęsia savo reikalus. Karinės kontrolės ir
nacionalizavimo galimybė bus svarstoma tol, kol aiškinsimės, ką ši technologija
galėtų padaryti.
Taigi, tam tikra prasme Hegsethas ir Trumpo administracija
anksti pradeda šį neišvengiamą konfliktą ir iškelia esminį politinį klausimą –
kas iš tikrųjų kontroliuoja dirbtinį intelektą? – į diskusijų paviršių.
Tačiau siekis valdyti nėra planas, kaip jį įgyvendinti. Be
to, kad administracija atsisako priimti korporacinius apribojimus, nematau
įrodymų, kad ji būtų gerai apgalvojusi, kaip dirbtinis intelektas turėtų būti
valdomas, arba kaip karas, kurį jis pradėjo prieš Anthropic, galiausiai suteiks
arba didesnę galią, arba didesnį saugumą.“ [B]
A. Žemo
rango adaptacija (LoRA) yra efektyvi dirbtinio intelekto tikslinimo technika,
kuri pritaiko didelius iš anksto apmokytus modelius (LLM arba difuzijos
modelius) naujoms, specifinėms užduotims, pridėdama mažas, apmokomas žemo rango
matricas prie transformavimo sluoksnių, tuo pačiu užšaldydama pradinius modelio
svorius. Tai smarkiai sumažina skaičiavimo / atminties reikalavimus (iki 10 000
kartų mažiau parametrų), palyginti su visišku tikslinimu, leižiant vartotojų
įrangai apmokyti pritaikytus modelius.
Pagrindiniai LoRA aspektai:
• Mechanizmas: Užuot atnaujinusi didžiulę modelio svorių
matricą (W), LoRA daro prielaidą,
kad atnaujinimas turi žemą „vidinį rangą“. Ji apmoko dvi mažesnes matricas (A ir B), kurios, padaugintos (BA),
apytiksliai atitinka reikiamą svorių atnaujinimą, smarkiai sumažindama apmokomų
parametrų skaičių.
• Privalumai:
o
Efektyvumas: Leidžia mokyti su vienu GPU (pvz., vartotojų žaidimų
kompiuteriuose).
o Perkeliamumas: LoRA failai yra maži (dažnai ~100 MB),
todėl juos lengva bendrinti, saugoti ir keistis.
o Nėra katastrofiško užmiršimo: Kadangi bazinis modelis yra
užfiksuojamas, originalios žinios išsaugomos.
• Taikymo sritys:
o Stabili difuzija: Naudojama naujų meno stilių, personažų
ar koncepcijų mokymuisi.
o LLM: Tikslūs modeliai, tokie, kaip LLaMA arba GPT,
konkrečioms sritims (pvz., teisinėms ar medicininėms).
•
Palyginimas: Skirtingai nuo visiško tikslinimo, kuris atnaujina visus
parametrus, LoRA apmoko tik dalį, todėl dirbtinis intelektas pritaikomas
greičiau, pigiau ir tvariau.
B. If A.I. Is a Weapon, Who Should Control It? Douthat, Ross.
New York Times (Online) New York Times Company. Feb 28, 2026.