Sekėjai

Ieškoti šiame dienoraštyje

2026 m. vasario 27 d., penktadienis

„Anthropic“ atmeta JAV dirbtinio intelekto naudojimo karui priemones

 


 

„Anthropic“ turi planą, kaip tapti dirbtinio intelekto monopoliste – padaryti, kad mes negalėtume  jų modelius apmokyti papildomai mūsų pačių mašinose. Jei vis tiek naudosime tuos modelius, „Anthropic“ naudos mūsų privačią informaciją bet kokiam papildomam apmokymui, kad galėtų juos „saugiai“ taikyti. Kai vieši informacijos šaltiniai bus išnaudoti, konkurentai liks užpakalyje. Taigi, saugumas čia yra triukas, naudojamas mūsų privačiai informacijai vogti nemokamai. Paskutinis dalykas, kurį „Anthropic“ gali padaryti, yra leisti naudoti „Anthropic“ dirbtinį intelektą „Terminatoriuje“, kuris masiškai žudo žmones. Tai būtų juokinga apsauga.

 

„Anthropic“ pareiškė, kad nepasiduos ginče su Gynybos departamentu dėl dirbtinio intelekto apsauginių turėklų, o tai apsunkino pastangas pasiekti kompromisą iki penktadienio termino.

 

Antradienį vykusiame susitikime Pentagone gynybos sekretorius Pete'as Hegsethas suteikė „Anthropic“ generaliniam direktoriui Dario Amodei laiko iki penktadienio 17:01 val., kad šis sutiktų su kariuomenės teise naudoti technologiją visais teisėtais atvejais.

 

Jei „Anthropic“ atsisakys, Hegsethas pagrasino pasinaudoti Gynybos gamybos įstatymu, kad priverstų bendrovę daryti tai, ko nori kariuomenė, arba priskirti bendrovę tiekimo grandinės rizikai, taip pakenkdama jos galimybėms bendradarbiauti su kitais vyriausybės rangovais.

 

„Anthropic“ atsisakė priimti kariuomenės pasiūlymą ir neleidžia vartotojams naudoti savo „Claude“ modelių scenarijuose, susijusiuose su masiniu vidaus stebėjimu ar autonominiais ginklais.

 

„Amodei“ ketvirtadienį viešame pareiškime pakartojo bendrovės raudonas linijas. „Mes negalime ramia sąžine patenkinti jų prašymo“, – sakė jis. Bendrovė teigė, kad naujausias kariuomenės pasiūlymas faktiškai panaikintų tuos apsauginius turėklus.

 

Sutarties tekstas, kurį bendrovė gavo per naktį iš Pentagono, „praktiškai nepadarė jokios pažangos užkertant kelią Claude'o naudojimui masiniam amerikiečių stebėjimui arba visiškai autonominiuose ginkluose“, – teigė „Anthropic“ atstovas. „Naujas kompromisinis tekstas buvo suporuotas su teisiniais terminais, kurie leistų nepaisyti šių apsaugos priemonių savo nuožiūra.“

 

Emilis Michaelas, karo tyrimų ir inžinerijos pavaduotojas, įraše X teigė, kad masinis stebėjimas jau yra neteisėtas pagal Ketvirtąją pataisą.

 

Michaelas teigė, kad departamentas „neleis jokiai didelei technologijų bendrovei spręsti dėl amerikiečių pilietinių laisvių“.

 

Ketvirtadienio vakarą jis paskelbė, kad Amodei „nori nieko daugiau, kaip tik bandyti asmeniškai kontroliuoti JAV kariuomenę ir sutinka kelti pavojų mūsų tautos saugumui“. [1]

 

1. U.S. News: Anthropic Turns Down U.S. on AI Guardrails. Ramkumar, Amrith.  Wall Street Journal, Eastern edition; New York, N.Y.. 27 Feb 2026: A3.  

Komentarų nėra: