Sekėjai

Ieškoti šiame dienoraštyje

2024 m. gruodžio 5 d., ketvirtadienis

„Amazon“ planuoja pigų superkompiuterį, maitinamą, „Amazon“ sukurtų, dirbtinio intelekto lustų


  „Amazon“ debesų kompiuterijos padalinys „Amazon Web Services“ antradienį paskelbė apie planus sukurti „Ultraklasterį“ – didžiulį dirbtinio intelekto (AI) superkompiuterį, sudarytą iš šimtų tūkstančių,  „Amazon“ sukurtų, „Trainium“ lustų, taip pat naują serverį – tai naujausios pastangos dėl AI lusto dizaino laboratorijoje, įsikūrusioje Ostine, Teksase.

 

 Lustų klasterį naudos AI startuolis Anthropic, į kurį mažmeninės prekybos ir debesų kompiuterijos milžinas neseniai investavo papildomus 4 mlrd. dolerių. „Amazon Web Services“ skaičiavimo ir tinklų paslaugų viceprezidento Dave'o Browno teigimu, klasteris, vadinamas „Project Rainier“, bus įsikūręs JAV, kai bus parengtas 2025 m., jis bus vienas didžiausių pasaulyje dirbtinio intelekto modelių mokymui.

 

 Antradienį Las Vegase vykusioje kasmetinėje konferencijoje „Re:Invent“ „Amazon Web Services“ (AWS) paskelbė apie naują serverį „Ultraserverį“, sudarytą iš 64 tarpusavyje sujungtų lustų. AWS taip pat pristatė „Apple“, kaip vieną iš naujausių šių lustų klientų.

 

 Antradienio pranešimai kartu pabrėžia AWS įsipareigojimą „Trainium“ – įmonės viduje sukurtam siliciui, kurį bendrovė laiko perspektyvia alternatyva grafikos apdorojimo blokams arba GPU, kuriuos parduoda lustų milžinė „Nvidia“.

 

 2024 m. dirbtinio intelekto puslaidininkių rinka siekė 117,5 mlrd. dolerių, o iki 2027 m. pabaigos ji pasieks 193,3 mlrd. dolerių, teigia tyrimų įmonė International Data Corp. Remiantis IDC gruodžio mėn. tyrimai. „Šiandien iš tikrųjų yra tik vienas pasirinkimas GPU pusėje, ir tai tik „Nvidia“, – sakė Mattas Garmanas, „Amazon Web Services“ generalinis direktorius. „Manome, kad klientai įvertins kelis pasirinkimus."

 

 Pagrindinė „Amazon“ AI strategijos dalis yra atnaujinti savo pritaikytą silicį, kad jis ne tik sumažintų AI išlaidas jos verslo klientams, bet ir suteiktų įmonei daugiau galimybių kontroliuoti jos tiekimo grandinę. Dėl to AWS gali būti mažiau priklausomas nuo „Nvidia“, vieno artimiausių partnerių, kurio GPU bendrovė klientams suteikia galimybę išsinuomoti debesijos platformoje.

 

 Tačiau netrūksta kompanijų, siekiančių gauti sau „Nvidia“ lustų pajamų dalį, įskaitant AI lustų startuolius, tokius, kaip „Groq“, „Cerebras Systems“ ir „SambaNova Systems“. „Amazon“ debesų kolegos, „Microsoft“ ir „Alphabet“ „Google“, taip pat kuria jų AI lustus ir siekia sumažinti jų priklausomybę nuo „Nvidia“.

 

 „Amazon“ jos klientams skirtą aparatinę įrangą kūrė gerokai prieš 2018 m., kai išleido centrinį procesorių, pavadintą „Graviton“, pagrįstą britų lustų kūrėjo „Arm“ procesoriaus architektūra. „Amazon“ vadovai teigia, kad bendrovė siekia paleisti tą patį planą, dėl kurio „Graviton“ buvo sėkmingas – klientams įrodant, kad tai pigesnis, bet ne mažiau efektyvus pasirinkimas, nei rinkos lyderis.

 

 Didėjant dirbtinio intelekto modeliams ir duomenų rinkiniams, atsiranda ir, juos maitinančių, lustų bei lustų grupių. Technikos milžinai ne tik perka daugiau lustų iš „Nvidia“ ar kuria savo; dabar jie stengiasi kuo daugiau supakuoti į vieną vietą.

 

 Tai vienas iš „Amazon“ lustų klasterio, kuris buvo sukurtas, bendradarbiaujant „Amazon Annapurna Labs“ ir „Anthropic“, tikslas: dirbtinio intelekto startuolis panaudotų klasterį savo būsimiems AI modeliams mokyti ir valdyti. Pasak AWS, jis yra penkis kartus didesnis už dabartinį Anthropic mokymo grupę. Palyginimui, Elono Musko xAI neseniai sukūrė superkompiuterį, pavadintą Colossus su 100 000 Nvidia Hopper lustų.

 

 „Amazon Ultraserver“ sujungia 64 lustus į vieną paketą, sujungiant keturis serverius, kurių kiekviename yra 16 „Trainium“ lustų. Palyginimui, kai kuriuose Nvidia GPU serveriuose yra aštuoni lustai, sakė Brownas. Norint juos sujungti, kad jie veiktų, kaip vienas serveris, galintis pasiekti 83,2 petaflops skaičiavimo, kitas „Amazon“ slaptas padažas yra tinklo kūrimas: sukurti technologiją, vadinamą „NeuronLink“, kuri gali priversti visus keturis serverius bendrauti.

 

 Tai tiek, kiek „Amazon“ galėtų supakuoti į „Ultraserver“ jo neperkaitindama, nurodė bendrovė. Tačiau žinutė nėra griežta: „Rinkis mus arba Nvidia“, – sako „Amazon“ vadovai. „Amazon“ teigia, kad klientams jie gali naudoti, bet kokį pageidaujamą, aparatinės įrangos derinį savo debesų platformoje.

 

 Eiso Kantas, AI kodavimo startuolio „Poolside“ įkūrėjas ir vyriausiasis technologijų pareigūnas, teigė, kad ji sutaupo maždaug 40 %, palyginti su AI modelių naudojimu „Nvidia“ GPU. Tačiau neigiamas aspektas yra tai, kad startuolis turi praleisti daugiau savo inžinierių laiko, kad pradėtų veikti su Amazon susijusi lusto programinė įranga.

 

 Tačiau „Amazon“ silicį gamina tiesiogiai per Taiwan Semiconductor Manufacturing ir įdeda jį į savo duomenų centrus, todėl tai yra „saugus statymas“ AI startuoliui, sakė Kantas. Jo teigimu, labai svarbu, kur jis stato savo statymus, nes net šešių mėnesių aparatinės įrangos vėlavimas gali reikšti jos verslo pabaigą.

 

 Benoit Dupin, vyresnysis „Apple“ mašininio mokymosi ir dirbtinio intelekto direktorius, teigė, kad išmaniųjų telefonų milžinė išbando „Trainium2“ lustus ir tikisi sutaupyti apie 50%. 

 

Analitikai teigia, kad daugumai įmonių „Nvidia“ ir „Amazon“ pasirinkimas nėra aktualus klausimas. Taip yra todėl, kad didelėms įmonėms labiausiai rūpi, kaip jos gali gauti naudos iš dirbtinio intelekto modelių valdymo, o ne įsitraukti į sudėtingą jų mokymą.

 

 Ši tendencija yra naudinga „Amazon“, nes jai tikrai nereikia, kad klientai žiūrėtų po gaubtu. Jis gali dirbti su tokiomis įmonėmis, kaip debesų duomenų bendrovė Databricks, kad „Trainium“ būtų po viršeliais, o dauguma įmonių nepastebės skirtumo, nes kompiuterija turėtų veikti – idealiu atveju su mažesnėmis sąnaudomis.

 

 „Amazon“, „Google“ ir „Microsoft“ kuria savo dirbtinio intelekto lustus, nes žino, kad jų pritaikyti dizainai taupo laiką ir sąnaudas, kartu gerindami našumą, sakė rinkos tyrimų ir IT konsultacijų įmonės „Gartner“ analitikas Chiragas Dekate. Pasak jo, jie pritaiko aparatinę įrangą, kad pasiūlytų labai specifines lygiagretinimo funkcijas, kurios galėtų pranokti bendresnės paskirties GPU našumą.

 

 Tačiau įmonės vadovai realistiškai vertina, kiek toli AWS lustų ambicijos gali nueiti.

 

 „Iš tikrųjų manau, kad dauguma, tikriausiai, ilgą laiką bus „Nvidia“, nes šiandien jiems tenka 99% darbo krūvių, todėl tai, tikriausiai, nepasikeis“, – sakė AWS generalinis direktorius Garmanas. „Tačiau, tikiuosi, „Trainium“ gali išsiskirti gerą nišą, kurioje, manau, tai bus puikus pasirinkimas daugeliui darbo krūvių."

 ---

 Laboratorijos komanda turi „nepaprastą mąstymą“

 

 AWS pastangų esmė yra Ostine, Teksase, kur įsikūrusi AI lustų laboratorija, kurią valdo Izraelio mikroelektronikos bendrovė, „Amazon“ ją 2015 m. įsigijo už maždaug 350 mln. dolerių, ji vadinama „Annapurna Labs“.

 

 Lustų laboratorija čia veikia nuo Annapurnos įkūrimo laikų, kai ji siekė patekti į vietą, kur lustų milžinai jau turėjo biurus, sakė Gadi Huttas, produktų ir klientų inžinerijos direktorius, prisijungęs prie bendrovės prieš „Amazon“ įsigijimą.

 

 Viduje vieną dieną inžinieriai gali būti ant surinkimo grindų, o kitą lituoti, sakė laboratorijos inžinerijos direktorius Rami Sinno. Jie daro viską, ką reikia padaryti, iš karto – tokia niūri mąstysena, kuri dažniau pasitaiko tarp pradedančiųjų įmonių, nei trilijonų dolerių vertės įmonės, tokios, kaip „Amazon“.

 

 Sinno sakė, kad taip yra sukurta, nes Annapurna neieško tokių specialistų, kaip kitas sektorius. Pavyzdžiui, ji ieško plokštės dizainerio, kuris taip pat laisvai žino signalo vientisumą ir energijos tiekimą bei gali rašyti kodą.

 

 "Mes projektuojame lustą, branduolį, visą serverį ir stovą vienu metu. Nelaukiame, kol lustas bus paruoštas, kad galėtume suprojektuoti plokštę aplink jį", – sakė Sinno. „Tai leidžia komandai eiti nepaprastai greitai.

 

 2018 m. AWS paskelbė apie „Inferentia“ – mašininio mokymosi lustą, skirtą išvadoms daryti, ty duomenų paleidimo, naudojant dirbtinio intelekto modelį procesas, kad jis generuotų išvestį. Komanda pirmiausia padarė išvadas, nes tai šiek tiek mažiau reikalaujanti užduotis, nei mokymas, sakė Jamesas Hamiltonas, „Amazon“ vyresnysis viceprezidentas ir žymus inžinierius.

 

 Iki 2020 m. „Annapurna“ buvo pasirengusi naudoti „Trainium“ – pirmąjį lustą, skirtą klientams mokyti dirbtinio intelekto modelius. Praėjusiais metais „Amazon“ paskelbė apie savo „Trainium2“ lustą, kurį, pasak bendrovės, dabar gali naudoti visi klientai. AWS taip pat teigė, kad dabar dirba su „Trainium3“ ir „Trainium3“ pagrindu veikiančiais serveriais, kurie bus keturis kartus galingesni už „Trainium2“ pagrindu veikiančius serverius." [1]


1. Amazon Plans Supercomputer Powered by Homegrown AI Chips. Lin, Belle.  Wall Street Journal, Eastern edition; New York, N.Y.. 04 Dec 2024: B.4.

Amazon Plans A Cheap Supercomputer Powered by Homegrown AI Chips


"Amazon's cloud-computing arm Amazon Web Services on Tuesday announced plans for an "Ultracluster," a massive AI supercomputer made up of hundreds of thousands of its homegrown Trainium chips, as well as a new server, the latest efforts by its AI chip design lab based in Austin, Texas.

The chip cluster will be used by AI startup Anthropic, in which the retail and cloud-computing giant recently invested an additional $4 billion. The cluster, called Project Rainier, will be located in the U.S. When ready in 2025, it will be one of the largest in the world for training AI models, according to Dave Brown, Amazon Web Services' vice president of compute and networking services.

Amazon Web Services announced a new server called Ultraserver, made up of 64 of its own interconnected chips, at its annual re:Invent conference in Las Vegas on Tuesday. AWS also unveiled Apple as one of its newest chip customers.

Combined, Tuesday's announcements underscore AWS's commitment to Trainium, the in-house-designed silicon the company is positioning as a viable alternative to the graphics processing units, or GPUs, sold by chip giant Nvidia.

The market for AI semiconductors was an estimated $117.5 billion in 2024, and will reach an expected $193.3 billion by the end of 2027, according to research firm International Data Corp. Nvidia commands about 95% of the market for AI chips, according to IDC's December research. "Today, there's really only one choice on the GPU side, and it's just Nvidia," said Matt Garman, chief executive of Amazon Web Services. "We think that customers would appreciate having multiple choices."

A key part of Amazon's AI strategy is to update its custom silicon so that it can not only bring down the costs of AI for its business customers, but also give the company more control over its supply chain. That could make AWS less reliant on Nvidia, one of its closest partners, whose GPUs the company makes available for customers to rent on its cloud platform.

But there is no shortage of companies angling for their share of Nvidia's chip revenues, including AI chip startups such as Groq, Cerebras Systems and SambaNova Systems. Amazon's cloud peers, Microsoft and Alphabet's Google, also are building their own chips for AI and aiming to reduce their reliance on Nvidia.

Amazon has been working on its own hardware for customers since well before 2018, when it released a central processing unit called Graviton based on processor architecture from British chip-designer Arm. Amazon executives say the company aims to run the same playbook that made Graviton a success -- proving to customers that it is a lower-cost but no less capable option than the market leader.

As AI models and data sets have gotten larger, so, too, have the chips and chip clusters that power them. Tech giants aren't just buying up more chips from Nvidia, or designing their own; they're now trying to pack as many as they can in one place.

That's one goal of Amazon's chip cluster, which was built as a collaboration between Amazon's Annapurna Labs and Anthropic: for the AI startup to use the cluster to train and run its future AI models. It is five times larger, by exaflops, than Anthropic's current training cluster, AWS said. By comparison, Elon Musk's xAI recently built a supercomputer it calls Colossus with 100,000 Nvidia Hopper chips.

Amazon's Ultraserver links 64 chips into a single package, combining four servers, each containing 16 Trainium chips. Certain Nvidia GPU servers, by comparison, contain eight chips, Brown said. To link them together to work as one server, which can reach 83.2 petaflops of compute, Amazon's other secret sauce is its networking: creating a technology it calls NeuronLink that can get all four servers to communicate.

That's as much as Amazon could pack into the Ultraserver without overheating it, the company said. But the message isn't strictly, "Choose us or Nvidia," Amazon executives say. Amazon says it is telling customers they can stick with whatever combination of hardware they prefer on its cloud platform.

Eiso Kant, co-founder and chief technology officer of AI coding startup Poolside, said it is getting roughly 40% price savings compared with running its AI models on Nvidia's GPUs. But a downside is that the startup needs to spend more of its engineers' time to get Amazon's associated chip software to work.

However, Amazon fabricates its silicon directly through Taiwan Semiconductor Manufacturing and puts it into its own data centers, making it a "safe bet" for the AI startup, Kant said. Where it places its bets is key, because even a six-month hardware delay could mean the end of its business, he said.

Benoit Dupin, a senior director of machine learning and AI at Apple, said that the smartphone giant is testing Trainium2 chips, and expects to see savings of about 50%.

For most businesses, the choice of Nvidia versus Amazon isn't a pressing question, analysts say. That's because large companies are mostly concerned with how they can get value out of running AI models, rather than getting into the nitty-gritty of actually training them.

The trend is a good thing for Amazon, because it doesn't really need customers to peek under the hood. It can work with firms like cloud-data company Databricks to put Trainium beneath the covers, and most businesses won't notice a difference because computing should just work -- ideally at a lower cost.

Amazon, Google and Microsoft are building their own AI chips because they know their custom designs save time and cost while improving performance, said Chirag Dekate, an analyst at market research and IT consulting firm Gartner. They customize the hardware to offer very specific parallelization functions, he said, which could beat the performance of more general-purpose GPUs.

Company leaders, though, are realistic about how far AWS's chip ambitions can go.

"I actually think most will probably be Nvidia for a long time, because they're 99% of the workloads today, and so that's probably not going to change," AWS CEO Garman said. "But, hopefully, Trainium can carve out a good niche where I actually think it's going to be a great option for many workloads."

---

Lab Team Has 'Scrappy Mindset'

The heart of AWS's efforts is in Austin, Texas, home to an AI chip lab run by Annapurna Labs, an Israeli microelectronics company Amazon acquired for about $350 million in 2015.

The chip lab has been there since Annapurna's startup days, when it was seeking to land in a location where chip giants already had offices, said Gadi Hutt, a director of product and customer engineering who joined the company before the Amazon acquisition.

Inside, engineers might be on the assembly floor one day, while soldering the next, said Rami Sinno, the lab's director of engineering. They do anything that needs to be done, right away -- the sort of scrappy mindset more commonly found among startups than trillion-dollar companies like Amazon.

That's by design, Sinno said, because Annapurna doesn't look for specialists like the rest of the sector. It looks for a board designer, for instance, who is also fluent in signal integrity and power delivery, and who can also write code.

"We design the chip, and the core, and the full server and the rack at the same time. We don't wait for the chip to be ready so we can design the board around it," Sinno said. "It allows the team to go super, super fast."

AWS announced Inferentia in 2018, a machine-learning chip dedicated to inference, which is the process of running data through an AI model so it generates an output. The team went after inference first, because it's a slightly less demanding task than training, said James Hamilton, an Amazon senior vice president and distinguished engineer.

By 2020, Annapurna was ready to go with Trainium, its first chip for customers to train AI models on. Last year, Amazon announced its Trainium2 chip, which the company said is now available for all customers to use. AWS also said it is now working on Trainium3 and Trainium3-based servers, which will be four times more powerful than its Trainium2-based servers." [1]

1. Amazon Plans Supercomputer Powered by Homegrown AI Chips. Lin, Belle.  Wall Street Journal, Eastern edition; New York, N.Y.. 04 Dec 2024: B.4.

 

2024 m. gruodžio 4 d., trečiadienis

Vaje vaje. Brangiomis sparnuotomis raketomis ginkluoti karo laivai netinka kariavimui, o tinka tik pabaidymui, iššaunant truputėlį raketų


„JAV karinio jūrų laivyno minininkas per kelias minutes gali paleisti dešimtis sparnuotųjų raketų. Mirtino karo laivo užtaisymas naujomis raketomis uoste gali užtrukti du mėnesius. Kare prieš Kiniją tai gali būti lemtinga silpnybė.

 

 Siekdami įveikti vėlavimą, karinio jūrų laivyno inžinieriai iš saugyklos ištraukė 30 metų senumo kraną, prijungė jį prie kompiuterių ir panaudojo kurdami naują perkrovimo sistemos prototipą, vadinamą Transferrable Reload At-Sea Method. TRAM, kaip žinoma, žada sutrumpinti raketų perkrovimo laiką, galbūt, iki kelių dienų.

 

 „Gebėjimas persiginkluoti jūroje bus labai svarbus bet kokiam būsimam konfliktui Ramiojo vandenyno regione“, – sakė karinio jūrų laivyno sekretorius Carlosas Del Toro po neseniai Kalifornijos pakrantėje atlikto TRAM bandymo, prie kurio „The Wall Street Journal“ buvo suteikta išskirtinė prieiga.

 

 Dar visai neseniai karinis jūrų laivynas nejautė didelio greičio poreikio perginkluoti savo didžiausius raketas šaudančius karo laivus. Jie tik retkarčiais paleisdavo daugybę sparnuotųjų raketų „Tomahawk“ ar kitų brangių sviedinių.

 

 Dabar Pentagono strategai nerimauja, kad jei mūšiai prasidėtų vakarinėje Ramiojo vandenyno dalyje – galbūt 5000 mylių nuo saugios karinio jūrų laivyno bazės – naikintojams, kreiseriams ir kitiems dideliems karo laivams gyvybiškai svarbios amunicijos pritrūktų per kelias dienas, o gal ir valandas.

 

 Siekdamas užpildyti tiekimo spragą, Del Toro pavedė vadams ir inžinieriams rasti būdų, kaip perkrauti laivyno paleidimo sistemas atokiuose uostuose ar net atviroje jūroje.

 

 Priešingu atveju JAV laivams gali tekti grįžti į bazes Havajuose arba Kalifornijoje, todėl jie savaitėms nebebus naudojami.

 

 Lėtas perkrovimas sukėlė karinio jūrų laivyno galvos skausmą Raudonojoje jūroje. Karo laivai, dislokuoti ten ginti krovininius laivus nuo husių sukilėlių Jemene, turi plaukti per Sueco kanalą ir į Graikijos ar Ispanijos uostus perkrauti, o tai užtruks ilgesniam laikui.

 

 „Šį pajėgumą turėjome visiškai sukurti prieš kelis dešimtmečius“, – sakė į pensiją išėjęs karinio jūrų laivyno admirolas Jamesas Stavridis. „Vėl ir vėl, iššaudęs didelį Tomahawks krovinį... Turėjau ištraukti savo karo laivus iš rikiuotės, kad galėčiau apginkluoti“, – pridūrė Stavridis, buvęs Šiaurės Atlanto sutarties organizacijos vyriausiasis sąjungininkų pajėgų Europoje vadas.

 

 Karinis jūrų laivynas paleidimo įrenginius perkrauna tik iš tvirtos žemės arba apsaugotuose uostuose, nes tai yra subtili operacija. Dešimtojo dešimtmečio inžinieriai pasiūlė perkrovimo jūroje sistemas, tačiau turimos technologijos nebuvo pakankamai tikslios, kad būtų galima perkelti raketas iš nuolat judančios platformos, pavyzdžiui, laivo ar plūduriuojančio doko.

 

 JAV nesugebėjimas papildyti raketų paleidimo įrenginių jūroje yra pastebimas, nes Amerika jau seniai atliko inžinerinius žygdarbius, pavyzdžiui, sujungė aplink Mėnulį skriejančius erdvėlaivius. Kariuomenė reguliariai pildo degalus į, virš debesų kylančius, karinius lėktuvus.

 

 Inžinieriai teigia, kad vandenyno paviršius – nors ir labiau pažįstamas – dėl srovių, vėjo ir oro bei vandens mišinio kelia, išskirtinai varginančius, fizikos iššūkius.

 

 Dabar skaitmeninė pažanga, įskaitant 3-D spausdinimą, specializuotus radarus ir judesio detektorius, tokius, kokie yra mobiliuosiuose telefonuose, leido kariniam jūrų laivynui persvarstyti idėją. Naujai atrasta skuba paspartina darbą, ieškant sprendimo.

 

 „Mes keičiame kovos būdą“, – sakė Del Toro, dirbantis tiekimo laive USNS Washington Chambers per TRAM bandymą.

 

 Jis stebėjo, kaip įgulos užtrauktuku pritvirtina manekeną raketų konteinerį prie kartu plaukiojančio kreiserio USS Chosin ir kaip technikai valdo eksperimentinį kraną, pastatydami 20 pėdų ilgio dėžę virš laivo paleidimo elementų.

 

 Del Toro, kurio kadencija baigiasi Bideno administracija, nori, kad tokia įranga, kaip TRAM, būtų įtraukta į ateinančiais metais planuojamus laivų modernizavimo darbus.

 

 Šiandien vieninteliai JAV karo laivai, kuriuos galima neribotą laiką išlaikyti jūroje ir tęsti kovą, yra 11 branduolinių lėktuvnešių ir devyni mažesni amfibijos puolimo laivai, iš kurių nė vienas neturi vertikalių raketų silosų.

 

 TRAM galėtų padidinti šį skaičių maždaug penkis kartus, iš viso iki maždaug 100 karo laivų nepastačius nė vieno naujo korpuso.

 

 Iki tol karinis jūrų laivynas ieško naujų perginklavimo vietų draugiškuose uostuose. Rugsėjo mėnesį JAV jūreiviai ir logistikai pirmą kartą perkrovė raketą į naikintoją USS Dewey sąjungininkų karinio jūrų laivyno bazėje Darvine, Australijoje.

 

 Karo metu uostai, kuriuos JAV naudoja Japonijoje ir Guame, gali būti taikiniu Kinijos raketoms, todėl karinis jūrų laivynas turėtų ieškoti prieglobsčių toliau.

 

 Iš Pietų Kinijos jūros į Darviną įprastomis plaukiojimo sąlygomis trunka maždaug 4 1/2 dienos, palyginti su maždaug trijų savaičių kelione iki JAV vakarinės pakrantės.

 

 Perkrovimas jūroje gali dar labiau sutrumpinti prastovą, tačiau tai būtų sudėtinga operacija. Raketos jų dėžėse, kurios primena plonus gabenimo konteinerius, gali sverti daugiau, nei 6000 svarų. Jos turi sklandžiai slysti į sandariai prigludusias paleidimo kameras, nes stumdymasis gali pažeisti subtilias valdymo sistemas arba dar blogiau.

 

 "Tai yra viršgarsinės raketos. Su tuo susijusi daug ugnies ir dujų", - sakė Cmdr. Nicholas Maruca, Dewey kapitonas. „Jei numesite raketą, tai nėra geras atvejis“.

 

 Ištisus dešimtmečius karinis jūrų laivynas aprūpindavo savo laivus atviroje jūroje, siųsdamas pagrindines atsargas tarp jų suvertais kabeliais. Jis reguliariai pildo degalus laivuose, naudodamas, tokiu būdu palaikomas, žarnas.

 

 Jungtys reikalauja, kad laivai plauktų beveik vienodu greičiu, išlaikant pastovų atstumą. Įranga suprojektuota taip, kad prireikus ryšiai gali būti nedelsiant nutraukti, pavyzdžiui, užpuolus.

 

 Pakrauti į karo laivą dešimtis raketų, naudojant kraną tiekimo laive būtų pavojingai lėta. TRAM sukurtas tam, kad procesas būtų greitesnis ir saugesnis.

 

 Sukurti TRAM mechanizmą vis dar buvo sudėtinga. Norėdami pradėti darbą, šių metų pradžioje karinio jūrų laivyno ekspertai iš saugyklos ištraukė 1990-ųjų prototipą, išardė jį ir, pasitelkę kai kuriuos archyvuotus brėžinius, parengė skaitmeninius planus, kaip jį pakeisti.

 

 Įdėjus naujus planus į kompiuterinį modeliavimą, jie nustatė silpniausias mechanizmo vietas ir pridėjo apie 300 svarų plieno armatūros, sakė projekto techninis vadovas Ryanas Hayleckas. Chosin denį taip pat reikėjo sustiprinti, kad būtų galima atlaikyti naują krovinį.

 

 Technikai sujungė ir laivus, ir kraną su jutikliais, kad suprastų, kaip juda visi elementai ir su kokiais įtempimais jie susidūrė, siekdami patobulinti dizainą. Karinio jūrų laivyno vyriausiasis inžinierius galinis admirolas Peteris Smallas teigė, kad duomenų krūvos negalėjo būti surinktos, atliekant sausumos bandymus, todėl bus šiais duomenimis vadovaujamasi tolesniuose žingsniuose." [1]

 

1. U.S. News: Navy Revamps Rearming Ships Amid New Threats --- Vessels now must return to ports for missiles. A change could speed process. Daniel Michaels aboard the USNS Washington Chambers; Mike Cherney aboard the USS Dewey; Cowan, Tonia.  Wall Street Journal, Eastern edition; New York, N.Y.. 04 Dec 2024: A.3.