Sekėjai

Ieškoti šiame dienoraštyje

2025 m. rugsėjo 5 d., penktadienis

How are the idiots running Lithuania wasting billions of euros from our taxes? Why do they need it? Think about it during the next elections.

 


“Recently, after the Seimas National Security and Defense Committee (NSGK) recommended that the Ministry of National Defense (KAM) postpone the purchase of Brazilian Embraer C-390 Millennium aircraft until a Lithuanian army division is formed, and after public outrage over such a purchase, the ministry, representatives of the ruling majority, and even the army are trying to argue for the necessity of this acquisition. What are those arguments - and are they convincing?

 

According to army representatives, the currently used Spartan aircraft are aging, and their operational capabilities will be exhausted in the next decade.

 

It is said that these aircraft will no longer be able to fly in the airspace of the European Union from 2030, and their use will have to be completely discontinued in 2036-2039.

 

“Therefore, it is necessary to make timely decisions to avoid a gap in air capabilities,” the military says.

 

It is also emphasized that tactical transport aircraft are currently the most lacking at the NATO level, so Lithuania’s decision to acquire new equipment directly contributes to strengthening the Alliance’s overall capabilities.

 

Is this argumentation sufficient?

 

Today, our security directly depends on how much longer Ukraine will hold out and how much we will be able to deter a potential adversary. Considering that we have limited funds for both defense and time for preparation, we should pay special attention to prioritizing acquisitions.

 

It is obvious that the main defense priorities are: training and arming an active reserve, air defense, installation of defensive lines, and modernization of the military, i.e. the development of capabilities for specialized unmanned systems capable of exerting an asymmetric effect on a more numerous adversary and their integration into the military.

 

However, it is what it is – our decision-makers have decided to base the deterrence strategy on the help of the allies. Therefore, the main expenses are directed to the creation of the necessary infrastructure to receive the allies and the establishment of a division, which, according to them, requires those unfortunate, already discussed, tanks.

 

And only time will tell which option will work out better – whether to invest in the creation and strengthening of our national capabilities, following the example of Finland, or to direct all funds and efforts to attract allies and hope that they will defend us.

 

As a person who has fought face to face with a real enemy in a real war, of course, I would first of all like to have the opportunities and means to defend myself, and not wait for mercy from the country.

 

I would like to proudly say, following the example of the Finns: “We strive to become not consumers of security, but creators of security.”

 

However, it seems that being only consumers of security is enough for many Lithuanians. The generals of the newly created division are wearing additional stars, tank sellers are calculating considerable commissions, and the construction sector is collecting profits from the military towns with schools and kindergartens being built in the forests to accommodate the families of the allies.

 

Everyone wins – Lithuania loses.

 

In the working group for the development of the “Drone Wall” project, we have calculated that for the price of one tank we are purchasing (about 50 million euros), it would be possible to create and equip one battalion of unmanned systems, which could effectively support an entire brigade for a whole month during the war.

 

In this context, the decision to purchase three transport aircraft for almost 800 million – the same amount as about 10 F-16 fighter jets – seems completely normal.

 

When you are not actually preparing to defend yourself, what difference does it make to spend those funds intended for defense? Well, let others continue to carry out air policing missions in Lithuania, because they need it more.

 

The only thing that is striking is that neither our Latvian neighbors nor the Estonians see the need for such purchases, because it is obvious that transport aircraft do not create any additional combat capability, let alone a deterrent effect.

 

We would also not like to hear that, for example, Estonia focuses most of its attention on the acquisition of ammunition - it has already concluded contracts worth 1.9 billion euros, and has additionally allocated another 1.6 billion euros for ammunition for long-range weapons.

 

Well, the Estonians are not only planning a defensive line, but are actually installing it, and they already have a center of competence for unmanned systems.

 

We, in the face of impending aggression, are planning the acquisition of transport aircraft and justify this by strengthening NATO capabilities, and we also add that no defense sector will suffer from this, there will be money for everything.

Unbelievable.”


How Does Today’s AI Work? China Won't Get Addicted to America's Chips


Today's AI primarily works through machine learning and neural networks, allowing systems to learn from massive amounts of data without explicit programming. While China has relied on U.S. chips for AI development, recent reports suggest it is actively pursuing indigenous alternatives and is unlikely to remain dependent on American technology.

 

“As Rush Doshi and Chris McGuire note, selling chips to China would liquidate U.S. leverage, turning scarcity into stockpiles and handing Beijing the parts and know-how to close the innovation gap (Letters, Sept. 2). The notion that we can get China addicted to our chips ignores Communist Party doctrine. Beijing's strategy seeks to develop indigenous and controllable tech to achieve self-reliance from the West. To that end, the state gate-keeps market access, data and content through licensing, cybersecurity and procurement rules, as well as other conditional, revocable permissions.

 

The recent H20 episode illustrates the point. After Washington licensed sales, Beijing told firms to make a priority of domestic alternatives. Companies may exploit brief windows to stockpile -- much as they bought A800/H800s in 2022-23 before that loophole closed -- but the policy direction is unchanged. Beijing will take what it needs today to reach self-reliance tomorrow.

 

Critics of export controls are right that some contraband chips will leak. But that proves that controls bite. What reaches the market are small, warranty-free, irregular lots -- not the steady, uniform, high-volume supply that large-scale training requires. When enforced, controls raise costs, stretch timelines and cap scale by constraining the chokepoints that matter: training-class accelerators [1], HBM [2], EDA tools [3] and lithography.

 

Some suggest that CUDA, Nvidia's software for programming chips, would "tether" China to the American AI ecosystem. Yet authorizing supported CUDA deployments would replace today's gray-market trickle with stable, vendor-backed systems that train Chinese engineers and accelerate domestic substitution. Beijing could then shut down access at will, trading our leverage for its own learning.

 

Craig Singleton

 

Fdn. for Defense of Democracies

 

Washington” [5]

 

 

 

 

 

 

1. AI training-class accelerators are specialized hardware components designed to speed up the process of training machine learning and deep learning models. These processors are essential for handling the massive computational and data-processing demands of complex AI tasks, which general-purpose CPUs cannot manage efficiently.

The main types of AI training accelerators include:

 

    Graphics Processing Units (GPUs): The most common type of accelerator, GPUs are highly effective for AI training due to their massive parallel processing capabilities. Originally developed for graphics rendering, their ability to execute thousands of operations simultaneously is ideal for the tensor and matrix computations common in deep learning. Key players include NVIDIA and AMD.

    Tensor Processing Units (TPUs): Developed by Google, TPUs are custom-designed Application-Specific Integrated Circuits (ASICs) built specifically for machine learning workloads, especially with the TensorFlow framework. They excel at the large-scale matrix multiplications that form the core of deep learning [4], offering high performance and energy efficiency. TPUs are primarily available through cloud services like Google Cloud.

    Field-Programmable Gate Arrays (FPGAs): FPGAs are reconfigurable integrated circuits that can be reprogrammed after manufacturing to perform specific tasks. This flexibility allows developers to create custom hardware logic for unique AI workloads, striking a balance between the speed of ASICs and the flexibility of GPUs.

    Wafer-Scale Engines (WSEs): Representing a more recent and powerful development, WSEs integrate an entire processor onto a single, massive silicon wafer. Companies like Cerebras have created WSEs that feature a large number of interconnected AI cores, providing a significant boost in computational power for training very large, complex models.

    Cloud-based custom silicon: In addition to Google's TPUs, major cloud providers offer their own custom chips for AI workloads. For example, Amazon Web Services (AWS) provides Trainium chips specifically to reduce the cost and accelerate the training of machine learning models.

 

Key components of an AI training system

Beyond the core accelerator chip, a complete training system includes other components optimized for AI:

 

    Memory: Training massive models and processing large datasets requires a significant amount of high-speed memory.

        High-Bandwidth Memory (HBM): This specialized memory technology, used in high-end GPUs and other accelerators, provides extremely fast data transfer speeds.

        Video RAM (VRAM): Dedicated memory on GPUs that stores the large amounts of data and parameters needed for parallel processing.

    Networking: For training extremely large models, multiple accelerators must communicate rapidly. High-speed, high-bandwidth networking is critical for connecting thousands of chips within a data center.

    Cooling and power supply: The computational intensity of AI training generates enormous heat and consumes large amounts of power. High-performance systems require robust cooling systems and powerful, efficient power supplies to ensure reliable, sustained performance.

 

Training accelerators vs. inference accelerators

It is important to distinguish between accelerators designed for training and those for inference.

 

    Training accelerators: These are optimized for the intensive, large-batch, and highly parallel computations required for the initial training of a model.

    Inference accelerators: These are optimized for the lower-latency, smaller-batch computations needed for using a trained model to make predictions in a production environment. While training chips can perform inference, specialized inference chips are often more cost- and energy-efficient for that specific task.

 

2. HBM (High Bandwidth Memory) refers to a type of DRAM with a 3D-stacked architecture that provides significantly higher data transfer speeds and more memory capacity than traditional DRAM. For AI, HBM is crucial because it directly feeds the immense data demands of AI models, enabling faster and more efficient training and inference processes for applications like generative AI and large language models (LLMs). Major manufacturers of HBM include SK Hynix, Samsung, and Micron, with SK Hynix currently leading the market.

 

    3D Stacking:

    Instead of laying memory chips flat, HBM vertically stacks them, creating a dense, compact, and power-efficient memory solution.

 

Silicon Interposer:

This 3D stack is connected to the processor (like a GPU) via a silicon interposer, a complex platform etched with thousands of traces for rapid data transfer.

High Bandwidth:

The stacked design and short connections reduce the physical distance data travels, resulting in much faster data throughput (bandwidth) compared to traditional memory.

Reduced Power Consumption:

Despite its high performance, the compact and efficient design of HBM can also lead to better power efficiency than some alternatives.

 

Impact on AI

 

    Faster Training:

 

AI models, especially large ones, require vast amounts of data during training. HBM's high bandwidth allows this data to be fed into the AI processors much faster, significantly reducing training time.

Efficient Inference:

Similarly, HBM helps to reduce bottlenecks during the inference stage, where the AI model is used for predictions or generating content, leading to more responsive AI applications.

Enabling Advanced AI:

The increased capabilities provided by HBM are essential for the continued advancement and scaling of complex AI applications, such as generative AI, which have redefined computational demands.

 

Key Manufacturers

 

    SK Hynix: Currently the market leader, having pioneered HBM technology.

 

Samsung: A major player in the memory market.

Micron: An increasing presence, focusing on efficiency and innovation in HBM products.

 

The Future of HBM in AI

 

    HBM4:

    The next generation of HBM, expected to significantly increase data rates and bandwidth, is already nearing standardization.

 

Increased Customization:

Future HBM products will likely include more customer-specific logic on the base die to manage and optimize memory for particular AI accelerators.

Continued Growth:

The market for HBM is projected to see significant growth, driven by the accelerating adoption of AI across various industries.

 

3. EDA (Electronic Design Automation) tools are software suites used by engineers to design, simulate, analyze, and verify complex electronic systems, integrated circuits (ICs), and printed circuit boards (PCBs). Key features include schematic capture, circuit simulation, layout design, and design verification, which automate parts of the design process to improve accuracy and efficiency.

 

Popular EDA tool vendors and their offerings include Cadence and Synopsys for IC design, Altium for PCB design, and Keysight for semiconductor modeling.

 

    Schematic Capture:

    Creating a graphical representation of the electronic circuit's components and their interconnections.

 

Simulation:

Predicting the behavior of a proposed circuit design before it's physically implemented.

Verification:

Ensuring the circuit design meets its intended functionality and performs correctly.

Layout Design:

Designing the physical arrangement of components on a PCB or integrated circuit.

Analysis:

Optimizing designs for performance, power consumption, and area.

Library Management:

Creating and managing libraries of electronic components and their associated data.

 

Examples of EDA Tools & Vendors

 

    Altium:

    Provides a comprehensive solution for PCB design and layout with features for routing, placement, and manufacturing file generation.

 

Cadence Design Systems:

Offers a broad range of EDA tools for designing complex semiconductor chips, covering simulation, design, and verification processes.

Synopsys:

Known for its AI-powered EDA solutions that automate tasks, optimize chip performance, and facilitate design migration.

Keysight:

Specializes in end-to-end modeling solutions for semiconductor devices, including device model extraction and PDK validation.

 

Benefits of Using EDA Tools

 

    Increased Productivity:

    Automating complex tasks streamlines the design workflow.

 

Improved Accuracy:

Reduces the risk of errors by simulating and verifying designs before production.

Cost Reduction:

Identifying and fixing design flaws early in the process minimizes expensive rework.

Faster Time-to-Market:

Accelerating the design and validation process helps get products to market quicker.

Complex Design Support:

Enables the creation of highly intricate electronic systems that would be impossible to design manually.

 

4. Large-scale matrix multiplications form the core of deep learning because they are the fundamental mathematical operations used to transform data within neural networks during both training and inference. Every key component of a neural network can be broken down into matrix multiplications, which also enable the efficiency required for modern AI at scale. 

 

The core mechanism of a neural network 

 

A neural network is a function that transforms input data into a desired output, like transforming an image into a label ("cat") or text into a generated response. This process occurs through a series of neuron layers, and matrix multiplication is central to every step. 

 

Forward propagation: When data moves through a network, it passes from one layer to the next. In a dense or fully connected layer, this is a matrix multiplication.

 

Input and weights as matrices: The input data (a batch of images, for instance) is represented as a matrix.

 

The network's learned parameters, called "weights," are stored in a separate matrix.

 

The calculation: The output of a layer is calculated by multiplying the input matrix by the weight matrix, then adding a bias vector. This is often followed by a non-linear activation function.

 

Output = activation(input x weights + bias)

 

Backpropagation: During training, the network adjusts its weights to minimize error.

 

 This process, called backpropagation, uses the chain rule of calculus to compute the gradient of the loss function with respect to the weights. This complex calculation is mathematically expressed as a series of large matrix multiplications. 

The chain rule is a calculus rule for finding the derivative of a composite function (a function within a function), such as f(g(x)). It states that the derivative of f(g(x)) is the derivative of the outer function f, evaluated at the inner function g(x), multiplied by the derivative of the inner function g(x). The formula is d/dx [f(g(x))] = f'(g(x)) * g'(x).

Matrix multiplication is used for all major layer types 

 

Beyond simple, fully connected layers, matrix multiplications are the core engine for more advanced neural network architectures. 

 

Convolutional layers: In a Convolutional Neural Network (CNN), convolutions can be refactored into highly efficient matrix multiplication operations. This allows GPUs to accelerate the process of detecting patterns like edges and textures in image data.

 

Transformer layers: The attention mechanism, which powers large language models, is built almost entirely on matrix multiplications. Queries, keys, and values are all represented as matrices, and multiplying them is how the model determines the relevance of different parts of the input sequence. 

 

In a Transformer's self-attention layer, the "key" is a vector representation derived from an input token that serves as a reference to identify relevant information from other parts of the sequence. The Transformer then compares this key with the "query" vectors from other tokens to calculate an "attention score," which determines how much importance each token should give to the other's "value" vector, effectively creating a weighted representation of the input sequence.

 

The key vectors are multiplied with the corresponding query vectors to create attention scores, indicating the similarity between different parts of the input.

 

These attention scores are then used to compute a weighted sum of the "value" vectors, where the weights determine the contribution of each value to the final output. This process allows the Transformer to focus on the most relevant information when constructing its output for each token.

 

Hardware is built for matrix multiplication 

 

The reliance on matrix multiplication is not just a mathematical convenience; it aligns perfectly with modern hardware architecture. 

 

GPU optimization: Graphical Processing Units (GPUs), which power most deep learning, are specifically designed for massive parallel processing. The repeated, independent calculations in a matrix multiplication operation are a perfect match for a GPU's architecture, allowing millions of computations to happen simultaneously.

 

Tensor cores: NVIDIA GPUs include specialized components called "Tensor Cores" that are optimized to accelerate mixed-precision matrix operations. This directly targets and speeds up the core computational task of deep learning. 

 

Summary: The synergy of math and hardware 

 

In essence, matrix multiplication is the language of deep learning. It's the mathematical primitive that enables data transformation in neural network layers and is the basis for updating weights during training. This approach is highly efficient for modern GPUs, creating a powerful synergy that makes large-scale deep learning possible and practical. 

 

5. China Won't Get Addicted to America's Chips. Wall Street Journal, Eastern edition; New York, N.Y.. 05 Sep 2025: A16. 


Kaip veikia šiandieninis dirbtinis intelektas? Kinija netaps priklausoma nuo Amerikos lustų, kaip nuo narkotikų


Šiandienos dirbtinis intelektas daugiausia veikia per mašininį mokymąsi ir neuroninius tinklus, leisdamas sistemoms mokytis iš didžiulių duomenų kiekių be aiškaus programavimo. Nors Kinija DI kūrimui rėmėsi JAV lustais, naujausios ataskaitos rodo, kad ji aktyviai ieško vietinių alternatyvų ir vargu ar liks priklausoma nuo Amerikos technologijų.

 

„Kaip pažymi Rushas Doshi ir Chrisas McGuire'as, lustų pardavimas Kinijai panaikintų JAV įtaką, paversdamas trūkumą atsargomis ir suteikdamas Pekinui dalis bei praktinę patirtį, kaip panaikinti inovacijų atotrūkį (Laiškai, rugsėjo 2 d.). Mintis, kad galime priversti Kiniją priklausyti nuo mūsų lustų, ignoruoja Komunistų partijos doktriną. Pekino strategija siekia sukurti vietines ir kontroliuojamas technologijas, kad būtų pasiektas savarankiškumas iš Vakarų. Tuo tikslu valstybė perima prieigą prie rinkos, duomenų ir turinio, taikydama licencijavimo, kibernetinio saugumo ir viešųjų pirkimų taisykles, taip pat kitus sąlyginius, atšaukiamus leidimus.

 

Neseniai įvykęs „H20“ epizodas iliustruoja tai. Po to, kai Vašingtonas licencijavo pardavimus, Pekinas nurodė įmonėms teikti pirmenybę vietinėms alternatyvoms. Įmonės gali pasinaudoti trumpais laiko tarpais atsargoms kaupti – panašiai kaip jos pirko A800/H800 2022–2023 m., kol ta spraga užsidarė, – tačiau politikos kryptis nepasikeitė. Pekinas imsis to, ko jam reikia šiandien, kad rytoj pasiektų savarankiškumą.

 

Eksporto kontrolės kritikai teisūs sakydami, kad kai kurie kontrabandiniai lustai nutekės. Tačiau tai įrodo, kad kontrolė kandžiojasi. Kas pasiekia... Rinka yra mažos, be garantijų, nereguliarios partijos – ne pastovus, vienodas, didelio masto tiekimas, kurio reikalauja didelio masto mokymai. Kai kontrolė yra vykdoma, ji padidina išlaidas, ištempia terminus ir riboja mastą, apribodama svarbius kriterijus: mokymo klasės greitintuvus [1], HBM [2], EDA įrankius [3] ir litografiją.

 

Kai kurie teigia, kad CUDA, „Nvidia“ programinė įranga lustams programuoti, „pririštų“ Kiniją prie Amerikos dirbtinio intelekto ekosistemos. Tačiau leidžiant palaikomus CUDA diegimus, šiandienos pilkosios rinkos lašeliai būtų pakeisti stabiliomis, tiekėjų palaikomomis sistemomis, kurios mokytų Kinijos inžinierius ir paspartintų pakeitimą šalies viduje. Tada Pekinas galėtų savo nuožiūra nutraukti prieigą, iškeisdamas mūsų svertą į savo mokymąsi.

 

Craig Singleton

 

Fdn. for Defense of Democracies

 

Washington“ [5]

 

1. Dirbtinio intelekto mokymo klasės greitintuvai yra specializuoti aparatinės įrangos komponentai, skirti pagreitinti mašininio mokymosi ir gilaus mokymosi modelių mokymo procesą. Šie procesoriai yra būtini norint susidoroti su didžiuliais skaičiavimo ir duomenų apdorojimo poreikiais, susijusiais su sudėtingomis dirbtinio intelekto užduotimis, kurių bendrosios paskirties procesoriai negali efektyviai valdyti.

Pagrindiniai dirbtinio intelekto mokymo greitintuvų tipai:

 

Grafikos apdorojimo įrenginiai (GPU): labiausiai paplitęs greitintuvų tipas, GPU yra labai veiksmingi dirbtinio intelekto mokymui dėl savo didžiulių lygiagretaus apdorojimo galimybių. Iš pradžių sukurti grafikos perteikimui, jų gebėjimas vienu metu vykdyti tūkstančius operacijų idealiai tinka tenzorių ir matricų skaičiavimams, kurie įprasti giliajame mokymesi. Pagrindiniai veikėjai yra NVIDIA ir AMD.

 

Tenzorių apdorojimo įrenginiai (TPU): „Google“ sukurti TPU yra specialiai sukurtos konkrečioms programoms skirtos integrinės grandinės (ASIC), specialiai sukurtos mašininio mokymosi darbo krūviams, ypač naudojant „TensorFlow“ sistemą. Jie puikiai atlieka didelio masto matricų daugybą, kuri sudaro giliojo mokymosi pagrindą [4], siūlydami didelį našumą ir energijos vartojimo efektyvumą. TPU daugiausia galima įsigyti per debesijos paslaugas, tokias kaip „Google Cloud“.

 

Lauko programuojami loginiai matricos (FPGA): FPGA yra perkonfigūruojamos integrinės grandinės, kurias galima perprogramuoti po pagaminimo, kad atliktų konkrečias užduotis. Šis lankstumas leidžia kūrėjams kurti individualią aparatinės įrangos logiką unikaliems dirbtinio intelekto darbo krūviams, pasiekiant pusiausvyrą tarp ASIC greičio ir GPU lankstumo.

Vafliniai varikliai (WSE): Atstovaujantys naujesniam ir galingesniam vystymuisi, WSE integruoja visą procesorių į vieną, didelę silicio plokštelę. Tokios įmonės kaip „Cerebras“ sukūrė WSE, turinčias daug tarpusavyje sujungtų dirbtinio intelekto branduolių, kurie žymiai padidina skaičiavimo galią mokant labai didelius, sudėtingus modelius.

 

Debesijos pagrindu sukurtas pritaikytas silicis: Be „Google“ TPU, didieji debesijos paslaugų teikėjai siūlo savo pritaikytus lustus dirbtinio intelekto darbo krūviams. Pavyzdžiui, „Amazon Web Services“ (AWS) teikia „Trainium“ lustus, skirtus sumažinti mašininio mokymosi modelių kainą ir paspartinti jų mokymą.

 

Pagrindiniai dirbtinio intelekto mokymo sistemos komponentai

Be pagrindinio greitintuvo lusto, visa mokymo sistema apima ir kitus dirbtiniam intelektui optimizuotus komponentus:

 

Atmintis: Didelių modelių mokymui ir didelių duomenų rinkinių apdorojimui reikia daug didelės spartos atminties.

 

Didelio pralaidumo atmintis (HBM): Ši specializuota atminties technologija, naudojama aukščiausios klasės GPU ir kituose greitintuvuose, užtikrina itin didelį duomenų perdavimo greitį.

 

Vaizdo RAM (VRAM): Speciali atmintis GPU, kurioje saugomi dideli duomenų ir parametrų kiekiai, reikalingi lygiagrečiam apdorojimui.

Tinklas: Norint apmokyti itin didelius modelius, keli greitintuvai turi greitai susisiekti. Didelės spartos ir didelio pralaidumo tinklas yra labai svarbus norint sujungti tūkstančius lustų duomenų centre.

Aušinimas ir maitinimo šaltinis: Dirbtinio intelekto mokymo skaičiavimo intensyvumas generuoja milžinišką šilumą ir sunaudoja daug energijos. Didelio našumo sistemoms reikalingos tvirtos aušinimo sistemos ir galingi, efektyvūs maitinimo šaltiniai, kad būtų užtikrintas patikimas ir ilgalaikis veikimas.

 

Mokymo greitintuvai ir išvadų greitintuvai

Svarbu atskirti greitintuvus, skirtus mokymui, nuo greitintuvų, skirtų išvadoms.

 

Mokymo greitintuvai: jie optimizuoti intensyviems, didelių paketų ir labai lygiagretiems skaičiavimams, reikalingiems pradiniam modelio mokymui.

 

Išvadų greitintuvai: jie optimizuoti mažesnio delsos, mažesnių paketų skaičiavimams, reikalingiems naudojant apmokytą modelį prognozėms gamybinėje aplinkoje daryti. Nors mokymo lustai gali atlikti išvadas, specializuoti išvadų lustai dažnai yra ekonomiškesni ir efektyvesni tai konkrečiai užduočiai atlikti.

 

2. HBM (didelės spartos atmintis) – tai DRAM tipas su 3D sluoksniuota architektūra, kuri užtikrina žymiai didesnį duomenų perdavimo greitį ir didesnę atminties talpą nei tradicinė DRAM. Dirbtiniam intelektui HBM yra labai svarbus, nes jis tiesiogiai patenkina didžiulius dirbtinio intelekto modelių duomenų poreikius, sudarydamas sąlygas greitesniems ir efektyvesniems mokymo ir išvadų procesams tokiose programose kaip generatyvusis dirbtinis intelektas ir dideli kalbos modeliai (LLM). Pagrindiniai HBM gamintojai yra „SK Hynix“, „Samsung“ ir „Micron“, o „SK Hynix“ šiuo metu pirmauja rinkoje.

 

 

3D sluoksniavimas:

 

Užuot išdėlioję atminties lustus horizontaliai, HBM juos vertikaliai sudeda, sukurdamas tankų, kompaktišką ir energiją taupantį atminties sprendimą.

 

 

Silicio tarpiklis:

 

Šis 3D sluoksniavimas prie procesoriaus (kaip ir GPU) prijungtas per silicio tarpiklį – sudėtingą platformą, kurioje išgraviruoti tūkstančiai pėdsakų, skirtų greitam duomenų perdavimui.

 

 

Didelės spartos atmintis:

 

Sluoksniuota konstrukcija ir trumpos jungtys sumažina fizinį duomenų perdavimo atstumą, todėl duomenų pralaidumas (pralaidumas) yra daug didesnis, palyginti su tradicine atmintimi.

Mažesnės energijos sąnaudos:

Nepaisant didelio našumo, kompaktiškas ir efektyvus HBM dizainas taip pat gali lemti geresnį energijos vartojimo efektyvumą nei kai kurios alternatyvos.

 

Poveikis dirbtiniam intelektui

 

Greitas mokymas:

 

Dirbtinio intelekto modeliams, ypač dideliems, mokymo metu reikia didžiulių duomenų kiekių. Dėl didelio HBM pralaidumo šie duomenys daug greičiau tiekiami į dirbtinio intelekto procesorius, o tai žymiai sutrumpina mokymo laiką.

 

Efektyvus išvadų darymas:

Panašiai HBM padeda sumažinti kliūtis išvadų darymo etape, kai dirbtinio intelekto modelis naudojamas prognozėms arba turiniui generuoti, todėl dirbtinio intelekto programos tampa jautresnės.

 

Pažangaus dirbtinio intelekto įgalinimas:

Padidėjusios HBM teikiamos galimybės yra būtinos norint toliau tobulinti ir plėsti sudėtingas dirbtinio intelekto programas, tokias kaip generatyvinis dirbtinis intelektas, kurios iš naujo apibrėžė skaičiavimo reikalavimus.

 

Pagrindiniai gamintojai

 

SK Hynix: Šiuo metu rinkos lyderė, pradėjusi HBM technologiją.

 

Samsung: Svarbus atminties rinkos dalyvis.

 

Micron: Vis labiau įsitvirtinanti, daugiausia dėmesio skiriant efektyvumui ir inovacijoms HBM produktuose.

 

HBM ateitis dirbtiniame intelekte

 

HBM4:

Tikimasi, kad kita HBM karta, kuri, kaip tikimasi, žymiai padidins duomenų perdavimo spartą ir pralaidumą, jau artėja prie standartizacijos.

 

Didesnis pritaikymas:

Būsimuose HBM produktuose greičiausiai bus daugiau klientui pritaikytos logikos pagrindinėje lustoje, skirtos valdyti ir optimizuoti atmintį konkretiems dirbtinio intelekto greitintuvams.

 

Nuolatinis augimas:

Prognozuojama, kad HBM rinka smarkiai augs dėl spartėjančio dirbtinio intelekto diegimo įvairiose pramonės šakose.

 

3. EDA (elektroninio projektavimo automatizavimo) įrankiai yra programinės įrangos paketai, kuriuos inžinieriai naudoja sudėtingoms elektroninėms sistemoms, integriniams grandynams (IC) ir spausdintinėms plokštėms (PCB) projektuoti, modeliuoti, analizuoti ir tikrinti. Pagrindinės funkcijos apima schemų fiksavimą, grandinės modeliavimą, maketo projektavimą ir projektavimo patikrinimą, kurie automatizuoja projektavimo proceso dalis, siekiant pagerinti tikslumą ir efektyvumą.

 

Populiarūs EDA įrankių tiekėjai ir jų pasiūlymai apima „Cadence“ ir „Synopsys“, skirtus IC projektavimui, „Altium“, skirtą PCB projektavimui, ir „Keysight“, skirtą puslaidininkių modeliavimui.

 

Schemų fiksavimas:

Elektroninės grandinės komponentų ir jų sujungimų grafinio vaizdo kūrimas.

 

Modeliavimas:

Siūlomo grandinės projekto elgsenos numatymas prieš jį fiziškai įgyvendinant.

 

Patikrinimas:

Užtikrinimas, kad grandinės projektas atitinka numatytą funkcionalumą ir veikia tinkamai.

 

Išdėstymo projektavimas:

Komponentų fizinio išdėstymo spausdintinėje plokštėje arba integrinėje grandinėje projektavimas.

 

Analizė:

Projekcijų optimizavimas atsižvelgiant į našumą, energijos suvartojimą ir plotą.

 

Bibliotekų valdymas:

Elektroninių komponentų ir su jais susijusių duomenų bibliotekų kūrimas ir valdymas.

 

EDA įrankių ir tiekėjų pavyzdžiai

 

„Altium“:

Suteikia išsamų spausdintinių plokščių projektavimo ir išdėstymo sprendimą  su maršrutizavimo, išdėstymo ir gamybos failų generavimo funkcijomis.

 

„Cadence Design Systems“:

Siūlo platų EDA įrankių asortimentą sudėtingiems puslaidininkiniams lustams projektuoti, apimantį modeliavimo, projektavimo ir tikrinimo procesus.

 

„Synopsys“:

Žinoma dėl savo dirbtiniu intelektu pagrįstų EDA sprendimų, kurie automatizuoja užduotis, optimizuoja lustų našumą ir palengvina projektavimo perkėlimą.

 

„Keysight“:

Specializuojasi puslaidininkinių įtaisų kompleksiniuose modeliavimo sprendimuose, įskaitant įtaisų modelių ištraukimą ir PDK patvirtinimą.

 

EDA įrankių naudojimo privalumai

 

Didesnis našumas:

Sudėtingų užduočių automatizavimas supaprastina projektavimo darbo eigą.

 

Pagerintas tikslumas:

Sumažina klaidų riziką imituojant ir tikrinant projektus prieš gamybą.

 

Sąnaudų mažinimas:

Projektavimo trūkumų nustatymas ir taisymas ankstyvoje proceso stadijoje sumažina brangų pakartotinį darbą.

 

Greičiau pateikimo į rinką laikas:

Projektavimo ir tikrinimo proceso pagreitinimas padeda greičiau pateikti produktus į rinką.

 

Sudėtingo projektavimo palaikymas:

Leidžia kurti labai sudėtingas elektronines sistemas, kurių būtų neįmanoma suprojektuoti rankiniu būdu.

 

4. Didelio masto matricų daugybos sudaro gilaus mokymosi pagrindą, nes tai yra pagrindinės matematinės operacijos, naudojamos duomenims transformuoti neuroniniuose tinkluose tiek mokymo, tiek išvadų darymo metu. Kiekvieną pagrindinį neuroninio tinklo komponentą galima suskirstyti į matricų daugybas, kurios taip pat užtikrina šiuolaikiniam dirbtiniam intelektui reikalingą efektyvumą dideliu mastu.

 

 

Neuroninio tinklo pagrindinis mechanizmas

 

 

Neuroninis tinklas yra funkcija, kuri transformuoja įvesties duomenis į norimą išvestį, pavyzdžiui, vaizdą į etiketę („katė“) arba tekstą į sugeneruotą atsakymą. Šis procesas vyksta per neuronų sluoksnių seriją, o matricų daugyba yra kiekvieno žingsnio pagrindas.

 

 

Tiesioginis sklidimas: Kai duomenys juda tinklu, jie pereina iš vieno sluoksnio į kitą. Tankiame arba visiškai sujungtame sluoksnyje tai yra matricų daugyba.

 

 

Įvestis ir svoriai kaip matricos: įvesties duomenys (pavyzdžiui, vaizdų rinkinys) vaizduojami kaip matrica.

 

 

Tinklo išmokti parametrai, vadinami „svoriais“, saugomi atskiroje matricoje.

 

 

Skaičiavimas: sluoksnio išvestis apskaičiuojama įvesties matricą padauginus iš svorių matricos, tada pridedant šališkumo vektorių. Po to dažnai seka netiesinė aktyvavimo funkcija.

 

Išvestis = aktyvavimas(įvestis x svoriai + paklaida)

 

Atgalinis dauginimas: Mokymo metu tinklas koreguoja savo svorius, kad sumažintų paklaidą.

 

Šis procesas, vadinamas atgaliniu dauginimu, naudoja grandinės taisyklę nuostolių funkcijos gradientui svorių atžvilgiu apskaičiuoti. Šis sudėtingas skaičiavimas matematiškai išreiškiamas kaip didelių matricų daugybų seka.

 

Grandinės taisyklė yra skaičiavimo taisyklė, skirta rasti sudėtinės funkcijos (funkcijos funkcijoje), pvz., f(g(x)), išvestinę. Ji teigia, kad f(g(x)) išvestinė yra išorinės funkcijos f išvestinė, įvertinta pagal vidinę funkciją g(x), padauginta iš vidinės funkcijos g(x) išvestinės. Formulė yra d/dx [f(g(x))] = f'(g(x)) * g'(x).

Matricų daugyba naudojama visiems pagrindiniams sluoksnių tipams.

 

Be paprastų, visiškai sujungtų sluoksnių, matricų daugybos yra pagrindinis variklis sudėtingesnėms neuroninių tinklų architektūroms.

 

Konvoliuciniai sluoksniai: Konvoliuciniame neuroniniame tinkle (CNN) konvoliucijas galima pertvarkyti į labai efektyvias matricų daugybos operacijas. Tai leidžia GPU paspartinti vaizdo duomenų modelių, tokių kaip kraštai ir tekstūros, aptikimo procesą.

 

Transformatoriaus sluoksniai: Dėmesio mechanizmas, kuris palaiko didelius kalbos modelius, beveik visiškai pagrįstas matricų daugyba. Užklausos, raktai ir reikšmės pateikiamos kaip matricos, o jas daugindamas modelis nustato skirtingų įvesties sekos dalių aktualumą.

 

Transformatoriaus savęs dėmesio sluoksnyje „raktas“ yra vektoriaus atvaizdavimas, gautas iš įvesties žetono, kuris naudojamas kaip nuoroda, siekiant identifikuoti atitinkamą informaciją iš kitų sekos dalių. Tada transformatorius palygina šį raktą su „užklausos“ vektoriais iš kitų žetonų, kad apskaičiuotų „dėmesio balą“, kuris nustato, kiek svarbos kiekvienas žetonas turėtų suteikti kito „reikšmės“ vektoriui, efektyviai sukurdamas svertinį įvesties sekos atvaizdavimą.

 

Rakto vektoriai dauginami su atitinkamais užklausos vektoriais, kad būtų sukurti dėmesio balai, rodantys skirtingų įvesties dalių panašumą.

 

Šie dėmesio balai naudojami „reikšmių“ vektorių svertinei sumai apskaičiuoti, kur svoriai lemia kiekvienos reikšmės indėlį į galutinę išvestį. Šis procesas leidžia transformatoriui sutelkti dėmesį į svarbiausią informaciją, kuriant kiekvieno žetono išvestį.

 

 

Aparatinė įranga sukurta matricų daugybai

 

 

Matricų daugybos naudojimas yra ne tik matematinis patogumas; jis puikiai dera su šiuolaikine aparatinės įrangos architektūra.

 

 

GPU optimizavimas: Grafiniai procesoriai (GPU), kurie palaiko didžiąją dalį gilaus mokymosi, yra specialiai skirti masiniam lygiagrečiam apdorojimui. Pakartotiniai, nepriklausomi skaičiavimai matricų daugybos operacijoje puikiai atitinka GPU architektūrą, leisdami vienu metu atlikti milijonus skaičiavimų.

 

 

Tenzoriniai branduoliai: NVIDIA GPU apima specializuotus komponentus, vadinamus „Tenzoriniais branduoliais“, kurie yra optimizuoti mišraus tikslumo matricų operacijoms pagreitinti. Tai tiesiogiai nukreipia ir pagreitina pagrindinę gilaus mokymosi skaičiavimo užduotį.

 

 

Santrauka: Matematikos ir aparatinės įrangos sinergija

 

 

Iš esmės matricų daugyba yra gilaus mokymosi kalba. Tai matematinis primityvas, leidžiantis transformuoti duomenis neuroninio tinklo sluoksniuose ir yra svorių atnaujinimo mokymo metu pagrindas. Šis metodas yra labai efektyvus šiuolaikiniams GPU, sukuriantis galingą sinergiją, kuri leidžia ir leidžia pritaikyti didelio masto gilųjį mokymąsi.

 

5. China Won't Get Addicted to America's Chips. Wall Street Journal, Eastern edition; New York, N.Y.. 05 Sep 2025: A16. 

European Union’s Economic Engine Is Stalling: German Economists Cut View Of Growth In '25,

 


 

“Germany's economy is set to grow by less than previously expected, hurt by tariffs and a lower-than-expected boost to activity from the government's planned fiscal loosening, leading economists said on Thursday.

 

Europe's largest economy is set to expand by just 0.2% this year and 1.3% in 2026, down from the 0.3% and 1.5%, respectively, under previous forecasts, the Ifo Institute said in a closely watched quarterly forecast.

 

U.S. tariffs are still having a noticeable impact on the Germany economy, said Timo Wollmershaeuser, head of forecasts at Ifo.

 

"Solely the uncertainty associated with the previous tariff dispute is likely to gradually recede, which will support the economy," he said.

 

Industrial production, traditionally a key driver of Germany's economy, and exports helped in the first quarter of the year as sales to U.S. importers were brought forward to get ahead of tariffs. However, much of that reversed after the start of April. Germany, as with the rest of the European Union, faces a 15% tariff on most of its goods imports into the U.S.

 

Meanwhile, Ifo economists expect economic-policy measures planned by Germany's new government to offer less of an uplift to the economy. This year, lawmakers amended the country's constitutional fiscal debt brake, opening the door to hundreds of billions of euros in borrowing, including for defense.

 

Much of the boost will only come in later years, Ifo economists said. If those plans, which include cuts to electricity taxes, lower grid fees and increases in commuter allowances, are eventually implemented, fiscal policy may haul the German economy out of the crisis, they said.

 

"However, if economic policy remains at a standstill, there is a risk of more years of economic paralysis and the erosion of the business location," they added.

 

Germany's economy has barely grown since 2019, as spiraling energy costs and rising global competition hit its industrial base.

 

Gross domestic product contracted in 2023 and 2024.

 

Unemployment is also expected to rise slightly this year, and, while inflation is set to hold at about 2.1% in 2026, it will rise to 2.6% in 2027 as energy prices increase again, the report said.” [1]

 

1. German Economists Cut View Of Growth In '25, '26. Frankl, Ed.  Wall Street Journal, Eastern edition; New York, N.Y.. 05 Sep 2025: A7. 

Europos Sąjungos ekonomikos variklis stringa: Vokietijos ekonomistai nuvertino 2025 m. augimo perspektyvas.


Vokietijos ekonomika augs mažiau nei tikėtasi anksčiau, nukentėjusi nuo tarifų ir mažesnio nei tikėtasi aktyvumo postūmio dėl vyriausybės planuojamo fiskalinio švelninimo, ketvirtadienį pareiškė pirmaujantys ekonomistai.

 

Didžiausia Europos ekonomika šiais metais turėtų augti tik 0,2 %, o 2026 m. – 1,3 %, palyginti su atitinkamai 0,3 % ir 1,5 %, kaip buvo prognozuota pagal ankstesnes prognozes, atidžiai stebimoje ketvirčio prognozėje teigė „Ifo“ institutas.

 

JAV tarifai vis dar daro pastebimą poveikį Vokietijos ekonomikai, teigė „Ifo“ prognozių vadovas Timo Wollmershaeuser.

 

„Tikėtina, kad tik su ankstesniu tarifų ginču susijęs neapibrėžtumas palaipsniui mažės, o tai palaikys ekonomiką“, – sakė jis.

 

Pramonės gamyba, tradiciškai pagrindinė Vokietijos ekonomikos varomoji jėga, ir eksportas padėjo pirmąjį metų ketvirtį, nes pardavimai JAV importuotojams buvo paankstinti, kad būtų užtikrintas... prieš tarifus. Tačiau didžioji dalis to pasikeitė po balandžio pradžios. Vokietijai, kaip ir likusiai Europos Sąjungos daliai, taikomas 15 % tarifas daugumai prekių, importuojamų į JAV.

 

Tuo tarpu „Ifo“ ekonomistai tikisi, kad naujosios Vokietijos vyriausybės planuojamos ekonominės politikos priemonės mažiau paskatins ekonomiką. Šiais metais įstatymų leidėjai iš dalies pakeitė šalies konstitucinį fiskalinį skolos stabdį, atverdami duris šimtams milijardų eurų skolinimuisi, įskaitant gynybai.

 

„Ifo“ ekonomistai teigė, kad didelis postūmis bus tik vėlesniais metais. Jei šie planai, apimantys elektros energijos mokesčių mažinimą, mažesnius tinklo mokesčius ir vairuotojų išmokų padidinimą, galiausiai bus įgyvendinti, fiskalinė politika gali ištraukti Vokietijos ekonomiką iš krizės, teigė jie.

 

„Tačiau jei ekonominė politika ir toliau bus sustabdyta, kyla pavojus, kad dar vieneri metai bus ekonominio paralyžiaus ir verslo vietos erozijos“, – pridūrė jie.

 

Vokietijos ekonomika nuo 2019 m. vos augo, nes spirališkai didėjančios energijos kainos ir didėjanti pasaulinė konkurencija smogė jos pramonės bazei.

 

Bendrasis vidaus produktas sumažėjo 2019 m. 2023 ir 2024 m.

 

Manoma, kad šiais metais nedarbas taip pat šiek tiek išaugs, ir nors infliacija 2026 m. turėtų išlikti apie 2,1 %, 2027 m. ji išaugs iki 2,6 %, nes energijos kainos vėl kils, teigiama ataskaitoje.“ [1]

 

1. German Economists Cut View Of Growth In '25, '26. Frankl, Ed.  Wall Street Journal, Eastern edition; New York, N.Y.. 05 Sep 2025: A7.