Sekėjai

Ieškoti šiame dienoraštyje

2025 m. vasario 5 d., trečiadienis

Dirbtinis intelektas USB atmintinėje: dirbtinis intelektas nėra branduolinis įrenginys - negalite sustabdyti jo plitimo

 

 

 „Kinijos technologijų pramonė neseniai sukėlė grubų šoką JAV technologijų pramonei, o kartu ir akcijų rinkai, kai pristatė DeepSeek – dirbtinio intelekto (A.I.) modelį, kurio našumas prilygsta geriausiems Amerikoje, tačiau jis galėjo būti sukurtas už nedidelę kainą ir nepaisant prekybos apribojimų A.I. lustams.

 

 Nuo to laiko buvo daug įnirtingų bandymų išsiaiškinti, kaip jiems tai pavyko ir ar visa tai buvo legalu. Tai nėra patys svarbiausi klausimai, o per didelis dėmesys jiems yra pavyzdys, kaip mes iš pradžių buvome pritrenkti.

 

 Tikroji „DeepSeek“ pamoka yra ta, kad Amerikos požiūris į A.I. saugą ir taisykles – susirūpinimą kelia tiek Bideno, tiek Trumpo administracijos, taip pat daugelis A.I. įmonių – iš esmės buvo nesąmonė. Niekada nebuvo įmanoma sustabdyti šios galingos naujos technologijos plitimo, ir tikrai neįmanoma, tik nustatant prekybos apribojimus komponentams, pvz., grafiniams lustams. Tai buvo savanaudiška fikcija, kurią užkabino makaronais ant ausų nesiorientuojantiems lyderiams pramonė, kuri norėjo, kad vyriausybė užlenktų konkurentus.

 

 Vietoj bergždžių pastangų sulaikyti šį džiną, vyriausybė ir pramonė turėtų ruošti mūsų visuomenę dideliems pokyčiams, kurie netrukus ateis.

 

 Klaidingas dėmesys izoliavimui yra pavėluotas branduolinio amžiaus atgarsis, kai JAV ir kitos apribojo atominių bombų plitimą, apribodamos prieigą prie prisodrinto urano, stebėdamos, ką daro kai kurie mokslininkai, ir siųsdamos inspektorius į laboratorijas ir karines bazes. Šios priemonės, paremtos, kartais demonstruojama, jėga, turėjo aiškų poveikį. Pasaulis dar nesusprogdino.

 

 Tačiau vienas esminis skirtumas yra tas, kad branduolinius ginklus galėjo sukurti tik keli specializuoti mokslininkai, dirbantys aukščiausiame lygyje jų srityse.

 

 Kita vertus, pagrindinė idėja, kuri skatina dirbtinio intelekto revoliuciją, gyvuoja nuo 1940 m.

 

 Tai, kas atvėrė užtvanką, buvo tai, kad pirmiausia atsirado didžiuliai duomenų rinkiniai (internetu ir kitomis skaitmeninėmis technologijomis), o paskui galingi grafiniai procesoriai (pvz., „Nvidia“), galintys apskaičiuoti A.I. modelius iš tų duomenų šaltinių.

 

 Kitas skirtumas: kiekvienas branduolinis ginklas turi būti pagamintas iš plieno ir skiliųjų medžiagų.

 

 Kita vertus, kai kurie A.I., modeliai gali tilpti į USB atmintinę ir gali būti be galo dauginami ir kuriami, tiesiog prijungus tą atmintuką prie naujų nešiojamųjų kompiuterių. [1]

 

 Iš pradžių naujo modelio, pvz., ChatGPT, kūrimas yra labai brangus procesas, tačiau būtent išvestis, vadinama modelio svoriais, yra tokia vertinga ir atkartojama.

 

 Tokios įmonės, kaip „OpenAI“, garsiai skelbusios, kad A.I. kelia egzistencinę grėsmę žmonijai, pasiliko šiuos modelio svorius sau, kad kiti neįsitrauktų į visus tuos brangius kūrimo darbus, kad nesukurtų ką nors dar galingesnio.

 

 O jei tos, apsaugos siekiančios, įmonės uždirbtų daug pinigų dėl JAV vyriausybės gynybinių priemonių? Na, tai tik kaina už žmonijos saugumą, tiesa?

 

 Tos įmonės turėjo sąjungininką - prezidentą Joe Bideną – ypač jo personalo vadovą Bruce'ą Reedą, kuris žiūrėjo „Mission: Impossible – Dead Reckoning Part One“ nuotykių istoriją apie A.I., kuris tapo nesąžiningu. Jau pasirašęs vieną vykdomąjį įsakymą, ribojantį šių svarbių lustų pardavimą Kinijai, Bidenas pasirašė ir kitą, kad nustatytų saugos ir saugumo mandatus.

 

 Trumpo administracija veikia pagal tą pačią klaidingą logiką. Vos vieną dieną po savo naujos kadencijos prezidentas ir OpenAI generalinis direktorius Samas Altmanas (šviežiai atrodantis po milijono dolerių įsipareigojimo Trumpo inauguraciniam fondui) paskelbė apie didžiulę kompiuterinės infrastruktūros projektą. Jis vadinamas „StarGate“ ir yra parduodamas, kaip kelių šimtų milijardų dolerių pasiūlymas, siekiant išlaikyti JAV pranašumą, sparčiai augančioje, pramonėje.

 

 „DeepSeek“ pasirinko tą dieną, kaip momentą, paskelbti straipsnį, leidžiantį pasauliui įsitraukti į šį puikų perversmą. Bent jau jiems buvo smagu, manau. Bendrovė teigia, kad išleido tik nedidelę dalį to, ką išleido OpenAI ir kiti, nes sugebėjo optimizuoti savo programinę įrangą ir efektyviau išmokyti modelį. Tokia pažanga leido daugeliui kitų technologijų tapti pigesnėmis ir plačiau prieinamomis.

 

 Vis dėlto ne visi tuo įsitikinę, ypač atsižvelgiant į klausimus apie Kinijos pagarbą intelektinės nuosavybės teisėms ir prekybos apribojimus. Ar įmonė galėjo sukaupti uždraustą Nvidia lustų saugyklą? Galbūt. Ar modelio kūrimo išlaidos galėjo būti didesnės, nei buvo atskleista? Kai kurie skaičiavimai taip rodo. „OpenAI“ teigia, kad „DeepSeek“ galėjo pavogti kai kuriuos jos darbus. Vemti verčia dėl įmonės, kuri sukūrė komercinį produktą, pasisavindama didelę interneto dalį, tada tvirtino, kad tai buvo „sąžiningas panaudojimas“. (The New York Times padavė į teismą OpenAI ir Microsoft dėl ​​to, ar naujienų turinio naudojimas jų A.I. sistemose yra sąžiningas.)

 

Bet ką „DeepSeek“ padarė, jis ir kiti gali tai daryti toliau. Jau dabar daugelis A.I. įmonių remiasi „DeepSeek“ modeliu. Asmenys jį atsisiunčia arba teiraujasi tik mažos dalies OpenAI apmokestinimo.

 

 Pramonėje yra populiarus posakis, kad tikrasis lūžis bus A.G.I. arba dirbtinio bendrojo intelekto plėtra (angl. Artificial General Intelligence), kai A.I. pasiekia žmogaus lygio intelektą ir potencialiai tampa savarankiškas. Taigi, tai, kas vyksta dabar, yra tik tam tikras apšilimas, dėl kurio niekam nereikia per daug jaudintis. Tai patogus melas. Mes pasiekėme kitą A.G.I. lūžio taškas: dirbtinis pakankamai geras intelektas (angl. Artificial Good Enough Intelligence) – A.I. kuris yra greitas, pigus, keičiamas ir naudingas įvairiems tikslams – ir mes turime įsitraukti į tai, kas vyksta dabar.

 

 Daugelis stebėtojų tai apibūdino kaip Sputnik momentą. Tai neteisinga: Amerika negali atkurti savo dominavimo pažangiausiame A.I., nes technologija, duomenys ir patirtis, sukūrusi jį, jau yra platinami visame pasaulyje. Geriausias būdas, kuriuo ši šalis gali nusiteikti naujajam amžiui, yra pasiruošti jo poveikiui.

 

 Jei neišvengiamas A.I. kelia pavojų mūsų kibernetiniam saugumui, pavyzdžiui, užuot tik reguliavus eksportą, laikas sustiprinti mūsų tinklinę infrastruktūrą, kuri taip pat apsaugos ją nuo nuolatinės įsilaužimo grėsmės, kurią įvykdys atsitiktiniai agentai ar priešiškos vyriausybės. Ir užuot fantazavus apie tai, kaip koks nors būsimasis nesąžiningas A.I. gali mus pulti, laikas pradėti aiškiai galvoti, kaip korporacijos ir vyriausybės galėtų panaudoti A.I. šiuo metu, kad įtvirtinti jų dominavimą, griauti mūsų teises, didinti nelygybę. Kas liks nuošalyje, kai technologija ir toliau plečiasi? Kokioms teisėms kils grėsmė? Kokias įstaigas ir kaip reikės atstatyti? Ir ką galime padaryti, kad ši galinga technologija, turinti tiek daug naudos, būtų naudinga visuomenei?

 

 Taip pat laikas pripažinti, kad kelių didelių, tarptautinių, kompanijų interesai nėra sutampantys su kitų žmonių, susiduriančių su tokia milžiniška transformacija, interesais.

 

 Kad ir ką dar padarė DeepSeek, kad mes čia patektume, galbūt, privertė mus tai suvokti, už ką galime būti DeepSeek dėkingi. [2]

 

1. AI modeliai, kurie gali tilpti į USB atmintinę ir veikti standartiniame nešiojamajame kompiuteryje, apima: mažesnes kalbų modelių versijas, pvz., "Llama 7B" iš Meta, "TinyGPT" iš Hugging Face arba mažesnius objektų aptikimo modelius, pvz., "MobileNet"; iš esmės bet koks modelis su santykinai mažu parametrų dydžiu, leidžiančiu efektyviai apdoroti vietinį turinį, naudojant mažiau galingą aparatinę įrangą.

 

 Svarbus modelio dydis:

 

 Mažesni modeliai su mažiau parametrų labiau tinka nešiojamam kompiuteriui su ribota apdorojimo galia ir talpa.

 

 Optimizuotas išvadoms daryti:

 

 Ieškokite modelių, specialiai sukurtų „išvadoms“ (numatymui), kurie paprastai yra lengvesni ir greitesni.

 

 Suderinamumas su pagrindais:

 

 Įsitikinkite, kad pasirinktas modelis yra suderinamas su sistema, kurią planuojate naudoti savo nešiojamajame kompiuteryje (pvz., TensorFlow, PyTorch).

 

 

 

AI modelių, kurie gali tilpti į USB atmintinę ir veikti nešiojamajame kompiuteryje, pavyzdžiai:

 

 

 

 Natūralios kalbos apdorojimas (NLP):

 

 TinyGPT

 

 Lama 7B

 

 DistilBERT

 

 Kompiuterinė vizija:

 

 MobileNet

 

 EfficientNet

 

 ShuffleNet

2. The Dangerous A.I. Nonsense That Trump and Biden Fell For: Zeynep Tufekci. New York Times (Online) New York Times Company. Feb 5, 2025. 

A.I. On a Memory Stick: A.I. Isn't a Nuclear Device - You Cannot Stop It from Proliferating

 

"China’s tech industry recently gave the U.S. tech industry — and along with it, the stock market — a rude shock when it unveiled DeepSeek, an artificial intelligence model that performs on par with America’s best, but that may have been developed at a fraction of the cost and despite trade restrictions on A.I. chips.

Since then there have been a lot of frantic attempts to figure out how they did it and whether it was all above board. Those are not the most important questions, and the excessive focus on them is an example of precisely how we got caught off guard in the first place.

The real lesson of DeepSeek is that America’s approach to A.I. safety and regulations — the concerns espoused by both the Biden and Trump administrations, as well as by many A.I. companies — was largely nonsense. It was never going to be possible to contain the spread of this powerful emergent technology, and certainly not just by placing trade restrictions on components like graphic chips. That was a self-serving fiction, foisted on out-of-touch leaders by an industry that wanted the government to kneecap its competitors.

Instead of a futile effort to keep this genie bottled up, the government and the industry should be preparing our society for the sweeping changes that are soon to come.

The misguided focus on containment is a belated echo of the nuclear age, when the United States and others limited the spread of atomic bombs by restricting access to enriched uranium, by keeping an eye on what certain scientists were doing and by sending inspectors into labs and military bases. Those measures, backed up by the occasional show of force, had a clear effect. The world hasn’t blown up — yet.

One crucial difference, however, is that nuclear weapons could have been developed only by a few specialized scientists at the leading edge of their fields.

The core idea that powers the artificial intelligence revolution, on the other hand, has been around since the 1940s.

What opened the floodgates was the arrival first of vast data sets (via the internet and other digital technologies) and then of powerful graphic processors (like the ones from Nvidia), which can compute A.I. models from those data troves.

Another difference: Each nuclear weapon has to be constructed out of steel and fissile material.

Some A.I. models, on the other hand, can fit on a USB stick, and can be endlessly replicated and built upon just by plugging that stick into new laptops. [1]

Initially developing a new model, like ChatGPT, is a very costly process, but it’s the output, known as the model weights, that are so valuable, and so replicable.

Companies like OpenAI, which has loudly proclaimed that A.I. poses an existential threat to humanity, kept these model weights to themselves, lest others piggyback on all that expensive development work to produce something even more powerful.

And if those protection-minded companies made a lot of money because of the U.S. government’s defensive measures? Well, that’s just the price of keeping humanity safe, right?

Those companies had an ally in President Joe Biden — especially, said his chief of staff Bruce Reed, after he watched “Mission: Impossible — Dead Reckoning Part One,” a story of A.I. gone rogue. Having already signed one executive order restricting the sale of those crucial chips to China, Biden signed another to establish safety and security mandates.

The Trump administration is operating under the same faulty logic. Just one day into his new term, the president and OpenAI’s chief executive, Sam Altman (fresh off his $1 million pledge to Trump’s inaugural fund) announced a vast computing infrastructure venture. Called StarGate, it is billed as a multi-hundred-billion-dollar bid to retain U.S. advantage in the fast-growing industry.

DeepSeek chose the very next day as the moment to publish a paper letting the world in on its great coup. At least they’re having fun, I guess. The company says it spent only a small fraction of what OpenAI and others spent, because it was able to optimize its software and train its model more efficiently. Advances like that have allowed many other technologies to become cheaper and more widely available.

Still, not everyone believes that account, especially given questions about China’s respect for intellectual property rights and trade restrictions. Could the company have amassed a forbidden stash of Nvidia chips? Maybe. Could the cost of developing the model have been higher than was disclosed? Some estimates suggest so. OpenAI says that DeepSeek may have stolen some of its work. I’m gutted for the company that built a commercial product by hoovering up a big chunk of the internet then claiming it was “fair use.” (The New York Times has sued OpenAI and Microsoft over whether the use of news content in their A.I. systems is a fair use.)

But whatever DeepSeek did, it, and others, can keep doing it. Already, many AI companies are building on DeepSeek’s model. Individuals are downloading it or querying it for only a tiny fraction of what OpenAI charges.

Within the industry, there’s a popular trope that the real turning point will be the development of A.G.I., or Artificial General Intelligence, when A.I. reaches human-level intelligence and potentially becomes autonomous. The implication, then, is that what’s happening now is just a kind of warm-up, which no one needs to worry too much about. That’s a convenient falsehood. We have reached the other A.G.I. turning point: Artificial Good-Enough Intelligence — A.I. that is fast, cheap, scalable and useful for a wide range of purposes — and we need to engage with what’s happening now.

Many observers have described this as a Sputnik moment. That’s incorrect: America can’t re-establish its dominance over the most advanced A.I., because the technology, the data and the expertise that created it are already distributed all around the world. The best way this country can position itself for the new age is to prepare for its impact.

If the inevitable proliferation of A.I. endangers our cybersecurity, for example, instead of just regulating exports, it’s time to harden our networked infrastructure — which will also protect it against the ever-present threat of hacking, by random agents or hostile governments. And instead of fantasizing about how some future rogue A.I. could attack us, it’s time to start thinking clearly about how corporations and governments could use the A.I. that’s available right now to entrench their dominance, erode our rights, worsen inequality. As the technology continues to expand, who will be left behind? What rights will be threatened? Which institutions will need to be rebuilt and how? And what can we do so that this powerful technology with so much potential for good can benefit the public?

It is time, too, to admit that the interests of a few large, multinational companies aren’t good proxies for the interests of the people facing such a monumental transformation.

Whatever else DeepSeek may have done to get us here, perhaps forcing that realization is something we can be grateful for.” [2]

1. AI models that can fit on a USB stick and run on a standard laptop include: smaller versions of language models like "Llama 7B" from Meta, "TinyGPT" from Hugging Face, or smaller object detection models like "MobileNet"; essentially, any model with a relatively small parameter size, allowing for efficient local processing on less powerful hardware.

    Model size matters:

    Smaller models with fewer parameters are more suitable for running on a laptop with limited processing power and storage.

    Optimized for inference:

    Look for models specifically designed for "inference" (prediction) which are generally lighter and faster to run.

    Framework compatibility:

    Ensure the chosen model is compatible with the framework you plan to use on your laptop (e.g., TensorFlow, PyTorch).

 

Examples of AI models that could fit on a USB stick and run on a laptop:

 

    Natural Language Processing (NLP):

        TinyGPT

        Llama 7B

        DistilBERT

    Computer Vision:

        MobileNet

        EfficientNet

        ShuffleNet

2. The Dangerous A.I. Nonsense That Trump and Biden Fell For: Zeynep Tufekci. New York Times (Online) New York Times Company. Feb 5, 2025.