Sekėjai

Ieškoti šiame dienoraštyje

2025 m. vasario 2 d., sekmadienis

A Nearby Asteroid Harbors Material To Seed Life


"The organic building blocks required to seed life have been found on an asteroid for the first time.

Planetary scientists discovered the material within the coal-black dust and rock retrieved from the asteroid known as Bennu, the target of a pioneering NASA probe that scraped its surface and brought the resulting sample back to Earth.

The finding supports the theory that so-called near-Earth asteroids, like Bennu, were the source of life on Earth.

Researchers found 14 of the 20 amino acids that make up proteins and all five molecules that comprise DNA and RNA in mineral deposits of salty brine left on Bennu's surface, according to two papers published on Wednesday.

The finding also means that such building blocks could have come from the far reaches of our solar system and then landed on any hospitable planet or moon, said Tim McCoy, curator of meteorites at the Smithsonian Institution's Museum of Natural History, who examined the sample and is first author of the paper published in the journal Nature.

"We're talking about the earliest steps that lead towards life," McCoy said.

Life didn't arise on Bennu itself because the chemical ingredients and environment didn't have a chance to develop before becoming inert. "In addition to having the environment and the ingredients, you also need time and probably temperature, and we probably didn't have those for long enough or hot enough for this to happen on an asteroid," McCoy said.

The Bennu sample was retrieved by OSIRIS-REx, a robotic spacecraft that the National Aeronautics and Space Administration launched in 2016. After grabbing a soap-bar-sized scoop of rock and dust from the asteroid's surface in 2020, the spacecraft swung past Earth three years later and dropped a sealed capsule containing the material in the Utah desert.

Bennu is a pile of rubble about 1,600 feet across that formed 4.5 billion years ago from an original asteroid that broke apart and then reformed. It passes by Earth every six years about 186,000 miles away, closer than the Moon.

Bennu's parent asteroid contained pockets of liquid water that evaporated, leaving behind brines of various minerals that resemble the salty crusts of dry lakebeds on Earth. The minerals are the base from which the amino acids and other organic material formed.

At NASA's Goddard Space Flight Center in Greenbelt, Md., researchers ground tiny chips of asteroid into a fine powder, then made a "Bennu tea" by boiling it in water. That allowed them to extract and identify the organic compounds, according to Jason Dworkin, an astrobiologist at NASA Goddard and an author of the paper published in Nature Astronomy.

There are still many questions remaining, including why life didn't evolve on Bennu's parent asteroid and whether similar conditions might be present today in other parts of the solar system, such as Saturn's moon Enceladus, Jupiter's moon Europa, or Ceres, a dwarf planet in the asteroid belt between Mars and Jupiter.

More research is being conducted on the Bennu sample.

"This gives us a firsthand report of a negative control for life," Dworkin said. "A place that had all the stuff, but life didn't get going."" [1]

1. REVIEW --- Science Shorts: A Nearby Asteroid Harbors Material To Seed Life. Niiler, Eric.  Wall Street Journal, Eastern edition; New York, N.Y.. 01 Feb 2025: C3. 

 

Aiškus bandymų sustabdyti Kinijos dirbtinio intelekto plėtrą kvailumo aprašymas


 

 „Timas Dettmersas yra vienas iš pažangiausių dirbtinio intelekto mokslininkų, prisidėjusių prie „DeepSeek“ proveržio, kuris praėjusią savaitę patraukė pasaulio dėmesį.

 

 Jis niekada neturėjo ryšių su Kinijos komanda, kuri jį sukūrė.

 

 Dettmersas, Sietlo Alleno dirbtinio intelekto instituto tyrėjas, anksčiau dirbęs „Meta Platforms“, sukūrė naują būdą treniruoti ir paleisti dirbtinio intelekto (AI) modelį, naudojant mažiau galingą aparatinę įrangą. Jis paskelbė savo darbą 2021 m. Kai „DeepSeek“ komanda neseniai paskelbė savo dokumentus apie tai, kaip ji sukūrė modelius, jis atrado jo straipsnį tarp jų citatų. Pasirodo, jie buvo uolūs jo kūrybos skaitytojai.

 

 AI tyrimų bendruomenė turi kultūrą, leidžiančią publikuoti mokslinius straipsnius, kuriuose išsamiai paaiškinami nauji laimėjimai, ir sudaryti sąlygas visiems naudoti modelius. Būtent tokį požiūrį „Meta“ taikė, valdant Markui Zuckerbergui, ir kurį naudoja „DeepSeek“. Tai taip pat skatina šurmuliuojantį prancūzų AI startuolį „Mistral“ ir daugelį kitų pažangiausių dirbtinio intelekto įmonių ir tyrimų institucijų.

 

 Pristatydami naujausius „DeepSeek“ dirbtinio intelekto modelius matome, kaip dalijimasis visomis tomis žiniomis leido jos komandai, kuri savo darbui panaudojo visame pasaulyje išplitusių inžinierių sukurtas technikas, peršokti per, daug geresnius išteklius turinčias, AI komandas. JAV kursto aukšto lygio diskusijas apie tai, kiek amerikiečiai turėtų pasidalyti apie savo AI proveržius.

 

 „Jaučiasi gerai“, – sakė Dettmersas, kai paklausiau, kaip jautėsi, prisidėjęs prie to, ką kai kurie vadina „Sputniko akimirka“ dirbtinio intelekto srityje. Tačiau, pridūrė jis, geriausia buvo ne tik matyti, kaip jo darbas buvo įgyvendintas. Gali būti, kad DeepSeek komanda taip pat paskelbė išsamų dokumentą apie tai, kaip jie panaudojo jo naujoves, todėl jis ir kiti galėjo remtis jos darbu ir sukurti dar geresnį modelį.

 

 Dirbtinio intelekto jėgainė „OpenAI“ tam tikra prasme yra išskirtinė šios dalijimosi kultūros išimtis, ir yra kaltinimų, kad, galbūt, „DeepSeek“ padarė didelį šuolį į priekį iš dalies „distiliuodama“ OpenAI modelius. Distiliavimas yra modelio žinių išgaudymas ir gali būti naudojamas vietoj tradicinių mokymo modelių arba juos papildyti. Tačiau neleiskite, kad tai atitrauktų nuo diskusijų apie akademinio stiliaus dalijimąsi žiniomis, tokių modelių, kaip „DeepSeek“ kūrimą, kuriuos galima nemokamai atsisiųsti ir naudoti, ir atvirojo kodo, skirto jiems kurti, paskelbimą. Tai yra dalykai, kurie nulems AI lenktynių nugalėtojus ir pralaimėjusius tolimoje ateityje.

 

 Investuotojai, tokie, kaip Marcas Andreessenas, AI tyrimų srities dekanai, tokie kaip Yann Lecunn, ir daugelis kitų, finansuojančių ir kuriančių AI, teigia, kad dalijimasis, galiausiai, bus naudingas visai žmonijai.

 

Priešininkų stovykloje yra žmonių, ypač investuotojų, kaip Vinod Khosla, kurie teigia, kad tai kelia pavojų nacionaliniam saugumui.

 

 Jiems turėti geriausią dirbtinį intelektą prilygsta geriausiems variklius ar automobilius – dalykus, kurie praeityje lėmė, kurios šalys buvo turtingiausios, ir galėjo diktuoti verslo sąlygas kitoms. O kalbant apie ginklus, Holivudo filmai ir mokslinės fantastikos romanai dešimtmečius skatina mus suprasti pažadą ir pavojų, kad dirbtinis superintelektas mūsų pusėje. Kai kurie AI startuolių įkūrėjai sako, kad ši fikcija artėja prie realybės.

 

 Khosla, rizikos kapitalo įmonės Khosla Ventures įkūrėjas ir pirmasis išorės investuotojas į OpenAI, palygino atvirojo kodo metodą su tuo, kad pasidalintų Manheteno projekto detalėmis.

 

 Dario Amodei, „OpenAI“ konkurento „Anthropic“ vadovas, netrukus po „DeepSeek“ išleidimo parašė, kad tai sustiprina pažangių AI lustų eksporto kontrolę. Ši kontrolė prasidėjo, vadovaujant Bideno administracijai, siekiant pažaboti Kinijos dirbtinio intelekto plėtrą, uždraudžiant tam tikrų tipų pažangių lustų eksportą, ir laikui bėgant jie buvo sugriežtinti.

 

 Sąžininga sakyti, kad dauguma inžinierių, kuriančių AI, nesutinka su idėja, kad dirbtinio intelekto kūrimas turėtų būti laikomas paslaptyje.

 

 „Vienintelė priežastis, dėl kurios JAV buvo AI inovacijų centras, yra ta, kad dešimtmečius laikomės atviros leidybos etosu“, – sako AI investuotojas Anjney Midha, rizikos kapitalo įmonės Andreessen Horowitz partneris.

 

 Pavyzdys: naujo tipo dirbtinis intelektas, įgalinantis dabartinį bumą, buvo išrastas „Google“ 2017 m. Tačiau netrukus po to, kai įmonės inžinieriai pabandė pritaikyti šią techniką kalbai, rezultatas buvo dokumentas, kuriame daroma išvada, kad masiniai kalbų modeliai, tikriausiai, nebuvo tinkamas kelias. Kadangi jie paskelbė savo rezultatus, OpenAI inžinieriai padarė priešingą išvadą ir rezultatas buvo GPT-3, proveržis, paskatinęs sukurti ChatGPT, sako Midha.

 

 Tačiau „OpenAI“ neišleidžia savo modelių atvirai taip, kad kiti galėtų juos paleisti. Iš investuotojų surinkusi milijardus dolerių, bendrovė turi verslo modelį, pagal kurį apmokestinama prieiga prie tų modelių.

 

 Anksčiau nemokamų modelių, tokių, kaip „DeepSeek“ išleistas, našumas, net ir iš „Meta“, buvo ne toks geras, kaip tų, kuriuos siūlo įmonės, kurios savo modelius ir naujoves pasilieka sau, pvz., „OpenAI“.

 

 Užtaisydama pirmaujančių AI modelių našumo atotrūkį ir tariamai naudodama daug mažiau išteklių, „DeepSeek“ įmonė atvėrė duris į ateitį, kurioje daug daugiau organizacijų ir šalių galės kurti pažangiausius modelius, sako Dettmersas.

 

 „DeepSeek“ išsamiai neaprašė, kaip ji ketina pasipelnyti iš AI, tačiau generalinis direktorius Liangas Wenfengas aiškiai pasakė, kad šiuo metu tai nėra jo prioritetas. Jis mano, kad svarbiau pirmiausia sukurti stiprią ekosistemą, nes jei įmonė išleis savo programinės įrangos kodą, ji pritrauks daugiau vartotojų, kurie vėliau galės pasiūlyti kodo patobulinimus. Liangas teigė, kad norint išlaikyti konkurencinį pranašumą nėra taip svarbu išlaikyti programinės įrangos nuosavybę, kaip daugelis mano.

 

 „Uždaro šaltinio suformuotas griovys yra trumpalaikis, kai susiduriama su ardančiais technologijomis“, – praėjusiais metais Kinijos technologijų leidiniui 36Kr sakė jis. „Net jei OpenAI yra uždarojo kodo, tai netrukdys kitiems jį pasivyti.”

 

 Midha sako manantis, kad iš esmės AI džinas iškrito iš butelio. Bandymai išlaikyti JAV AI tyrimų paslaptį tik sumažintų JAV įmonių ir dirbtinio intelekto laboratorijų konkurencingumą, nes jie būtų atkirsti nuo pasaulinio keitimosi žiniomis.

 

 „AI tapo infrastruktūra daugeliui šiuolaikinių šalių“, – priduria jis. „Manau, kad jei mes tai uždrausime, vienintelis dalykas, kurį darome, yra užtikrinti, kad kitos šalys, kurioms reikia sąjungininkų partnerių, eitų pas Kinijos komunistų partiją arba pas tą, kuris joms pateiks geriausius atvirus modelius.“ [1]

 

AI principai yra visiems žinomi, kas nori ir gali žinoti. Už juos gauta Nobelio premija. Tik kvailys gali tikėtis čia ką nors paslėpti. Tam jis ir yra kvailys.

 

Mokslinė AI problema dar neišspręsta. Neturime AI, kuris viskuo būtų geresnis už žmones. Tai mokslinė problema. Tokią problemą geriau išsprendžia visa žmonija, jei iš viso išsprendžia.

 

1.  EXCHANGE --- Keywords: The Manhattan Project Was Secret. Should Our AI Work Be Too? --- Scientists at AI's cutting edge liked to share their work. Then came DeepSeek. Mims, Christopher.  Wall Street Journal, Eastern edition; New York, N.Y.. 01 Feb 2025: B4. 

Clear Explanation of Stupidity in Attempts to Stop China's Development of AI


"Tim Dettmers is one of the scientists at the cutting edge of artificial intelligence who contributed to the DeepSeek breakthrough that grabbed the world's attention this past week.

He's never had any contact with the Chinese team that built it.

Dettmers, a researcher at Seattle's Allen Institute for Artificial Intelligence who previously worked for Meta Platforms, pioneered a new way to train, and run, an AI model using less powerful hardware. He published his work in 2021. When the DeepSeek team recently published its own papers on how it had built its models, he discovered his paper among their citations. It turns out they were eager readers of his work.

The AI research community has a culture of publishing scientific papers that explain new breakthroughs in detail, and of making models available for anyone to use. That's the approach that Meta has adopted under Mark Zuckerberg, and that DeepSeek is using. It's also the ethos driving buzzy French AI startup Mistral and many other cutting-edge AI companies and research institutions.

With the unveiling of DeepSeek's latest AI models, we are seeing how the sharing of all that knowledge allowed its team -- who by their own account leveraged techniques developed by engineers spread across the world -- to leapfrog much better-resourced AI teams in the U.S. It is supercharging a high-stakes debate about how much Americans should share about their AI breakthroughs.

"It feels good," Dettmers said when I asked him how it felt to have contributed to what some are calling a "Sputnik moment" in AI. But, he added, the best part wasn't seeing his work implemented. It was the possibility that because the DeepSeek team had also published a detailed paper on how they used his innovation, he and others could in turn build on their work, and create an even better model.

Artificial-intelligence powerhouse OpenAI is in some ways a notable exception to this culture of sharing, and there are accusations that perhaps DeepSeek achieved its big leap forward in part by "distilling" OpenAI's models. Distillation is the exfiltration of a model's knowledge, and can be used in lieu of or to supplement traditional training models. But don't let that distract from the debate about academia-style sharing of knowledge, the creation of models like DeepSeek's that are free to download and use, and the publication of open-source code for building them. These are the matters that will determine the winners and losers in the AI race far into the future.

Investors like Marc Andreessen, deans of the field of AI research like Yann Lecunn, and many others who fund and build AI argue that sharing will ultimately benefit all of humanity. The opposing camp includes people -- most notably investor Vinod Khosla -- who say doing so poses a risk to national security.

For them, having the best AI is like having the best engines or automobiles -- things that in the past have determined which countries were the wealthiest, and could dictate terms of trade to others. And when it comes to weapons, Hollywood movies and science-fiction novels have been priming us for decades to understand the promise and peril of having an artificial superintelligence on our side. Some AI startup founders say this fiction is on the cusp of becoming reality.

Khosla, founder of venture-capital firm Khosla Ventures, and the first outside investor in OpenAI, has compared the open-source approach with AI to sharing the details of the Manhattan Project.

Dario Amodei, chief executive of OpenAI competitor Anthropic, wrote soon after the release of DeepSeek that it strengthens the case for export controls on advanced AI chips. Those controls started under the Biden administration to curb Chinese AI development by barring export of certain types of advanced chips, and they've been tightened over time.

It's fair to say that the majority of engineers who build AI disagree with the idea that AI development should be kept secret.

"The only reason that the U.S. has been the center of innovation for AI is because we have embraced for decades an ethos of open publishing," says AI investor Anjney Midha, a partner at venture-capital firm Andreessen Horowitz.

Case in point: The new kind of AI that has enabled the current boom was invented at Google in 2017. But soon after, when engineers at the company tried to apply that technique to language, the result was a paper concluding that massive language models probably weren't the way to go. Because they had published their results, engineers at OpenAI came to the opposite conclusion, and the result was GPT-3, the breakthrough that led to ChatGPT, says Midha.

But OpenAI doesn't release its models openly, in a way that allows anyone else to run them. Having raised billions of dollars from investors, the company has a business model where it charges for access to those models.

In the past, the performance of free-to-use models like the one DeepSeek released -- even those from Meta -- hasn't been as good as those offered by companies that keep their models and innovations to themselves, such as OpenAI.

By closing the performance gap with leading AI models, while purportedly using far fewer resources, the company behind DeepSeek has opened the door to a future in which far more organizations and nations will be able to build cutting-edge models, says Dettmers.

DeepSeek hasn't described in detail how it intends to profit from AI, but CEO Liang Wenfeng has made it clear that's not his priority at the moment. He believes it's more important to establish a strong ecosystem first -- because if a company releases its software code, it will attract more users, who can then suggest improvements to the code. Liang has said that keeping software proprietary isn't as critical for maintaining a competitive advantage as many believe.

"The moat formed by closed source is short-lived in the face of disruptive technologies," he told Chinese tech publication 36Kr last year. "Even if OpenAI is closed-source, it won't stop others from catching up to it."

Midha says he believes that, essentially, the AI genie is out of the bottle. Attempts to keep U.S. AI research secret would only make U.S. companies and AI labs less competitive, by cutting them off from the global exchange of knowledge.

"AI has become infrastructure for most modern countries," he adds. "I think that if we ban it, the only thing we do is ensure that other countries who need an allied partner will go to the Chinese Communist Party, or whoever is providing them the best open models."" [1]

The scientific problem of AI is not solved yet. We don't have AI that is better than humans in everything. This is a scientific problem. Such a problem is better solved by all the humanity, if at all.

1.  EXCHANGE --- Keywords: The Manhattan Project Was Secret. Should Our AI Work Be Too? --- Scientists at AI's cutting edge liked to share their work. Then came DeepSeek. Mims, Christopher.  Wall Street Journal, Eastern edition; New York, N.Y.. 01 Feb 2025: B4.