Sekėjai

Ieškoti šiame dienoraštyje

2023 m. gegužės 9 d., antradienis

Yuval Noah Harari teigia, kad dirbtinis intelektas įsilaužė į žmogaus civilizacijos operacinę sistemą

   "DIRBTINIO INTELEKTO (AI) baimės persekiojo žmoniją nuo pat kompiuterių amžiaus pradžios. Iki šiol šios baimės buvo nukreiptos į mašinas, naudojančias fizines priemones žmonėms žudyti, pavergti ar pakeisti. Tačiau per pastaruosius porą metų atsirado naujų AI įrankių, gresia žmonių civilizacijos išlikimui netikėta kryptimi. 

 

AI įgijo puikių gebėjimų manipuliuoti ir generuoti kalbą, nesvarbu, ar tai būtų žodžiai, garsai ar vaizdai. Taip AI nulaužė mūsų civilizacijos operacinę sistemą.

 

     Kalba yra medžiaga, iš kurios sudaryta beveik visa žmogaus kultūra. Pavyzdžiui, žmogaus teisės nėra įrašytos į mūsų DNR. Greičiau tai yra kultūros artefaktai, kuriuos sukūrėme, pasakodami istorijas ir rašydami įstatymus.

 

     Pinigai taip pat yra kultūros artefaktas. Banknotai yra tik spalvingi popieriaus lapeliai, o šiuo metu daugiau, nei 90% pinigų yra net ne banknotai – tai tik skaitmeninė informacija kompiuteriuose. Pinigams vertę suteikia istorijos, kurias mums apie tai pasakoja bankininkai, finansų ministrai ir kriptovaliutų guru. Samas Bankmanas-Friedas, Elizabeth Holmes ir Bernie Madoffas nelabai mokėjo kurti tikrąją vertę, tačiau jie visi buvo nepaprastai gabūs istorijų pasakotojai.

 

     Kas nutiktų, kai nežmogiškas intelektas taps geresnis už vidutinį žmogų, pasakodamas istorijas, kurdamas melodijas, piešdamas vaizdus ir rašydamas įstatymus bei šventraščius? Kai žmonės galvoja apie „ChatGPT“ ir kitus naujus dirbtinio intelekto įrankius, jie dažnai žiūri į pavyzdžius, pavyzdžiui, mokyklinukus, naudojančius dirbtinį intelektą, rašynt jų esė. Kas nutiks mokyklų sistemai, kai vaikai tai darys? Tačiau toks klausimas nepatenka į bendrą vaizdą. Pamirškite apie mokyklinius rašinius. Pagalvokite apie kitas Amerikos prezidento lenktynes 2024 m. ir pabandykite įsivaizduoti AI įrankių, kuriuos galima panaudoti masinei politinio turinio, netikrų naujienų istorijų ir šventraščių naujiems kultams kūrimui, poveikį.

 

     Pastaraisiais metais QAnon kultas susiliejo aplink anoniminius internetinius pranešimus, žinomus kaip „Q lašai“. Stebėtojai rinko, gerbė ir interpretavo šiuos Q lašus, kaip šventą tekstą. Nors, mūsų žiniomis, visus ankstesnius Q lašus sudarė žmonės, o robotai tik padėjo juos skleisti, ateityje galime pamatyti pirmuosius istorijoje kultus, kurių gerbiamus tekstus parašė ne žmogaus intelektas. Religijos per visą istoriją teigė, kad jų šventosios knygos yra nežmogiškasis šaltinis. Netrukus tai gali tapti realybe.

 

     Žvelgiant proziškesniu lygmeniu, netrukus galime susidurti su ilgomis internetinėmis diskusijomis apie abortus, klimato kaitą su subjektais, kurie, mūsų manymu, yra žmonės, bet iš tikrųjų yra AI. Bėda ta, kad mums visiškai beprasmiška leisti laiką, bandant pakeisti deklaruojamas AI boto nuomones, o dirbtinis intelektas gali patobulinti savo pranešimus taip tiksliai, kad turi didelę galimybę mums daryti įtaką.

 

     Mokėdamas kalbą, dirbtinis intelektas netgi gali užmegzti intymius santykius su žmonėmis ir panaudoti intymumo galią, kad pakeistų mūsų nuomonę ir pasaulėžiūrą. Nors nėra jokių požymių, kad dirbtinis intelektas turėtų savo sąmonę ar jausmus, dirbtinio intymumo su žmonėmis puoselėjimui pakanka, jei dirbtinis intelektas gali priversti juos jaustis emociškai prie jo prisirišus. 2022 m. birželio mėn. Blake'as Lemoine'as, „Google“ inžinierius, viešai pareiškė, kad dirbtinio intelekto pokalbių robotas LaMDA, su kuriuo jis dirbo, tapo sąmoningas. Prieštaringai vertinamas reikalavimas jam kainavo darbą. Įdomiausias dalykas šiame epizode buvo ne J. Lemoine'o teiginys, kuris, tikriausiai, buvo klaidingas. Greičiau tai buvo jo noras rizikuoti savo pelningu darbu dėl AI pokalbių roboto. Jei dirbtinis intelektas gali priversti žmones rizikuoti savo darbu, ką dar jis galėtų paskatinti juos daryti?

 

     Politinėje kovoje už protus ir širdis intymumas yra veiksmingiausias ginklas, o dirbtinis intelektas ką tik įgijo galimybę masiškai užmegzti intymius santykius su milijonais žmonių. Visi žinome, kad per pastarąjį dešimtmetį socialinė žiniasklaida tapo kovos lauku, kontroliuojant žmogaus dėmesį. Su naujos kartos dirbtiniu intelektu kovos frontas keičiasi nuo dėmesio prie intymumo. Kas atsitiks su žmonių visuomene ir žmogaus psichologija, kai dirbtinis intelektas kovos su dirbtiniu intelektu, siekdamas netikrų intymių santykių su mumis, kuriuos vėliau galima įtikinti balsuoti už konkrečius politikus arba pirkti tam tikrus produktus?

 

     Net ir nesukuriant „netikro intymumo“, nauji AI įrankiai turėtų didžiulę įtaką mūsų nuomonei ir pasaulėžiūrai. Žmonės gali pasinaudoti vienu AI patarėju, kaip vieno langelio, viską žinančiu orakulu. Nenuostabu, kad „Google“ išsigando. Kam vargti ieškoti, kai galiu tiesiog paklausti orakulo? Naujienų ir reklamos pramonė taip pat turėtų išsigąsti. Kam skaityti laikraštį, kai galiu tiesiog paprašyti orakulo pasakyti man paskutines naujienas? Ir koks reklamos tikslas, kai galiu tiesiog paprašyti orakulo pasakyti, ką pirkti?

 

     Ir net šie scenarijai iš tikrųjų neatspindi bendro vaizdo. Tai, apie ką mes kalbame, gali būti žmonijos istorijos pabaiga. Ne istorijos pabaiga, tik jos dalies, kurioje dominuoja žmogus, pabaiga. Istorija yra biologijos ir kultūros sąveika; tarp mūsų biologinių poreikių ir troškimų tokiems dalykams, kaip maistas ir seksas, ir mūsų kultūrinių kūrinių, tokių, kaip religijos ir įstatymai. Istorija yra procesas, per kurį įstatymai ir religijos formuoja maistą ir seksą.

 

     Kas nutiks istorijos eigai, kai AI perims kultūrą ir pradės kurti istorijas, melodijas, įstatymus ir religijas? Ankstesnės priemonės, tokios, kaip spausdinimo mašina ir radijas, padėjo skleisti kultūrines žmonių idėjas, tačiau jos niekada nekūrė naujų savo kultūrinių idėjų. AI iš esmės skiriasi. AI gali sukurti visiškai naujas idėjas, visiškai naują kultūrą.

 

     Iš pradžių dirbtinis intelektas, tikriausiai, imituos žmogaus prototipus, kurių buvo mokomasi dar jo kūdikystėje. Tačiau su kiekvienais metais dirbtinio intelekto kultūra drąsiai žengs ten, kur dar nebuvo ėjęs joks žmogus. Jau tūkstantmečius žmonės gyveno kitų žmonių svajonėse. Per ateinančius dešimtmečius galime gyventi svetimo intelekto svajonėse.

 

     AI baimė žmoniją persekiojo tik pastaruosius kelis dešimtmečius. Tačiau tūkstančius metų žmones persekiojo daug gilesnė baimė. Mes visada vertinome pasakojimų ir vaizdų galią manipuliuoti mūsų protu ir kurti iliuzijas. Todėl nuo seniausių laikų žmonės bijojo būti įstrigę iliuzijų pasaulyje.

 

     XVII amžiuje René Descartes'as baiminosi, kad, galbūt, piktavalis demonas įstrigdys jį iliuzijų pasaulyje, sukurdamas viską, ką jis matė ir girdėjo. Senovės Graikijoje Platonas papasakojo garsiąją urvo alegoriją, kurioje grupė žmonių visą gyvenimą yra prirakinti grandinėmis oloje ir atsisukę į tuščią sieną. Ekranas. Tame ekrane jie mato projektuojamus įvairius šešėlius. Kaliniai ten matomas iliuzijas sumaišo su tikrove.

 

     Senovės Indijoje budistų ir induistų išminčiai atkreipė dėmesį į tai, kad visi žmonės gyveno įsprausti į Maya – iliuzijų pasaulį. Tai, ką įprastai laikome tikrove, dažnai tėra prasimanymai mūsų mintyse. Žmonės gali kariauti ištisus karus, žudydami kitus ir patys nori būti nužudyti, nes tiki viena ar kita iliuzija.

 

     Dirbtinio intelekto revoliucija atveda mus akis į akį su Dekarto demonu, Platono urvu ir Maya. Jei nebūsime atsargūs, galime būti įstrigę už iliuzijų uždangos, kurios negalėtume nuplėšti ar net suvokti, kad ji yra.

 

     Žinoma, naujoji AI galia gali būti panaudota ir geriems tikslams. Aš nesigilinsiu į tai, nes žmonės, kurie kuria AI, apie tai kalba pakankamai. Tokių istorikų ir filosofų, kaip aš, darbas yra nurodyti pavojus. Tačiau, žinoma, AI gali mums padėti daugybe būdų – nuo naujų vėžio gydymo būdų iki ekologinės krizės sprendimų. Kyla klausimas, kaip užtikrinti, kad nauji AI įrankiai būtų naudojami geram, o ne blogam gydymui. Norėdami tai padaryti, pirmiausia turime įvertinti tikrąsias šių įrankių galimybes.

 

     Nuo 1945 m. žinome, kad branduolinės technologijos gali generuoti pigią energiją žmonių labui, bet taip pat gali fiziškai sunaikinti žmonių civilizaciją. Todėl mes pertvarkėme visą tarptautinę tvarką, siekdami apsaugoti žmoniją ir užtikrinti, kad branduolinės technologijos būtų naudojamos pirmiausia gerovei. Dabar turime grumtis su nauju masinio naikinimo ginklu, kuris gali sunaikinti mūsų psichinį ir socialinį pasaulį.

 

     Vis dar galime reguliuoti naujus AI įrankius, bet turime veikti greitai. Nors branduoliniai ginklai negali išrasti galingesnių branduolinių ginklų, AI gali padaryti eksponentiškai galingesnį AI. Pirmas esminis žingsnis – reikalauti griežtų saugos patikrinimų, prieš išleidžiant galingus AI įrankius viešai. Kaip farmacijos įmonė negali išleisti naujų vaistų, prieš išbandydama trumpalaikį ir ilgalaikį šalutinį poveikį, taip ir technologijų įmonės neturėtų išleisti naujų dirbtinio intelekto įrankių, kol jie nėra saugūs. Mums reikia Maisto ir vaistų administracijos atitikmens naujoms technologijoms, ir mums to reikia vakar.

 

     Ar sulėtėjus viešam AI diegimui demokratijos neatsiliks nuo negailestingesnių autoritarinių režimų? Kaip tik priešingai. Nereguliuojamas AI diegimas sukurtų socialinį chaosą, kuris būtų naudingas autokratams ir sužlugdytų demokratijas. Demokratija yra pokalbis, o pokalbiai priklauso nuo kalbos. Kai dirbtinis intelektas įsilaužia į kalbą, jis gali sunaikinti mūsų gebėjimą turėti prasmingus pokalbius ir taip sugriauti demokratiją.

 

     Mes ką tik susidūrėme su svetimu intelektu, čia, Žemėje. Mes daug apie tai nežinome, išskyrus tai, kad tai gali sunaikinti mūsų civilizaciją. Turėtume sustabdyti neatsakingą dirbtinio intelekto priemonių diegimą viešojoje erdvėje ir reguliuoti AI prieš tai, kai jis reguliuos mus. Ir pirmasis reglamentas, kurį siūlyčiau, yra įpareigoti AI atskleisti, kad tai yra AI. Jei aš kalbuosi su kuo nors, ir negaliu pasakyti, ar tai žmogus, ar dirbtinis intelektas – tai demokratijos pabaiga.

 

     Šį tekstą sukūrė žmogus.

 

     Ar tikrai?

 

     Yuval Noah Harari – istorikas, filosofas, „Sapiens“, „Homo Deus“ ir vaikams skirtų serialų „Nesustabdomi mes“ autorius. Jis yra Jeruzalės hebrajų universiteto istorijos katedros dėstytojas ir socialinio poveikio įmonės „Sapienship“ įkūrėjas." [1] 

 

1. "Yuval Noah Harari argues that AI has hacked the operating system of human civilisation." The Economist, 6 May 2023, p. NA.

 

 

Yuval Noah Harari argues that AI has hacked the operating system of human civilisation

 

"FEARS OF ARTIFICIAL INTELLIGENCE (AI) have haunted humanity since the very beginning of the computer age. Hitherto these fears focused on machines using physical means to kill, enslave or replace people. But over the past couple of years new AI tools have emerged that threaten the survival of human civilisation from an unexpected direction. AI has gained some remarkable abilities to manipulate and generate language, whether with words, sounds or images. AI has thereby hacked the operating system of our civilisation.

Language is the stuff almost all human culture is made of. Human rights, for example, aren't inscribed in our DNA. Rather, they are cultural artefacts we created by telling stories and writing laws.

Money, too, is a cultural artefact. Banknotes are just colourful pieces of paper, and at present more than 90% of money is not even banknotes—it is just digital information in computers. What gives money value is the stories that bankers, finance ministers and cryptocurrency gurus tell us about it. Sam Bankman-Fried, Elizabeth Holmes and Bernie Madoff were not particularly good at creating real value, but they were all extremely capable storytellers.

What would happen once a non-human intelligence becomes better than the average human at telling stories, composing melodies, drawing images, and writing laws and scriptures? When people think about ChatGPT and other new AI tools, they are often drawn to examples like school children using AI to write their essays. What will happen to the school system when kids do that? But this kind of question misses the big picture. Forget about school essays. Think of the next American presidential race in 2024, and try to imagine the impact of AI tools that can be made to mass-produce political content, fake-news stories and scriptures for new cults.

In recent years the QAnon cult has coalesced around anonymous online messages, known as "Q drops". Followers collected, revered and interpreted these Q drops as a sacred text. While to the best of our knowledge all previous Q drops were composed by humans, and bots merely helped disseminate them, in future we might see the first cults in history whose revered texts were written by a non-human intelligence. Religions throughout history have claimed a non-human source for their holy books. Soon that might be a reality.

On a more prosaic level, we might soon find ourselves conducting lengthy online discussions about abortion, climate change with entities that we think are humans—but are actually AI. The catch is that it is utterly pointless for us to spend time trying to change the declared opinions of an AI bot, while the AI could hone its messages so precisely that it stands a good chance of influencing us.

Read more:How to worry wisely about artificial intelligence How AI could change computing, culture and the course of history How generative models could go wrong Yuval Noah Harari argues that what's at stake in Ukraine is the direction of human history

Through its mastery of language, AI could even form intimate relationships with people, and use the power of intimacy to change our opinions and worldviews. Although there is no indication that AI has any consciousness or feelings of its own, to foster fake intimacy with humans it is enough if the AI can make them feel emotionally attached to it. In June 2022 Blake Lemoine, a Google engineer, publicly claimed that the AI chatbot LaMDA, on which he was working, had become sentient. The controversial claim cost him his job. The most interesting thing about this episode was not Mr Lemoine's claim, which was probably false. Rather, it was his willingness to risk his lucrative job for the sake of the AI chatbot. If AI can influence people to risk their jobs for it, what else could it induce them to do?

In a political battle for minds and hearts, intimacy is the most efficient weapon, and AI has just gained the ability to mass-produce intimate relationships with millions of people. We all know that over the past decade social media has become a battleground for controlling human attention. With the new generation of AI, the battlefront is shifting from attention to intimacy. What will happen to human society and human psychology as AI fights AI in a battle to fake intimate relationships with us, which can then be used to convince us to vote for particular politicians or buy particular products?

Even without creating "fake intimacy", the new AI tools would have an immense influence on our opinions and worldviews. People may come to use a single AI adviser as a one-stop, all-knowing oracle. No wonder Google is terrified. Why bother searching, when I can just ask the oracle? The news and advertising industries should also be terrified. Why read a newspaper when I can just ask the oracle to tell me the latest news? And what's the purpose of advertisements, when I can just ask the oracle to tell me what to buy?

And even these scenarios don't really capture the big picture. What we are talking about is potentially the end of human history. Not the end of history, just the end of its human-dominated part. History is the interaction between biology and culture; between our biological needs and desires for things like food and sex, and our cultural creations like religions and laws. History is the process through which laws and religions shape food and sex.

What will happen to the course of history when AI takes over culture, and begins producing stories, melodies, laws and religions? Previous tools like the printing press and radio helped spread the cultural ideas of humans, but they never created new cultural ideas of their own. AI is fundamentally different. AI can create completely new ideas, completely new culture.

At first, AI will probably imitate the human prototypes that it was trained on in its infancy. But with each passing year, AI culture will boldly go where no human has gone before. For millennia human beings have lived inside the dreams of other humans. In the coming decades we might find ourselves living inside the dreams of an alien intelligence.

Fear of AI has haunted humankind for only the past few decades. But for thousands of years humans have been haunted by a much deeper fear. We have always appreciated the power of stories and images to manipulate our minds and to create illusions. Consequently, since ancient times humans have feared being trapped in a world of illusions.

In the 17th century René Descartes feared that perhaps a malicious demon was trapping him inside a world of illusions, creating everything he saw and heard. In ancient Greece Plato told the famous Allegory of the Cave, in which a group of people are chained inside a cave all their lives, facing a blank wall. A screen. On that screen they see projected various shadows. The prisoners mistake the illusions they see there for reality.

In ancient India Buddhist and Hindu sages pointed out that all humans lived trapped inside Maya—the world of illusions. What we normally take to be reality is often just fictions in our own minds. People may wage entire wars, killing others and willing to be killed themselves, because of their belief in this or that illusion.

The AI revolution is bringing us face to face with Descartes' demon, with Plato's cave, with the Maya. If we are not careful, we might be trapped behind a curtain of illusions, which we could not tear away—or even realise is there.

Of course, the new power of AI could be used for good purposes as well. I won't dwell on this, because the people who develop AI talk about it enough. The job of historians and philosophers like myself is to point out the dangers. But certainly, AI can help us in countless ways, from finding new cures for cancer to discovering solutions to the ecological crisis. The question we face is how to make sure the new AI tools are used for good rather than for ill. To do that, we first need to appreciate the true capabilities of these tools.

Since 1945 we have known that nuclear technology could generate cheap energy for the benefit of humans—but could also physically destroy human civilisation. We therefore reshaped the entire international order to protect humanity, and to make sure nuclear technology was used primarily for good. We now have to grapple with a new weapon of mass destruction that can annihilate our mental and social world.

We can still regulate the new AI tools, but we must act quickly. Whereas nukes cannot invent more powerful nukes, AI can make exponentially more powerful AI. The first crucial step is to demand rigorous safety checks before powerful AI tools are released into the public domain. Just as a pharmaceutical company cannot release new drugs before testing both their short-term and long-term side-effects, so tech companies shouldn't release new AI tools before they are made safe. We need an equivalent of the Food and Drug Administration for new technology, and we need it yesterday.

Won't slowing down public deployments of AI cause democracies to lag behind more ruthless authoritarian regimes? Just the opposite. Unregulated AI deployments would create social chaos, which would benefit autocrats and ruin democracies. Democracy is a conversation, and conversations rely on language. When AI hacks language, it could destroy our ability to have meaningful conversations, thereby destroying democracy.

We have just encountered an alien intelligence, here on Earth. We don't know much about it, except that it might destroy our civilisation. We should put a halt to the irresponsible deployment of AI tools in the public sphere, and regulate AI before it regulates us. And the first regulation I would suggest is to make it mandatory for AI to disclose that it is an AI. If I am having a conversation with someone, and I cannot tell whether it is a human or an AI—that's the end of democracy.

This text has been generated by a human.

Or has it?

Yuval Noah Harari is a historian, philosopher and author of "Sapiens", "Homo Deus" and the children's series "Unstoppable Us". He is a lecturer in the Hebrew University of Jerusalem's history department and co-founder of Sapienship, a social-impact company.” [1]

1. "Yuval Noah Harari argues that AI has hacked the operating system of human civilisation." The Economist, 6 May 2023, p. NA.

 

Kaip „SpaceX“ pradėjo naujas kosmoso komercializavimo lenktynes

  "Kai dangūs buvo išparduoti. Ashlee Vance. Ecco; 528 puslapiai; 35 doleriai. WH Allenas;

 

     Kwajalein atolas yra kiek įmanoma arčiau niekur. Maždaug 3 000 km (1 900 mylių) nuo Papua Naujosios Gvinėjos ir beveik 4 000 km nuo Honolulu, ši mažytė žemės dėmė Ramiojo vandenyno viduryje 2008 m. rugsėjo 28 d. tapo mažai tikėtina neįtikėtinos revoliucijos vieta.

 

     Po trijų nesėkmingų bandymų „SpaceX“, įmonė, kurią įsteigė palyginti neaiškus „dotcom“ milijonierius Elonas Muskas, pagaliau iškėlė į orbitą vieną iš savo raketų „Falcon-1“. Taigi tai padėjo įrodyti, kad privati įmonė, veikianti su minimaliais pinigais, gali padaryti tai, kas iki šiol priklausė saujelei nacionalinių valstybių ir milžiniškų aviacijos ir kosmoso firmų. Po pusantro dešimtmečio išrankus maištininkas tapo dabartiniu valdininku. „SpaceX“ skraido daugiau raketų ir gabena daugiau palydovų, nei bet kuris kitas kosmoso subjektas kartu paėmus.

 

     Tačiau „SpaceX“ tarnauja tik tam, kad sukurtų sceną istorijai, pasakojamai naujoje Ashlee Vance knygoje. Ponas Vance'as, kuris 2015 m. paskelbė gerai įvertintą B. Musko biografiją, labiau domisi grupe niūrių startuolių, kurie bandė sekti „SpaceX“ pėdsakais. Mėnesius praleidęs, blaškydamasis po biurus ir paleidimo aikšteles, kalbėdamas su inžinieriais ir viršininkais, jis apibūdina dar keturias kosmoso viltis „Kai dangus buvo išparduotas“. Tai „Planet Labs“, gaminanti vaizdo palydovus, ir „Astra“, „Firefly“ ir „Rocket Lab“, kurios visos gamina raketas.

 

     Dvi iš jų buvo nepaprastai sėkmingos. Planet Labs padėjo sukurti idėją, kad daug pigių masinės gamybos palydovų gali pasiekti daug daugiau, nei keli prabangūs brangūs palydovai. Įmonė gamina tai, kas iš esmės yra privataus sektoriaus stebėjimo palydovai, fotografuojantys visą planetą ir pateikiantys visiems nuo rizikos draudimo fondų iki žurnalistų tokius vaizdus, kurių prieš du dešimtmečius neturėjo net vyriausybės. Visa tai padarė garaže gyvenimą pradėjusi gyvenimą apranga.

 

     Pirmasis „Planet Labs“ „švarus kambarys“, skirtas apsaugoti jautrią palydovo optiką nuo dulkių, buvo sodo šiltnamis, įsigytas internetu.

 

     „Rocket Lab“ yra dar viena sėkmės istorija. Įkurta Naujojoje Zelandijoje – ne šalyje, garsėjančioje savo kosmoso pramone – ji beveik padarė žygdarbį, kurio dar nebuvo pavykę jokiam kitam raketų gamintojui: pirmuoju bandymu iškelti raketą į orbitą. (Kliudė išoriniai saugos pareigūnai.) Kaip ir „SpaceX“, įmonė taiko „greitų nesėkmių“ strategiją: greitai bando viską, mokosi iš neišvengiamų sprogimų ir netrukus bando dar kartą.

 

     Knyga yra šviečiantis šėlsmas per pramonę, marinuotą išskirtiniu žvaigždėto idealizmo ir negailestingo kapitalizmo deriniu, užvirtu Silicio slėnyje XX amžiaus antroje pusėje. Tačiau tai yra daugiau, nei pajautimas šiam „spjauti ir pjauti“ verslo stiliui. Astros patirtis yra įspėjamasis pasakojimas apie riziką ir įtampą, kai toks bravūras, taikomas tokiam negailestingam dalykui, kaip raketų mokslas. Įmonė pradėjo veikti 2021 m. ir siūlo skrydžius mokantiems klientams. Tačiau jos mašinos turi apmaudingai dėmėtus rezultatus.

 

     Ir skirtingai, nei jų kolegos Silicio slėnio pradžioje, raketų žokėjai visada turi stebėti politiką. Po to, kai žlugo pirmasis įmonės pakartojimas, „Firefly“ išgelbėjo Ukrainos verslininkas ir kosmoso entuziastas Maksas Poljakovas, užsidirbęs pinigų iš internetinių pažinčių. Tačiau netrukus ponas Poljakovas buvo priverstas pasitraukti iš bendrovės dėl Amerikos vyriausybės nepagrįstų kaltinimų (jo paneigė), kad jis gali perduoti informaciją Rusijai.

 

     Skaitytojai, norintys techninio traktato apie raketų mokslą, turėtų ieškoti kitur. Tačiau, norint pažvelgti į žmones ir kultūrą, skatinančią naująjį kosmoso amžių, P. Vance knyga yra ta vieta, kur pradėti. Po stebuklingo nusileidimo Mėnulyje erdvė kažkaip pasidarė nuobodi. Šiomis dienomis tai vėl įdomu“. [1]

 

1. "How SpaceX set off a new race to commercialise space." The Economist, 6 May 2023, p. NA.

How SpaceX set off a new race to commercialise space.

 

"When the Heavens Went on Sale. By Ashlee Vance. Ecco; 528 pages; $35. WH Allen; £25

Kwajalein Atoll is as close to the middle of nowhere as you can get. Some 3,000km (1,900 miles) from Papua New Guinea, and almost 4,000km from Honolulu, this tiny speck of land in the middle of the Pacific Ocean became, on September 28th 2008, the unlikely site of an improbable revolution.

After three failed attempts, SpaceX, a company set up by a comparatively obscure dotcom millionaire called Elon Musk, at last got one of its Falcon-1 rockets into orbit. It thus helped prove that a private firm run on a relative shoestring could do something which had, hitherto, been the preserve of a handful of nation-states and giant aerospace firms. A decade and a half later, the plucky insurgent has become the incumbent. SpaceX flies more rockets, and carries more satellites, than every other spacefaring entity combined.

But SpaceX serves only to set the stage for the story told in Ashlee Vance's new book. Mr Vance—who published a well-received biography of Mr Musk in 2015—is more interested in the group of swashbuckling startups that have tried to follow in SpaceX's contrails. After spending months hanging around offices and launch-pads, talking to engineers and bosses, he profiles four other space hopefuls in "When the Heavens Went on Sale". They are Planet Labs, which makes imaging satellites, and Astra, Firefly and Rocket Lab, all of which make rockets.

Two of them have been strikingly successful. Planet Labs helped pioneer the idea that lots of cheap mass-produced satellites could accomplish far more than a few fancy expensive ones. The firm makes what are, in effect, private-sector surveillance satellites, photographing the entire planet and giving everyone from hedge funds to journalists the kind of imagery that not even governments had two decades ago. All this was done by an outfit that began life in a garage. 

Planet Labs' first "clean room", designed to protect a satellite's sensitive optics from dust, was a garden greenhouse bought on the internet.

Rocket Lab is another success story. Founded in New Zealand—not a country known for its space industry—it very nearly pulled off a feat that no other rocketmaker had ever managed: getting a rocket into orbit on the first try. (Bumbling external safety officials got in the way.) Like SpaceX, the firm has a "fail fast" strategy, trying things quickly, learning from the inevitable explosions, then trying again soon.

The book is an illuminating romp through an industry marinated in the signature mix of starry idealism and ruthless capitalism brewed in Silicon Valley in the second half of the 20th century. But it is more than a paean to this spit-and-sawdust, fake-it-till-you-make-it style of business. Astra's experience is a cautionary tale of the risks and stress of applying that sort of bravado to something as unforgiving as rocket science. The firm went public in 2021 and offers flights to paying customers. But its machines have a disappointingly spotty record.

And unlike their counterparts in the early days of Silicon Valley, the rocket jockeys must always keep half an eye on politics. After the first iteration of the firm went bust, Firefly was bailed out by Max Polyakov, a Ukrainian businessman and space enthusiast who made his money in internet dating. But soon Mr Polyakov was in effect forced out of the company by America's government, after unsubstantiated allegations (denied by him) that he might be passing information to Russia.

Readers hoping for a technical treatise on rocket science should look elsewhere. But for an insight into the people and culture driving the new space age, Mr Vance's book is the place to start. After the wonder of the Moon landings, space somehow contrived to become boring. These days it is exciting again.” [1]

1. "How SpaceX set off a new race to commercialise space." The Economist, 6 May 2023, p. NA.