Sekėjai

Ieškoti šiame dienoraštyje

2023 m. birželio 10 d., šeštadienis

Kaip gali dirbtinis intelektas (A.I.) sunaikinti žmoniją?

„Mokslininkai ir pramonės lyderiai perspėjo, kad A.I. gali kelti egzistencinį pavojų žmonijai. Tačiau jie pasigailėjo atskleisti smulkmenas.

Praėjusį mėnesį šimtai dirbtinio intelekto pasaulyje žinomų žmonių pasirašė atvirą laišką, įspėjantį, kad A.I. vieną dieną gali sunaikinti žmoniją.

„Sumažinti riziką, kad A.I. sunaikins mus, turėtų būti pasaulinis prioritetas kartu su kitomis visuomeninio masto rizikomis, tokiomis, kaip pandemijos ir branduolinis karas“, – sakoma vieno sakinio pareiškime.

Laiškas buvo paskutinis iš grėsmingų įspėjimų apie A.I. kurie buvo ypač lengvi detalėse. Šiandien A.I. sistemos negali sunaikinti žmonijos. Kai kurios iš jų vos gali pridėti ir atimti. Taigi kodėl žmonės, kurie daugiausia žino apie A.I. taip susirūpinę?

Baisus scenarijus.

Vieną dieną, technologijų pramonės Cassandrų teigimu, įmonės, vyriausybės ar nepriklausomi tyrėjai galėtų panaudoti galingas A.I. sistemas, leidžiančias valdyti viską, nuo verslo iki karo. Tos sistemos galėtų daryti tai, ko mes nenorime, kad jos darytų. Ir jei žmonės bandytų joms trukdyti ar jas uždaryti, jos galėtų priešintis ar net atkartoti save, kad galėtų toliau veikti.

„Šiandieninės sistemos nekelia egzistencinės rizikos“, – sakė profesorius Yoshua Bengio ir A.I. Monrealio universiteto mokslininkas. „Bet per vienerius, dvejus, penkerius metus? Yra per daug netikrumo. Tai ir yra problema. Nesame tikri, kad tai nepraeis tam tikru momentu, kai viskas taps katastrofiška."

Nerimaujantys dažnai naudojo paprastą metaforą. Jei paprašysite mašinos sukurti kuo daugiau sąvaržėlių, jie sako, kad ji gali nuvilti ir viską, įskaitant žmoniją, paversti sąvaržėlių gamyklomis.

Kaip tai siejasi su realiu pasauliu - ar įsivaizduojamu pasauliu, kuris nebus realus per daug metų? Įmonės galėtų suteikti A.I. sistemoms vis daugiau savarankiškumo ir prijungti jas prie gyvybiškai svarbios infrastruktūros, įskaitant elektros tinklus, akcijų rinkas ir karinius ginklus. Iš ten jos gali sukelti problemų.

Daugeliui ekspertų tai neatrodė tikėtina iki maždaug praėjusių metų, kai tokios įmonės, kaip OpenAI pademonstravo reikšmingus savo technologijų patobulinimus. Tai parodė, kas gali būti įmanoma, jei A.I. ir toliau juda tokiu sparčiu tempu.

„A.I. bus nuolat deleguojama ir, tapdamas savarankiškesnis, jis gali užgrobti sprendimų priėmimą ir mąstymą iš dabartinių žmonių ir žmonių valdomų institucijų“, – sakė Kalifornijos universiteto Santa Kruze kosmologas Anthony Aguirre'as ir „The Future of. Life Institute“ įkūrėjas, organizacijoje, kuri remia vieną iš dviejų atvirų laiškų.

„Kažkuriuo momentu taps aišku, kad didelė mašina, kuri valdo visuomenę ir ekonomiką, iš tikrųjų nėra žmogaus kontroliuojama ir negali būti išjungta, su mažesne tikimybe nei S&P 500 būtų išjungtas“, – sakė jis.

Arba tokia teorija. Kiti A.I. ekspertai mano, kad tai juokinga prielaida.

„Hipotetinis yra toks mandagus būdas suformuluoti tai, ką aš galvoju apie pokalbį apie egzistencinę riziką“, – sakė Sietlo tyrimų laboratorijos Alleno AI instituto įkūrėjas Orenas Etzioni.

Ar yra požymių, kad A.I. galėtų tai padaryti?

Ne visai. Tačiau mokslininkai pokalbių robotus, tokius, kaip ChatGPT, paverčia sistemomis, kurios gali imtis veiksmų pagal jų sukurtą tekstą. Puikus pavyzdys yra projektas, vadinamas AutoGPT.

Idėja yra suteikti sistemai tokius tikslus, kaip „sukurti įmonę“ arba „uždirbti pinigų“. Tada ji ir toliau ieškos būdų, kaip pasiekti šį tikslą, ypač jei ji bus prijungta prie kitų interneto paslaugų.

Tokia sistema, kaip AutoGPT gali generuoti kompiuterines programas. Jei mokslininkai suteiks jai prieigą prie kompiuterio serverio, ji iš tikrųjų galėtų paleisti tas programas. Teoriškai tai yra būdas, kuriuo AutoGPT gali padaryti beveik viską internete – gauti informaciją, naudoti programas, kurti naujas programas, netgi tobulinti save.

Tokios sistemos, kaip AutoGPT, šiuo metu neveikia gerai. Jos linkę įstrigti nesibaigiančiose kilpose. Tyrėjai vienai sistemai suteikė visus išteklius, reikalingus atkartoti save. Tai negalėjo padaryti.

Laikui bėgant šie apribojimai gali būti pataisyti.

„Žmonės aktyviai bando kurti sistemas, kurios tobulėtų“, – sakė Connoras Leahy, bendrovės „Spėliojimas“ įkūrėjas, norinčios suderinti A.I. technologijos su žmogiškosiomis vertybėmis. „Šiuo metu tai neveikia. Bet kada nors taip bus. Ir mes nežinome, kada ta diena."

P. Leahy teigia, kad, tyrėjams, įmonėms ir nusikaltėliams skiriant šioms sistemoms tokius tikslus, kaip „uždirbti pinigų“, jie gali įsilaužti į bankų sistemas, paskatinti revoliuciją šalyje, kurioje turi naftos ateities sandorius, arba atkartoti save, kai kas nors bando jas pakeisti ar išjungti.

Kur A.I. sistemos išmoksta netinkamai elgtis?

A.I. Tokios sistemos kaip „ChatGPT“ yra sukurtos, remiantis neuroniniais tinklais, matematinėmis sistemomis, kurios gali išmokti įgūdžių, analizuodamos duomenis.

Maždaug 2018 m. tokios įmonės, kaip „Google“ ir „OpenAI“ pradėjo kurti neuroninius tinklus, kurie mokėsi iš didžiulio kiekio skaitmeninio teksto, paimto iš interneto. Tiksliai nustatydamos visų šių duomenų modelius, šios sistemos išmoksta pačios kurti rašymą, įskaitant naujienų straipsnius,  eilėraščius, kompiuterines programas, net žmogišką pokalbį. Rezultatas: tokie pokalbių robotai, kaip „ChatGPT“.

Kadangi jos mokosi iš daugiau duomenų, nei gali suprasti net jų kūrėjai, šios sistemos taip pat elgiasi netikėtai. Neseniai mokslininkai parodė, kad viena sistema sugebėjo pasamdyti žmogų internete, kad nugalėtų Captcha testą. Kai žmogus paklausė, ar tai „robotas“, sistema melavo ir pasakė, kad tai žmogus su regėjimo negalia.

Kai kurie ekspertai nerimauja, kad tyrėjams padarius šias sistemas galingesnes, mokydami jas gauti vis didesnį duomenų kiekį, jie gali išmokti daugiau žalingų įpročių.

Kas yra už šių įspėjimų?

2000-ųjų pradžioje jaunas rašytojas Eliezeris Yudkowsky pradėjo įspėti, kad A.I. gali sunaikinti žmoniją. Jo internetiniai įrašai pagimdė tikinčiųjų bendruomenę. Ši bendruomenė, vadinama racionalistais arba veiksmingais altruistais (toliau – EA), tapo nepaprastai įtakinga akademinėje bendruomenėje, vyriausybės ekspertų grupėse ir technologijų pramonėje.

P. Yudkowsky ir jo raštai vaidino pagrindinį vaidmenį, kuriant OpenAI ir DeepMind, A.I. laboratoriją, kurią „Google“ įsigijo 2014 m. Šiose laboratorijose dirbo daugelis „EA“ bendruomenės narių. Jie tikėjo, kad supratę A.I. keliamus pavojus, jie galėjo geriausiai jį sukurti.

Dvi organizacijos, neseniai išleidusios atvirus laiškus, įspėjančius apie A.I. – A.I. centras bei Saugos ir gyvenimo ateities institutas yra glaudžiai susiję su šiuo judėjimu.

Neseniai perspėjo mokslinių tyrimų pradininkai ir pramonės lyderiai, tokie, kaip Elonas Muskas, kuris jau seniai įspėjo apie riziką. Naujausią laišką pasirašė „OpenAI“ generalinis direktorius Samas Altmanas; ir Demis Hassabis, padėjęs įkurti DeepMind ir dabar prižiūri naują A.I. laboratorija, kuri jungia geriausius „DeepMind“ ir „Google“ tyrėjus.

Kiti gerbiami asmenys pasirašė vieną arba abu įspėjamuosius laiškus, įskaitant daktarą Bengio ir Geoffrey'us Hintoną, kuris neseniai pasitraukė iš „Google“ vykdomojo vadovo ir tyrėjo pareigų. 2018 m. už darbą neuroninių tinklų srityje jie gavo Turingo apdovanojimą, dažnai vadinamą „Nobelio skaičiavimo premija“.

Cade'as Metzas yra technologijų reporteris ir knygos „Genius Makers: The Mavericks Who Brought A.I.“ autorius. „Google“, „Facebook“ ir „The World“. Jo darbai apima dirbtinį intelektą, automobilius be vairuotojų, robotiką, virtualią realybę ir kitas kylančias sritis. @cademetz “

 

Puiki reklama kompanijoms, kurios dirba šioje srityje: "Tarp kitko, mes galime sunaikinti jus visus..."

 


How Could A.I. Destroy Humanity?

“Researchers and industry leaders have warned that A.I. could pose an existential risk to humanity. But they’ve been light on the details.

Last month, hundreds of well-known people in the world of artificial intelligence signed an open letter warning that A.I. could one day destroy humanity.

“Mitigating the risk of extinction from A.I. should be a global priority alongside other societal-scale risks, such as pandemics and nuclear war,” the one-sentence statement said.

The letter was the latest in a series of ominous warnings about A.I. that have been notably light on details. Today’s A.I. systems cannot destroy humanity. Some of them can barely add and subtract. So why are the people who know the most about A.I. so worried?

The scary scenario.

One day, the tech industry’s Cassandras say, companies, governments or independent researchers could deploy powerful A.I. systems to handle everything from business to warfare. Those systems could do things that we do not want them to do. And if humans tried to interfere or shut them down, they could resist or even replicate themselves so they could keep operating.

“Today’s systems are not anywhere close to posing an existential risk,” said Yoshua Bengio, a professor and A.I. researcher at the University of Montreal. “But in one, two, five years? There is too much uncertainty. That is the issue. We are not sure this won’t pass some point where things get catastrophic.”

The worriers have often used a simple metaphor. If you ask a machine to create as many paper clips as possible, they say, it could get carried away and transform everything — including humanity — into paper clip factories.

How does that tie into the real world — or an imagined world not too many years in the future? Companies could give A.I. systems more and more autonomy and connect them to vital infrastructure, including power grids, stock markets and military weapons. From there, they could cause problems.

For many experts, this did not seem all that plausible until the last year or so, when companies like OpenAI demonstrated significant improvements in their technology. That showed what could be possible if A.I. continues to advance at such a rapid pace.

“A.I. will steadily be delegated, and could — as it becomes more autonomous — usurp decision making and thinking from current humans and human-run institutions,” said Anthony Aguirre, a cosmologist at the University of California, Santa Cruz and a founder of the Future of Life Institute, the organization behind one of two open letters.

“At some point, it would become clear that the big machine that is running society and the economy is not really under human control, nor can it be turned off, any more than the S&P 500 could be shut down,” he said.

Or so the theory goes. Other A.I. experts believe it is a ridiculous premise.

“Hypothetical is such a polite way of phrasing what I think of the existential risk talk,” said Oren Etzioni, the founding chief executive of the Allen Institute for AI, a research lab in Seattle.

Are there signs A.I. could do this?

Not quite. But researchers are transforming chatbots like ChatGPT into systems that can take actions based on the text they generate. A project called AutoGPT is the prime example.

The idea is to give the system goals like “create a company” or “make some money.” Then it will keep looking for ways of reaching that goal, particularly if it is connected to other internet services.

A system like AutoGPT can generate computer programs. If researchers give it access to a computer server, it could actually run those programs. In theory, this is a way for AutoGPT to do almost anything online — retrieve information, use applications, create new applications, even improve itself.

Systems like AutoGPT do not work well right now. They tend to get stuck in endless loops. Researchers gave one system all the resources it needed to replicate itself. It couldn’t do it.

In time, those limitations could be fixed.

“People are actively trying to build systems that self-improve,” said Connor Leahy, the founder of Conjecture, a company that says it wants to align A.I. technologies with human values. “Currently, this doesn’t work. But someday, it will. And we don’t know when that day is.”

Mr. Leahy argues that as researchers, companies and criminals give these systems goals like “make some money,” they could end up breaking into banking systems, fomenting revolution in a country where they hold oil futures or replicating themselves when someone tries to turn them off.

Where do A.I. systems learn to misbehave?

A.I. systems like ChatGPT are built on neural networks, mathematical systems that can learn skills by analyzing data.

Around 2018, companies like Google and OpenAI began building neural networks that learned from massive amounts of digital text culled from the internet. By pinpointing patterns in all this data, these systems learn to generate writing on their own, including news articles, poems, computer programs, even humanlike conversation. The result: chatbots like ChatGPT.

Because they learn from more data than even their creators can understand, these systems also exhibit unexpected behavior. Researchers recently showed that one system was able to hire a human online to defeat a Captcha test. When the human asked if it was “a robot,” the system lied and said it was a person with a visual impairment.

Some experts worry that as researchers make these systems more powerful, training them on ever larger amounts of data, they could learn more bad habits.

Who are the people behind these warnings?

In the early 2000s, a young writer named Eliezer Yudkowsky began warning that A.I. could destroy humanity. His online posts spawned a community of believers. Called rationalists or effective altruists (“EAs”), this community became enormously influential in academia, government think tanks and the tech industry.

Mr. Yudkowsky and his writings played key roles in the creation of both OpenAI and DeepMind, an A.I. lab that Google acquired in 2014. And many from the community of “EAs” worked inside these labs. They believed that because they understood the dangers of A.I., they were in the best position to build it.

The two organizations that recently released open letters warning of the risks of A.I. — the Center for A.I. Safety and the Future of Life Institute — are closely tied to this movement.

The recent warnings have also come from research pioneers and industry leaders like Elon Musk, who has long warned about the risks. The latest letter was signed by Sam Altman, the chief executive of OpenAI; and Demis Hassabis, who helped found DeepMind and now oversees a new A.I. lab that combines the top researchers from DeepMind and Google.

Other well-respected figures signed one or both of the warning letters, including Dr. Bengio and Geoffrey Hinton, who recently stepped down as an executive and researcher at Google. In 2018, they received the Turing Award, often called “the Nobel Prize of computing,” for their work on neural networks.

Cade Metz is a technology reporter and the author of “Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and The World.” He covers artificial intelligence, driverless cars, robotics, virtual reality and other emerging areas. @cademetz

Great advertising for companies that work in this area: "By the way, we can destroy you all..."

 


Kinijos šnipų stotis spaudžia Washingtoną --- Planuojama pasiklausymo vieta Kuboje, kai Blinkenas ruošiasi vykti į Pekiną birželio 18 d.

  „Kinijos planai dėl pasiklausymo stoties Kuboje yra Pekino pasaulinės galios ambicijų žymeklis, pasodindamas spirale besitęsiančią konkurenciją su JAV ant Amerikos slenksčio.

 

     Pasiklausymo postas, kuris bus 100 mylių nuo Floridos, galėtų suteikti Kinijos karinėms pajėgoms šansus stebėti ryšius plačiame pietų JAV ruože.

 

     Dar svarbiau, kad šis objektas, įsišaknijęs ekonominės ir geopolitinės svarbos regione, Kinijai praplečia žaidimo sąlygas, pastumdamas Vašingtoną dėl įtakos, ir atsilygina už skausmą Pekinui – JAV šnipinėjimą Kinijos krantuose.

 

     „Simbolika daug didesnė“, – sakė „Rand Corp.“ tarptautinio saugumo specialistas Michaelas Mazarras. „Tais laikais, kai Jungtinės Valstijos galvojo apie Kinijos, iššūkį kaip apie vienintelį Indijos ir Ramiojo vandenyno regioną, o JAV buvo ta šalis, kuri kėsinasi į kito regiono saugumo požiūriu, tie laikai baigėsi“.

 

     Anot abiejų pusių pareigūnų, Vašingtonas ir Pekinas ruošiasi valstybės sekretoriaus Antony Blinken vizitui į Pekiną, kurio metu gali būti susitikimas su Kinijos lyderiu Xi Jinpingu. Blinkenas į Pekiną turėtų atvykti birželio 18 d., pranešė JAV pareigūnas, jo vizitas buvo atidėtas nuo vasario, kai pasirodė įtariamas Kinijos šnipų balionas.

 

     Pekinas dešimtmečius smerkia tai, ką laiko JAV įkyrumu, skraidinant stebėjimo orlaivius ir plaukiant kariniais apžvalgos laivais bei kitais karo laivais netoli Kinijos krantų arba per Taivano sąsiaurį ir Pietų Kinijos jūrą – sritis, kurias Kinija laiko gyvybiškai svarbiomis savo saugumui.

 

     Kinijos gynybos ministras neseniai apkaltino JAV dėl pastarojo meto artimų jų kariškių susidūrimų ir paragino Vašingtoną trauktis. – Kokia prasmė ten eiti? – paklausė generolas Li Shangfu regioninėje saugumo konferencijoje Singapūre.

 

     Nors Kubos slapto pasiklausymo įrenginys suteiks Pekinui galimybę užsiimti tiesioginiais pokalbiais, mažai tikėtina, kad tai bus derybų pagrindas. Tikėtina, kad JAV netrauks iš Kinijos pakraščių savo karinių pajėgų, atsižvelgiant į Vašingtono susirūpinimą dėl ryžtingesnės Pekino pozicijos ir Amerikos saugumo įsipareigojimų sąjungininkams nuo Japonijos iki Australijos.

 

     Atvirkščiai, Kubos postas yra ženklas, kad Kinija savo kovą su JAV laiko pasauline ir kad ji turi veikti visame pasaulyje, kad atremtų Vašingtoną ir apsaugotų Kinijos interesus. Kinija įrengė įrenginius, kurie galėtų aptarnauti jos karinį jūrų laivyną Azijoje ir Ramiajame vandenyne visuotinėje bazinių svetainių paieškoje.

 

     Kinija daug metų žiūrėjo į Kubą su komunistine vyriausybe, kaip į galimą įėjimo tašką plėsti įtaką Lotynų Amerikoje ir nustumti JAV į nuošalį regione, kurį Vašingtonas ilgai laikė Amerikos rezervatu.

 

     Sovietų Sąjunga, o vėliau ir Rusija, dešimtmečius eksploatavo stebėjimo įrenginį netoli Havanos, sukurdama precedentą. Taigi, saugumo specialistų teigimu, Kinijos pasiklausymo postas, nors ir piktina Vašingtoną, nėra tinkamas peržengti JAV raudonąsias linijas.

 

     Kinija per pastaruosius 20 metų tapo ekonomine Lotynų Amerikos žaidėja, didinančia prekybą ir investicijas į žemės ūkį, energetiką, kasybą ir kitus sektorius. Ji tapo pagrindine prekybos partnere daugeliui regiono šalių.

 

     Ši veikla suteikė Kinijos įmonėms prieigą prie vario, aliejaus, sojų pupelių ir kitų išteklių, kurie, Pekino nuomone, yra labai svarbūs, auginant Kinijos ekonomiką ir stiprinant didėjančią įtaką.

 

     Pastaraisiais metais dėmesys buvo išplėstas, įtraukiant medžiagas, labai svarbias energiją taupančioms technologijoms; Kinijos konsorciumas sausį laimėjo konkursą išgauti litį Bolivijoje, kur yra didžiausi pasaulyje šio metalo, kuris yra elektromobilių akumuliatorių komponentas, ištekliai.

 

     „Kinijos įsipareigojimas Lotynų Amerikoje yra susijęs su Kinija, kad ji gautų tai, ko Kinijai reikia jos pačios klestėjimui“, – sakė Pekino santykius regione stebintis JAV armijos karo koledžo profesorius R. Evanas Ellisas.

 

     Xi yra sakęs, kad JAV ketina suvaldyti Kiniją, nes ji tampa pasauline lygiaverte.

 

     Konferencijoje, kurioje kalbėjo Li, jis ir kiti Kinijos pareigūnai perspėjo, kad JAV bando įvesti Šiaurės Atlanto sutarties organizaciją į Aziją, kad ji galėtų spausti Kiniją.

 

     Atsižvelgdamas į tai, pasak Kinijos pareigūnų ir užsienio politikos specialistų, Xi pirmenybę teikė Kinijos ekonomikos paruošimui atlaikyti tokias sankcijas ir ekonominį spaudimą, kokį JAV ir jos sąjungininkės NATO taikė Rusijai dėl įvykių Ukrainoje." [1]

 

1.  World News: China's Spy Station Jostles Washington --- Planned listening post in Cuba comes as Blinken prepares to go to Beijing on June 18. Hutzler, Charles; Vyas, Kejal. 
Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]. 10 June 2023: A.9.