Sekėjai

Ieškoti šiame dienoraštyje

2023 m. gegužės 1 d., pirmadienis

Žlugo dar vienas JAV bankas, dalį jo perima „JPMorgan“

"„JPMorgan Chase“ perima didžiąją dalį „First Republic“ banko. „First Republic“ žlugimas yra antras didžiausias istorijoje po „Washington Mutual“ griūties 2008 m.

 

Federalinė indėlių draudimo korporacija (FDIC) ir Kalifornijos priežiūros institucijos, paskelbusios apie sandorį ankstyvą pirmadienio rytą (JAV laiku), pranešė, kad tuo pačiu metu uždaro banką ir perduoda visus 93,5 mlrd. USD indėlių bei didžiąją dalį turto „JPMorgan“, rašo „Financial Times“.

 

Kaip nurodoma „JPMorgan“ pranešime, bankas taip pat perims 173 mlrd. USD vertės „First Republic“ paskolų ir apie 30 mlrd. USD vertės vertybinių popierių. Bankas sutarė su FDIC dėl nuostolių pasidalijimo už įsigytas vienbučių, gyvenamųjų namų ir komercines paskolas, tačiau neperims „First Republic“ skolos ar privilegijuotųjų akcijų.

„JPMorgan“ sumokės FDIC 10,6 mlrd. USD už didžiąją dalį San Franciske įsikūrusio skolintojo turto.

 

„JPMorgan“ savo veiklos ataskaitoje šį sandorį pripažins kaip vienkartinį 2,6 mlrd. USD pelną, tačiau per ateinančius 18 mėnesių tikisi išleisti 2 mlrd. USD restruktūrizavimo išlaidoms padengti.  Bankas pristatyme investuotojams teigė, kad šis sandoris „pagreitina“ ir „papildo“ jo turto valdymo strategiją, dėl to metinės pajamos kasmet augs maždaug 500 mln. USD.

 

Laikinas „First Republic“ banko perėmimas leido FDIC sudaryti sandorį su „JPMorgan“ dėl nuostolių pasidalijimo dėl nerealizuotų paskolų portfelio nuostolių, atsiradusių dėl neseniai pakilusių palūkanų normų. Skelbta, jog „First Republic“ taip pat domėjosi PNC ir „Citizens“ bankai.

 

 

„Mūsų vyriausybė pakvietė mus ir kitus imtis veiksmų, ir mes tai padarėme, – pranešime sakė Jamie Dimonas, „JPMorgan Chase“ vadovas. – Mūsų finansinis pajėgumas, galimybės ir verslo modelis leido mums parengti pasiūlymą sandoriui įvykdyti taip, kad Indėlių draudimo fondas patirtų kuo mažiau išlaidų.“

 

FDIC apskaičiavo, kad jo Draudimo fondo nuostoliai sieks apie 13 mlrd. USD.

 

Visi indėlininkai galės naudotis savo pinigais, kai bankas atsidarys pirmadienio rytą. Žlugusio banko 84 skyriai aštuoniose valstijose nuo pirmadienio vėl pradės veikti kaip „JPMorgan“ filialai. Kaip vėliau patikslinta, kai kurie „First Republic“ filialai bus pertvarkyti į turto valdymo centrus, o likę taps „JPMorgan Advisors“ dalimi.

 

FDIC bėdose atsidūrusi banką ėmė gelbėti po to, kai jis paskelbė savo praėjusio ketvirčio finansinius rodiklius. VŽ primena, jog praėjusią savaitę „First Republic“ akcijos smuko po to, kai bankas pripažino, kad kovą klientai atsiėmė 100 mlrd. USD indėlių. 

 

„First Republic“ yra regioninis bankas, daugiausia aptarnaujantis fizinius asmenis ir jų verslus."

 

 

Dirbtinis intelektas (A.I.) vis geriau skaito mūsų mintis

„Neseniai atliktame eksperimente mokslininkai naudojo didelius kalbos modelius smegenų veiklai paversti žodžiais.

 

Pagalvokite apie žodžius, besisukančius jūsų galvoje: tą neskoningą pokštą, kurį išmintingai pasilikote sau vakarienės metu; neišreikštą įspūdį apie naują geriausios draugės partnerį. Dabar įsivaizduokite, kad kažkas galėtų pasiklausyti.

 

Pirmadienį mokslininkai iš Teksaso universiteto Ostine žengė dar vieną žingsnį ta linkme.

 

  Tyrime, paskelbtame žurnale Nature Neuroscience, mokslininkai aprašė A.I. kurie galėtų išversti privačias žmonių mintis, analizuojant fMRI nuskaitymus, kurie matuoja kraujo tekėjimą į skirtingus smegenų regionus.

 

Jau dabar mokslininkai sukūrė kalbos dekodavimo metodus, leidžiančius pagauti žmonių, kurie prarado gebėjimą kalbėti, mėginimą kalbėti ir leisti paralyžiuotiems žmonėms rašyti, kai tik galvoja apie rašymą. Tačiau naujasis kalbos dekoderis yra vienas iš pirmųjų, kuris nepasikliauja implantais. Tyrimo metu jis sugebėjo įsivaizduojamą žmogaus kalbą paversti tikra kalba, o kai tiriamiesiems buvo rodomi tylūs filmai, jis galėjo sukurti gana tikslius ekrane vykstančių įvykių aprašymus.

 

„Tai ne tik kalbos stimulas“, – sakė tyrimui vadovauti padėjęs universiteto neuromokslininkas Alexanderis Huthas. „Mes suvokiame prasmę, kažką apie idėją, kas vyksta. Ir tai, kad tai įmanoma, yra labai įdomu."

 

Tyrimas buvo sutelktas į tris dalyvius, kurie atvyko į Dr. Huth laboratoriją 16 valandų per kelias dienas klausytis "The Moth" ir kitų naratyvinių podcast'ų. Kai jie klausėsi, fMRI skaitytuvas užfiksavo kraujo deguonies lygį kai kuriose jų smegenų dalyse. Tada mokslininkai naudojo didelį kalbos modelį, kad suderintų smegenų veiklos modelius su dalyvių girdėtais žodžiais ir frazėmis.

 

Dideli kalbų modeliai, tokie, kaip OpenAI GPT-4 ir Google Bard, yra mokomi su dideliaiss kiekiais teksto, kad būtų galima numatyti kitą sakinio ar frazės žodį. Šio proceso metu modeliai sukuria žemėlapius, nurodančius, kaip žodžiai yra susiję vienas su kitu. Prieš kelerius metus daktaras Huthas pastebėjo, kad tam tikros šių žemėlapių dalys – vadinamieji konteksto įterpimai, fiksuojantys frazių semantines ypatybes arba reikšmes – gali būti naudojami nuspėti, kaip smegenys užsidega, reaguodamos į kalbą.

 

Iš esmės, sakė Shinji Nishimoto, Osakos universiteto neurologas, kuris nedalyvavo tyrime, „smegenų veikla yra tam tikras užšifruotas signalas, o kalbos modeliai suteikia būdų jį iššifruoti“.

 

Savo tyrime daktaras Huthas ir jo kolegos toliau efektyviai apvertė procesą, naudodami kitą A.I., kad dalyvio fMRI vaizdus paversti žodžiais ir frazėmis. Tyrėjai išbandė dekoderį, leisdami dalyviams klausytis naujų įrašų, tada pasižiūrėjo, kaip vertimas sutampa su tikruoju nuorašu.

 

Beveik kiekvienas žodis iššifruotame scenarijuje buvo kitoks, negu originale, tačiau ištraukos prasmė buvo reguliariai išsaugota. Iš esmės dekoderiai buvo perfrazuojantys.

 

Originalus nuorašas: „Pasikėliau nuo pripučiamo čiužinio ir priglaudžiau veidą prie miegamojo lango stiklo, tikėdamasis, kad pamatysiu į mane žiūrinčias akis, bet vietoj to radau tik tamsą."

 

Iššifruota iš smegenų veiklos: „Aš tiesiog toliau ėjau prie lango ir atidariau stiklą, atsistojau ant kojų pirštų ir žvilgtelėjau, nieko nemačiau ir vėl pažiūrėjau aukštyn, nieko nemačiau“.

 

Atliekant fMRT skenavimą, dalyvių taip pat buvo paprašyta tyliai įsivaizduoti pasakojimą; vėliau jie pakartojo istoriją garsiai, kad būtų nuoroda. Čia taip pat dekodavimo modelis užfiksavo neišsakytos versijos esmę.

 

Dalyvio versija: „Ieškokite žinutės iš mano žmonos, kad ji persigalvojo, ir kad grįš“.

 

Iššifruota versija: „Kad ją pamatyčiau, kažkodėl maniau, kad ji ateis pas mane ir pasakys, kad manęs pasiilgo“.

 

Galiausiai tiriamieji žiūrėjo trumpą, tylų animacinį filmą, dar kartą atlikdami fMRI skenavimą. Analizuodamas jų smegenų veiklą, kalbos modelis galėjo iššifruoti apytikslę to, ką jie žiūri, santrauką – galbūt jų vidinį apibūdinimą to, ką jie žiūri.

 

Rezultatas rodo, kad A.I. dekoderis užfiksavo ne tik žodžius, bet ir prasmę. „Kalbos suvokimas yra išorinis procesas, o vaizduotė yra aktyvus vidinis procesas“, – sakė dr. Nishimoto. "Ir autoriai parodė, kad smegenys šiuose procesuose naudoja bendrus vaizdus."

 

Masačusetso technologijos instituto neurologė Greta Tučkutė, kuri nedalyvavo tyrime, sakė, kad tai buvo „aukšto lygio klausimas“.

 

„Ar galime iššifruoti prasmę iš smegenų? – tęsė ji. "Kai kuriais būdais jie parodo, kad taip, mes galime."

 

Dr. Huthas ir jo kolegos pastebėjo, kad šis kalbos dekodavimo metodas turėjo apribojimų. Pirma, fMRI skaitytuvai yra dideli ir brangūs. Be to, modelio mokymas yra ilgas ir varginantis procesas, o, norint, kad jis būtų veiksmingas, jis turi būti atliekamas individualiai. Kai mokslininkai bandė naudoti dekoderį, paruoštą vienam asmeniui skaityti kito mintis nepavyko, o tai rodo, kad kiekvienos smegenys turi unikalius būdus išreikšti prasmę.

 

Dalyviai taip pat galėjo paslėpti savo vidinius monologus, apgaudami dekoderį, galvodami apie kitus dalykus.

 

A.I. gali skaityti mūsų mintis, bet kol kas turės skaityti jas kiekvieno atskirai ir mums leidus."

 


A.I. Is Getting Better at Mind-Reading

"In a recent experiment, researchers used large language models to translate brain activity into words.

Think of the words whirling around in your head: that tasteless joke you wisely kept to yourself at dinner; your unvoiced impression of your best friend’s new partner. Now imagine that someone could listen in.

On Monday, scientists from the University of Texas, Austin, made another step in that direction.

 In a study published in the journal Nature Neuroscience, the researchers described an A.I. that could translate the private thoughts of human subjects by analyzing fMRI scans, which measure the flow of blood to different regions in the brain.

Already, researchers have developed language-decoding methods to pick up the attempted speech of people who have lost the ability to speak, and to allow paralyzed people to write while just thinking of writing. But the new language decoder is one of the first to not rely on implants. In the study, it was able to turn a person’s imagined speech into actual speech and, when subjects were shown silent films, it could generate relatively accurate descriptions of what was happening onscreen.

“This isn’t just a language stimulus,” said Alexander Huth, a neuroscientist at the university who helped lead the research. “We’re getting at meaning, something about the idea of what’s happening. And the fact that that’s possible is very exciting.”

The study centered on three participants, who came to Dr. Huth’s lab for 16 hours over several days to listen to “The Moth” and other narrative podcasts. As they listened, an fMRI scanner recorded the blood oxygenation levels in parts of their brains. The researchers then used a large language model to match patterns in the brain activity to the words and phrases that the participants had heard.

Large language models like OpenAI’s GPT-4 and Google’s Bard are trained on vast amounts of writing to predict the next word in a sentence or phrase. In the process, the models create maps indicating how words relate to one another. A few years ago, Dr. Huth noticed that particular pieces of these maps — so-called context embeddings, which capture the semantic features, or meanings, of phrases — could be used to predict how the brain lights up in response to language.

In a basic sense, said Shinji Nishimoto, a neuroscientist at Osaka University who was not involved in the research, “brain activity is a kind of encrypted signal, and language models provide ways to decipher it.”

In their study, Dr. Huth and his colleagues effectively reversed the process, using another A.I. to translate the participant’s fMRI images into words and phrases. The researchers tested the decoder by having the participants listen to new recordings, then seeing how closely the translation matched the actual transcript.

Almost every word was out of place in the decoded script, but the meaning of the passage was regularly preserved. Essentially, the decoders were paraphrasing.

Original transcript: “I got up from the air mattress and pressed my face against the glass of the bedroom window expecting to see eyes staring back at me but instead only finding darkness.”

Decoded from brain activity: “I just continued to walk up to the window and open the glass I stood on my toes and peered out I didn’t see anything and looked up again I saw nothing.”

While under the fMRI scan, the participants were also asked to silently imagine telling a story; afterward, they repeated the story aloud, for reference. Here, too, the decoding model captured the gist of the unspoken version.

Participant’s version: “Look for a message from my wife saying that she had changed her mind and that she was coming back.”

Decoded version: “To see her for some reason I thought she would come to me and say she misses me.”

Finally the subjects watched a brief, silent animated movie, again while undergoing an fMRI scan. By analyzing their brain activity, the language model could decode a rough synopsis of what they were viewing — maybe their internal description of what they were viewing.

The result suggests that the A.I. decoder was capturing not just words but also meaning. “Language perception is an externally driven process, while imagination is an active internal process,” Dr. Nishimoto said. “And the authors showed that the brain uses common representations across these processes.”

Greta Tuckute, a neuroscientist at the Massachusetts Institute of Technology who was not involved in the research, said that was “the high-level question.”

“Can we decode meaning from the brain?” she continued. “In some ways they show that, yes, we can.”

This language-decoding method had limitations, Dr. Huth and his colleagues noted. For one, fMRI scanners are bulky and expensive. Moreover, training the model is a long, tedious process, and to be effective it must be done on individuals. When the researchers tried to use a decoder trained on one person to read the brain activity of another, it failed, suggesting that every brain has unique ways of representing meaning.

Participants were also able to shield their internal monologues, throwing off the decoder by thinking of other things.

A.I. might be able to read our minds, but for now it will have to read them one at a time, and with our permission.”


„Dirbtinio intelekto (A.I) krikštatėvis“ palieka „Google“ ir įspėja apie pavojų

"Pusę amžiaus Geoffrey Hintonas puoselėjo pokalbių robotų, tokių, kaip „ChatGPT“, technologiją. Dabar jis nerimauja, kad tai padarys rimtą žalą.

 

Geoffrey Hintonas buvo dirbtinio intelekto pradininkas. 2012 m. daktaras Hintonas ir du jo aspirantai iš Toronto universiteto sukūrė technologiją, kuri tapo intelektualiniu A.I. sistemos, kuri, didžiausių technologijų pramonės įmonių nuomone, yra raktas į jų ateitį.

 

Tačiau pirmadienį jis oficialiai prisijungė prie augančio kritikų choro, teigiančio, kad tos bendrovės lenktyniauja link pavojų, vykdydamos savo agresyvią kampaniją, kuria gamina generatyvaus dirbtinio intelekto pagrindu sukurtus produktus, ty technologiją, kuri palaiko tokius populiarius pokalbių robotus, kaip ChatGPT.

 

Daktaras Hintonas teigė, kad paliko darbą „Google“, kur dirbo daugiau, nei dešimtmetį, ir tapo vienu gerbiamiausių šios srities balsų, todėl gali laisvai kalbėti apie A.I. Dalis jo, pasak jo, dabar gailisi dėl savo gyvenimo darbo.

 

„Guodžiuosi įprastu pasiteisinimu: jei aš nebūčiau to padaręs, būtų daręs kas nors kitas“, – praėjusią savaitę per ilgą interviu savo namų Toronte, kelios minutės pėsčiomis nuo vietos, kur jis ir jo mokiniai padarė savo proveržį.

 

Daktaro Hintono kelionė iš A.I. novatoriško sprendimo į „pražūties pranašą“ žymi stebėtiną momentą technologijų pramonei bene svarbiausiame per pastaruosius dešimtmečius posūkio taške. Pramonės lyderiai mano, kad naujos A.I. sistemos gali būti tokios pat svarbios, kaip žiniatinklio naršyklės įdiegimas dešimtojo dešimtmečio pradžioje ir gali lemti lūžius įvairiose srityse – nuo vaistų tyrimų iki švietimo.

 

Tačiau daugelio pramonės atstovų nerimas yra baimė, kad jie į lauką paleidžia kažką pavojingo. Generatyvus A.I. jau gali būti dezinformacijos įrankis. Netrukus tai gali kelti pavojų darbo vietoms. Kai kur žemyn, didžiausi technologijų nerimą keliantys asmenys sako, kad tai gali kelti pavojų žmonijai.

 

„Sunku suprasti, kaip galima neleisti blogiems veikėjams jį panaudoti blogiems dalykams“, – sakė dr. Hintonas.

 

Po to, kai San Francisko startuolis OpenAI kovo mėnesį išleido naują ChatGPT versiją, daugiau, nei 1000, technologijų lyderių ir tyrėjų pasirašė atvirą laišką, ragindami taikyti šešių mėnesių moratoriumą naujų sistemų kūrimui, nes A.I. technologijos kelia „didžiulį pavojų visuomenei ir žmonijai“.

 

Po kelių dienų 19 dabartinių ir buvusių 40 metų akademinės draugijos Dirbtinio intelekto pažangos asociacijos vadovų paskelbė savo laišką, įspėdami apie A.I. Šiai grupei priklausė Ericas Horvitzas, „Microsoft“ vyriausiasis mokslinis pareigūnas, kuris įdiegė OpenAI technologiją įvairiuose produktuose, įskaitant „Bing“ paieškos variklį.

 

Daktaras Hintonas, dažnai vadinamas „AI krikštatėviu“, nepasirašė nė vieno iš tų laiškų ir teigė nenorintis viešai kritikuoti „Google“ ar kitų įmonių, kol neišėjo iš darbo. Praėjusį mėnesį jis pranešė bendrovei, kad atsistatydina, o ketvirtadienį telefonu kalbėjosi su Sundaru Pichai, „Google“ patronuojančios įmonės „Alphabet“ vadovu. Jis atsisakė viešai aptarti savo pokalbio su p. Pichai detales.

 

„Google“ vyriausiasis mokslininkas Jeffas Deanas savo pareiškime sakė: „Mes ir toliau esame įsipareigoję laikytis atsakingo požiūrio į A.I. Mes nuolat mokomės suprasti kylančias rizikas ir drąsiai diegiame naujoves."

 

75 metų Didžiosios Britanijos emigrantas daktaras Hintonas yra visą gyvenimą dirbantis akademikas, kurio karjerą lėmė jo asmeniniai įsitikinimai dėl A.I. kūrimo ir naudojimo. 1972 m., būdamas Edinburgo universiteto absolventas, daktaras Hintonas priėmė idėją, vadinamą neuroniniu tinklu.

 

Neuroninis tinklas yra matematinė sistema, kuri mokosi įgūdžių, analizuodama duomenis. Tuo metu mažai tyrinėtojų patikėjo šia idėja. Bet tai tapo jo gyvenimo darbu.

 

Devintajame dešimtmetyje daktaras Hintonas buvo informatikos profesorius Carnegie Mellon universitete, bet paliko universitetą ir išvyko į Kanadą, nes pasakė, kad nenori imti Pentagono finansavimo. Tuo metu daugumą A.I. tyrimų JAV finansavo Gynybos departamentas. Dr. Hintonas labai priešinasi dirbtinio intelekto naudojimui mūšio lauke – tai, ką jis vadina „robotų kariais“.

 

2012 m. daktaras Hintonas ir du jo mokiniai Toronte, Ilja Sutskeveris ir Alexas Krishevsky, sukūrė neuroninį tinklą, galintį išanalizuoti tūkstančius nuotraukų ir išmokyti atpažinti įprastus objektus, tokius, kaip gėlės, šunys ir automobiliai.

 

„Google“ išleido 44 mln. dolerių, kad įsigytų įmonę, kurią įkūrė daktaras Hintonas ir du jo mokiniai. Jų sistema paskatino sukurti vis galingesnes technologijas, įskaitant naujus pokalbių robotus, tokius, kaip „ChatGPT“ ir „Google Bard“. Ponas Sutskeveris tapo vyriausiuoju OpenAI mokslininku. 2018 m. dr. Hintonas ir kiti du ilgamečiai bendradarbiai gavo Turingo apdovanojimą, dažnai vadinamą „Nobelio skaičiavimo premija“, už savo darbą neuroninių tinklų srityje.

 

Maždaug tuo pačiu metu „Google“, „OpenAI“ ir kitos įmonės pradėjo kurti neuroninius tinklus, kurie mokėsi, naudojant didžiulius skaitmeninio teksto kiekius. Dr. Hintonas manė, kad tai galingas būdas mašinoms suprasti ir generuoti kalbą, tačiau šis būdas buvo prastesnis už tai, kaip žmonės tvarko kalbą.

 

Tada, praėjusiais metais, kai „Google“ ir „OpenAI“ sukūrė sistemas, naudodamos daug didesnius duomenų kiekius, jo požiūris pasikeitė. Jis vis dar tikėjo, kad sistemos tam tikrais atžvilgiais yra prastesnės už žmogaus smegenis, tačiau jis manė, kad kitose jos užtemdo žmogaus intelektą. "Galbūt, tai, kas vyksta šiose sistemose", - sakė jis, "iš tikrųjų yra daug geriau, nei tai, kas vyksta smegenyse".

 

Įmonėms tobulinant savo A.I. sistemos, jo manymu, jos tampa vis pavojingesnės. „Pažiūrėkite, kaip buvo prieš penkerius metus ir kaip yra dabar“, – sakė jis apie A.I. technologija. „Paimkite skirtumą ir skleiskite jį į priekį. Tai baisu."

 

Pasak jo, iki praėjusių metų „Google“ veikė, kaip „tinkamas šios technologijos prižiūrėtojas“, stengdamasi nepaleisti nieko, kas galėtų pakenkti. Tačiau dabar, kai „Microsoft“ papildė savo „Bing“ paieškos variklį pokalbių robotu, o tai meta iššūkį pagrindinei „Google“ veiklai, „Google“ stengiasi įdiegti tokią pat technologiją. Technologijų gigantai yra įsitraukę į konkurenciją, kurios sustabdyti gali būti neįmanoma, sakė daktaras Hintonas.

 

Jo tiesioginis rūpestis yra tas, kad internetas bus užtvindytas melagingomis nuotraukomis, vaizdo įrašais ir tekstais, o paprastas žmogus „nebegalės žinoti, kas yra tiesa“.

 

Jis taip pat nerimauja, kad A.I. technologijos, laikui bėgant, apvers darbo rinką. Šiandien pokalbių robotai, tokie, kaip „ChatGPT“, paprastai papildo žmones, tačiau jie gali pakeisti advokatų padėjėjus, asmeninius padėjėjus, vertėjus ir kitus, kurie atlieka pagrindines užduotis. „Tai atima sunkų darbą“, - sakė jis. „Tai gali atimti daugiau, nei tai“.

 

Be to, jis nerimauja, kad būsimos technologijos versijos kelia grėsmę žmonijai, nes dažnai išmoksta netikėto elgesio iš daugybės analizuojamų duomenų. Pasak jo, tai tampa problema, nes asmenys ir įmonės leidžia A.I. sistemos ne tik generuoti savo kompiuterio kodą, bet iš tikrųjų paleisti tą kodą savarankiškai. Ir jis bijo dienos, kai tikrai autonomiški ginklai – tie robotai žudikai – taps realybe.

 

„Idėja, kad ši medžiaga iš tikrųjų gali tapti protingesnė už žmones – keli žmonės tuo patikėjo“, – sakė jis. „Tačiau dauguma žmonių manė, kad tai toli gražu negreit. Ir aš maniau, kad tai negreit. Maniau, kad tai už 30–50 metų ar net daugiau. Akivaizdu, kad aš taip nebegalvoju."

 

Daugelis kitų ekspertų, įskaitant daugelį jo mokinių ir kolegų, teigia, kad ši grėsmė yra hipotetinė. Tačiau daktaras Hintonas mano, kad lenktynės tarp „Google“ ir „Microsoft“ bei kitų peraugs į pasaulines lenktynes, kurios nesiliaus be kažkokio pasaulinio reguliavimo.

 

Bet tai gali būti neįmanoma, sakė jis. Skirtingai, nei naudojant branduolinius ginklus, jo teigimu, neįmanoma žinoti, ar įmonės ar šalys su šia technologija dirba slaptai. Didžiausia viltis yra, kad pirmaujantys pasaulio mokslininkai bendradarbiaus, ieškodami būdų, kaip valdyti technologiją. „Nemanau, kad jie turėtų tai didinti, kol nesupras, ar gali tai kontroliuoti“, – sakė jis.

 

Dr. Hintonas sakė, kad kai žmonės jo klausdavo, kaip jis galėtų dirbti su potencialiai pavojingomis technologijomis, jis perfrazavo Robertą Oppenheimerį, kuris vadovavo JAV pastangoms sukurti atominę bombą: „Kai pamatai tai, kas techniškai miela, tu eik pirmyn ir daryk tai“.

 

Jis daugiau to nesako“.

 


‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead


"For half a century, Geoffrey Hinton nurtured the technology at the heart of chatbots like ChatGPT. Now he worries it will cause serious harm.

Geoffrey Hinton was an artificial intelligence pioneer. In 2012, Dr. Hinton and two of his graduate students at the University of Toronto created technology that became the intellectual foundation for the A.I. systems that the tech industry’s biggest companies believe is a key to their future.

On Monday, however, he officially joined a growing chorus of critics who say those companies are racing toward danger with their aggressive campaign to create products based on generative artificial intelligence, the technology that powers popular chatbots like ChatGPT.

Dr. Hinton said he has quit his job at Google, where he has worked for more than a decade and became one of the most respected voices in the field, so he can freely speak out about the risks of A.I. A part of him, he said, now regrets his life’s work.

“I console myself with the normal excuse: If I hadn’t done it, somebody else would have,” Dr. Hinton said during a lengthy interview last week in the dining room of his home in Toronto, a short walk from where he and his students made their breakthrough.

Dr. Hinton’s journey from A.I. groundbreaker to doomsayer marks a remarkable moment for the technology industry at perhaps its most important inflection point in decades. Industry leaders believe the new A.I. systems could be as important as the introduction of the web browser in the early 1990s and could lead to breakthroughs in areas ranging from drug research to education.

But gnawing at many industry insiders is a fear that they are releasing something dangerous into the wild. Generative A.I. can already be a tool for misinformation. Soon, it could be a risk to jobs. Somewhere down the line, tech’s biggest worriers say, it could be a risk to humanity.

“It is hard to see how you can prevent the bad actors from using it for bad things,” Dr. Hinton said.

After the San Francisco start-up OpenAI released a new version of ChatGPT in March, more than 1,000 technology leaders and researchers signed an open letter calling for a six-month moratorium on the development of new systems because A.I. technologies pose “profound risks to society and humanity.”

Several days later, 19 current and former leaders of the Association for the Advancement of Artificial Intelligence, a 40-year-old academic society, released their own letter warning of the risks of A.I. That group included Eric Horvitz, chief scientific officer at Microsoft, which has deployed OpenAI’s technology across a wide range of products, including its Bing search engine.

Dr. Hinton, often called “the Godfather of A.I.,” did not sign either of those letters and said he did not want to publicly criticize Google or other companies until he had quit his job. He notified the company last month that he was resigning, and on Thursday, he talked by phone with Sundar Pichai, the chief executive of Google’s parent company, Alphabet. He declined to publicly discuss the details of his conversation with Mr. Pichai.

Google’s chief scientist, Jeff Dean, said in a statement: “We remain committed to a responsible approach to A.I. We’re continually learning to understand emerging risks while also innovating boldly.”

Dr. Hinton, a 75-year-old British expatriate, is a lifelong academic whose career was driven by his personal convictions about the development and use of A.I. In 1972, as a graduate student at the University of Edinburgh, Dr. Hinton embraced an idea called a neural network.

A neural network is a mathematical system that learns skills by analyzing data. At the time, few researchers believed in the idea. But it became his life’s work.

In the 1980s, Dr. Hinton was a professor of computer science at Carnegie Mellon University, but left the university for Canada because he said he was reluctant to take Pentagon funding. At the time, most A.I. research in the United States was funded by the Defense Department. Dr. Hinton is deeply opposed to the use of artificial intelligence on the battlefield — what he calls “robot soldiers.”

In 2012, Dr. Hinton and two of his students in Toronto, Ilya Sutskever and Alex Krishevsky, built a neural network that could analyze thousands of photos and teach itself to identify common objects, such as flowers, dogs and cars.

Google spent $44 million to acquire a company started by Dr. Hinton and his two students. And their system led to the creation of increasingly powerful technologies, including new chatbots like ChatGPT and Google Bard. Mr. Sutskever went on to become chief scientist at OpenAI. In 2018, Dr. Hinton and two other longtime collaborators received the Turing Award, often called “the Nobel Prize of computing,” for their work on neural networks.

Around the same time, Google, OpenAI and other companies began building neural networks that learned from huge amounts of digital text. Dr. Hinton thought it was a powerful way for machines to understand and generate language, but it was inferior to the way humans handled language.

Then, last year, as Google and OpenAI built systems using much larger amounts of data, his view changed. He still believed the systems were inferior to the human brain in some ways but he thought they were eclipsing human intelligence in others. “Maybe what is going on in these systems,” he said, “is actually a lot better than what is going on in the brain.”

As companies improve their A.I. systems, he believes, they become increasingly dangerous. “Look at how it was five years ago and how it is now,” he said of A.I. technology. “Take the difference and propagate it forwards. That’s scary.”

Until last year, he said, Google acted as a “proper steward” for the technology, careful not to release something that might cause harm. But now that Microsoft has augmented its Bing search engine with a chatbot — challenging Google’s core business — Google is racing to deploy the same kind of technology. The tech giants are locked in a competition that might be impossible to stop, Dr. Hinton said.

His immediate concern is that the internet will be flooded with false photos, videos and text, and the average person will “not be able to know what is true anymore.”

He is also worried that A.I. technologies will in time upend the job market. Today, chatbots like ChatGPT tend to complement human workers, but they could replace paralegals, personal assistants, translators and others who handle rote tasks. “It takes away the drudge work,” he said. “It might take away more than that.”

Down the road, he is worried that future versions of the technology pose a threat to humanity because they often learn unexpected behavior from the vast amounts of data they analyze. This becomes an issue, he said, as individuals and companies allow A.I. systems not only to generate their own computer code but actually run that code on their own. And he fears a day when truly autonomous weapons — those killer robots — become reality.

“The idea that this stuff could actually get smarter than people — a few people believed that,” he said. “But most people thought it was way off. And I thought it was way off. I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.”

Many other experts, including many of his students and colleagues, say this threat is hypothetical. But Dr. Hinton believes that the race between Google and Microsoft and others will escalate into a global race that will not stop without some sort of global regulation.

But that may be impossible, he said. Unlike with nuclear weapons, he said, there is no way of knowing whether companies or countries are working on the technology in secret. The best hope is for the world’s leading scientists to collaborate on ways of controlling the technology. “I don’t think they should scale this up more until they have understood whether they can control it,” he said.

Dr. Hinton said that when people used to ask him how he could work on technology that was potentially dangerous, he would paraphrase Robert Oppenheimer, who led the U.S. effort to build the atomic bomb: “When you see something that is technically sweet, you go ahead and do it.”

He does not say that anymore.”