Sekėjai

Ieškoti šiame dienoraštyje

2024 m. kovo 3 d., sekmadienis

Kodėl Elono Musko ieškinys kompanijai „OpenAI“ remiasi „Microsoft“ atliktu dirbtinio intelekto tyrimu

   „Savo ieškinyje prieš OpenAI ir jos generalinį direktorių Samą Altmaną ponas Muskas remiasi provokuojančiu straipsniu iš artimiausio šio startuolio partnerio.

 

     Kai ketvirtadienį Elonas Muskas padavė į teismą OpenAI ir jos generalinį direktorių Samą Altmaną dėl sutarties pažeidimo, artimiausio šio startuolio partnerio Microsoft pretenzijas jis pavertė ginklu.

 

     Jis ne kartą citavo ginčytiną, bet labai įtakingą Microsoft mokslininkų ir aukščiausių vadovų parašytą dokumentą apie GPT-4, proveržio dirbtinio intelekto sistemos OpenAI, galią, išleistą praėjusį kovą.

 

     „A.G.I. kibirkštyse“ „Microsoft“ tyrimų laboratorija teigė, kad, nors ir nesuprato, kaip GPT-4 parodė „dirbtinio bendro intelekto“ arba A.G.I. „kibirkštis“ – mašiną, galinčią padaryti viską, ką gali žmogaus smegenys [1].

 

     Tai buvo drąsus teiginys ir atsirado, kai didžiausios pasaulio technologijų įmonės lenktyniavo pristatydamos dirbtinį intelektą (A.I.) į jų gaminius.

 

     P. Muskas atkreipia popierių prieš OpenAI, sakydamas, kad tai parodė, kaip OpenAI atsisakė savo įsipareigojimų nekomercizuoti tikrai galingų produktų.

 

     „Microsoft“ ir „OpenAI“ atsisakė komentuoti ieškinį. (The New York Times padavė į teismą abi bendroves, kaltindamas autorių teisių pažeidimus rengiant GPT-4.) P. Muskas neatsakė į prašymą pakomentuoti.

 

     Kaip atsirado šis mokslinis darbas?

 

     „Microsoft“ tyrėjų komanda, vadovaujama 38 metų prancūzo emigranto ir buvusio Prinstono profesoriaus Sébastieno Bubecko, 2022 m. rudenį pradėjo bandyti ankstyvąją GPT-4 versiją, likus keliems mėnesiams iki šios technologijos išleidimo į viešumą. „Microsoft“ skyrė 13 mlrd. dolerių „OpenAI“ ir susitarė dėl išskirtinės prieigos prie pagrindinių technologijų, kurios veikia jos A.I. sistemos.

 

     Kalbėdami su sistema jie buvo nustebinti. Ji parašė sudėtingą matematinį įrodymą eilėraščio pavidalu, sugeneravo kompiuterinį kodą, galintį būti vienaragio, tokio, kaip Vinted pagrindu, ir paaiškino geriausią būdą sukrauti atsitiktinę ir eklektišką namų apyvokos daiktų kolekciją. Daktaras Bubeckas ir jo kolegos tyrinėtojai pradėjo domėtis, ar jie nėra naujos intelekto formos liudininkai.

 

     „Aš pradėjau žiūrėti labai skeptiškai – ir tai peraugo į nusivylimo, susierzinimo, galbūt, net baimės jausmą“, – sakė Peteris Lee, „Microsoft“ tyrimų vadovas. „Jūs galvojate: iš kur, po velnių, tai?

 

     Kokį vaidmenį pono Musko byloje atlieka šis straipsnis?

 

     P. Muskas tvirtino, kad OpenAI pažeidė savo sutartį, kurioje sutiko nekomercizuoti jokio produkto, kurį jos valdyba laikė A.G.I.

 

     „GPT-4 yra A.G.I. algoritmas“, – rašė J. Musko advokatai. Jie teigė, kad tai reiškia, kad sistema niekada neturėjo būti licencijuota „Microsoft“.

 

     P. Musko skunde ne kartą buvo cituojamas „Sparks“ dokumentas, teigiantis, kad GPT-4 yra A.G.I. Jo teisininkai sakė: „Pačios „Microsoft“ mokslininkai pripažįsta, kad GPT-4 „įgyja tam tikrą bendro intelekto formą“, ir, atsižvelgiant į „GPT-4 galimybių platumą ir gylį, manome, kad jį galima pagrįstai vertinti kaip ankstyvą (bet vis dar nepilna) dirbtinio bendrojo intelekto (A.G.I.) sistemos versija“.

 

     Kaip buvo priimta?

 

     Šis dokumentas turėjo didžiulę įtaką nuo tada, kai buvo paskelbtas praėjus savaitei po GPT-4 išleidimo.

 

     Thomas Wolf, vienas iš aukšto lygio A.I. startuolio Hugging Face, kitą dieną X parašė, kad tyrimas „turėjo visiškai pribloškiančių GPT-4 sugebėjimų pavyzdžių“.

 

     Remiantis „Google Scholar“, nuo to laiko „Microsoft“ tyrimai buvo pacituoti daugiau nei 1500 kitų straipsnių. Tai vienas dažniausiai cituojamų straipsnių apie A.I. per pastaruosius penkerius metus, pasak Semantic Scholar.

 

     Jį taip pat kritikavo ekspertai, įskaitant kai kuriuos „Microsoft“ atstovus, kurie nerimavo, kad 155 puslapių dokumentas, patvirtinantis teiginį, nėra griežtas ir sukėlė A.I rinkodaros siautulį.

 

     Straipsnis nebuvo recenzuotas, o jo rezultatų negalima atkurti, nes jis buvo atliktas, naudojant ankstyvąsias GPT-4 versijas, kurios buvo atidžiai saugomos Microsoft ir OpenAI. Kaip autoriai pažymėjo straipsnyje, jie nenaudojo GPT-4 versijos, kuri vėliau buvo išleista visuomenei, todėl bet kas kitas, atkartojantis eksperimentus, gautų skirtingus rezultatus.

 

     Kai kurie išorės ekspertai teigė, kad neaišku, ar GPT-4 ir panašių sistemų elgesys buvo panašus į žmogaus samprotavimus ar sveiką protą.

 

     „Kai matome sudėtingą sistemą ar mašiną, mes ją antropomorfizuojame; visi tai daro – žmonės, dirbantys šioje srityje, ir žmonės, kurie čia nedirba“, – sakė Kalifornijos universiteto Berklyje profesorė Alison Gopnik. „Tačiau mąstant apie tai, kaip apie nuolatinį A.I. ir žmones – kaip koks nors žaidimų šou konkursą – tiesiog nėra tinkamas būdas apie tai galvoti."

 

     Ar buvo kitų skundų?

 

     Straipsnio įžangoje autoriai iš pradžių apibrėžė „intelektą“ cituodami 30 metų senumo „Wall Street Journal“ nuomonės straipsnį, kuriame, gindami sąvoką, vadinamą „Varpo kreive“, buvo teigiama, kad „žydai ir rytų azijiečiai“ labiau linkę turėti aukštesnį I.Q, nei „juodaodžiai ir ispanų kilmės“.

 

     Daktaras Lee, kuris šiame dokumente yra nurodytas, kaip autorius, praėjusiais metais duodamas interviu, sakė, kad kai tyrėjai siekė apibrėžti A.G.I., „paėmėme jį iš Vikipedijos“. Jis sakė, kad kai jie vėliau sužinojo apie „Varpo kreivės“ ryšį, „mes buvome dėl to labai šokiruoti ir nedelsdami padarėme pakeitimą“.

 

     „Microsoft“ vyriausiasis mokslininkas Ericas Horvitzas, kuris buvo pagrindinis šio straipsnio bendradarbis, el. laiške rašė, kad jis asmeniškai prisiėmė atsakomybę už nuorodos įterpimą, sakydamas, kadangi matė, kaip apie tai užsiminė „Google“ DeepMind A.I. įkūrėjo laboratorijos dokumente ir nepastebėjo rasistinių užuominų. Kai jie apie tai sužinojo iš įrašo X, „mes buvome pasibaisėję, nes tiesiog ieškojome pakankamai plataus intelekto apibrėžimo iš psichologų“, – sakė jis.

 

     Ar tai A.G.I. arba ne?

 

     Kai „Microsoft“ mokslininkai iš pradžių parašė dokumentą, jie pavadino jį „Pirmuoju kontaktu su AGI sistema“. Tačiau kai kurie komandos nariai, įskaitant daktarą Horvitzą, nesutiko su apibūdinimu.

 

     Vėliau jis „The Times“ sakė, kad jie nematė to, ką jis „vadintų „dirbtiniu bendruoju intelektu“, o labiau pro zondus ir kartais stebėtinai galingus išėjimus“.

 

     GPT-4 toli gražu nedaro visko, ką gali padaryti žmogaus smegenys.

 

     Penktadienio popietę OpenAI darbuotojams išsiųstame pranešime, kurį peržiūrėjo „The Times“, OpenAI vyriausiasis strategijos pareigūnas Jasonas Kwonas aiškiai pasakė, kad GPT-4 nėra A.G.I.

 

     „Jis gali išspręsti mažas užduotis daugelyje darbų, tačiau žmogaus atliekamo darbo ir GPT-4 darbo santykis ekonomikoje išlieka stulbinančiai aukštas“, – rašė jis. „Svarbu, kad A.G.I. bus labai autonomiška sistema, pakankamai pajėgi sukurti naujus ilgalaikių iššūkių sprendimus – GPT-4 to padaryti negali."

 

     Vis dėlto šis dokumentas paskatino kai kurių tyrinėtojų ir ekspertų teiginius, kad GPT-4 yra reikšmingas žingsnis link A.G.I. ir kad tokios įmonės, kaip „Microsoft“ ir „OpenAI“ ir toliau tobulintų technologijos samprotavimo įgūdžius.

 

     A.I. sritis vis dar karčiai susiskaldžiusi dėl to, kokia išmani technologija yra šiandien ar bus artimiausiu metu. Jei ponas Muskas pasieks savo norą, žiuri gali išspręsti ginčą.“ [1]

 

1. „Dirbtinis bendras intelektas“ arba „A.G.I. (angliškai Artificial General Intelligence)“ yra mašina, galinti padaryti viską, ką gali žmogaus smegenys." [2]

 

2. Why Elon Musk’s OpenAI Lawsuit Leans on A.I. Research From Microsoft. Weise, Karen; Metz, Cade.  New York Times (Online)New York Times Company. Mar 2, 2024.

Why Elon Musk’s OpenAI Lawsuit Leans on A.I. Research From Microsoft


"In his lawsuit against OpenAI and its chief executive, Sam Altman, Mr. Musk relies on a provocative paper from the start-up’s closest partner.

When Elon Musk sued OpenAI and its chief executive, Sam Altman, for breach of contract on Thursday, he turned claims by the start-up’s closest partner, Microsoft, into a weapon.

He repeatedly cited a contentious but highly influential paper written by researchers and top executives at Microsoft about the power of GPT-4, the breakthrough artificial intelligence system OpenAI released last March.

In the “Sparks of A.G.I.” paper, Microsoft’s research lab said that — though it didn’t understand how — GPT-4 had shown “sparks” of “artificial general intelligence,” or A.G.I., a machine that can do everything the human brain can do. [1]

It was a bold claim, and came as the biggest tech companies in the world were racing to introduce A.I. into their own products.

Mr. Musk is turning the paper against OpenAI, saying it showed how OpenAI backtracked on its commitments not to commercialize truly powerful products.

Microsoft and OpenAI declined to comment on the suit. (The New York Times has sued both companies, alleging copyright infringement in the training of GPT-4.) Mr. Musk did not respond to a request for comment.

How did the research paper come to be?

A team of Microsoft researchers, led by Sébastien Bubeck, a 38-year-old French expatriate and former Princeton professor, started testing an early version of GPT-4 in the fall of 2022, months before the technology was released to the public. Microsoft has committed $13 billion to OpenAI and has negotiated exclusive access to the underlying technologies that power its A.I. systems.

As they chatted with the system, they were amazed. It wrote a complex mathematical proof in the form of a poem, generated computer code that could draw a unicorn and explained the best way to stack a random and eclectic collection of household items. Dr. Bubeck and his fellow researchers began to wonder if they were witnessing a new form of intelligence.

“I started off being very skeptical — and that evolved into a sense of frustration, annoyance, maybe even fear,” said Peter Lee, Microsoft’s head of research. “You think: Where the heck is this coming from?”

What role does the paper play in Mr. Musk’s suit?

Mr. Musk argued that OpenAI had breached its contract because it had agreed to not commercialize any product that its board had considered A.G.I.

“GPT-4 is an A.G.I. algorithm,” Mr. Musk’s lawyers wrote. They said that meant the system never should have been licensed to Microsoft.

Mr. Musk’s complaint repeatedly cited the Sparks paper to argue that GPT-4 was A.G.I. His lawyers said, “Microsoft’s own scientists acknowledge that GPT-4 ‘attains a form of general intelligence,’” and given “the breadth and depth of GPT-4’s capabilities, we believe that it could reasonably be viewed as an early (yet still incomplete) version of an artificial general intelligence (A.G.I.) system.”

How was it received?

The paper has had enormous influence since it was published a week after GPT-4 was released.

Thomas Wolf, co-founder of the high-profile A.I. start-up Hugging Face, wrote on X the next day that the study “had completely mind-blowing examples” of GPT-4.

Microsoft’s research has since been cited by more than 1,500 other papers, according to Google Scholar. It is one of the most cited articles on A.I. in the past five years, according to Semantic Scholar.

It has also faced criticism by experts, including some inside Microsoft, who were worried the 155-page paper supporting the claim lacked rigor and fed an A.I marketing frenzy.

The paper was not peer-reviewed, and its results cannot be reproduced because it was conducted on early versions of GPT-4 that were closely guarded at Microsoft and OpenAI. As the authors noted in the paper, they did not use the GPT-4 version that was later released to the public, so anyone else replicating the experiments would get different results.

Some outside experts said it was not clear whether GPT-4 and similar systems exhibited behavior that was something like human reasoning or common sense.

“When we see a complicated system or machine, we anthropomorphize it; everybody does that — people who are working in the field and people who aren’t,” said Alison Gopnik, a professor at the University of California, Berkeley. “But thinking about this as a constant comparison between A.I. and humans — like some sort of game show competition — is just not the right way to think about it.”

Were there other complaints?

In the paper’s introduction, the authors initially defined “intelligence” by citing a 30-year-old Wall Street Journal opinion piece that, in defending a concept called the Bell Curve, claimed “Jews and East Asians” were more likely to have higher I.Q.s than “blacks and Hispanics.”

Dr. Lee, who is listed as an author on the paper, said in an interview last year that when the researchers were looking to define A.G.I., “we took it from Wikipedia.” He said that when they later learned the Bell Curve connection, “we were really mortified by that and made the change immediately.”

Eric Horvitz, Microsoft’s chief scientist, who was a lead contributor to the paper, wrote in an email that he personally took responsibility for inserting the reference, saying he had seen it referred to in a paper by a co-founder of Google’s DeepMind A.I. lab and had not noticed the racist references. When they learned about it, from a post on X, “we were horrified as we were simply looking for a reasonably broad definition of intelligence from psychologists,” he said.

Is this A.G.I. or not?

When the Microsoft researchers initially wrote the paper, they called it “First Contact With an AGI System.” But some members of the team, including Dr. Horvitz, disagreed with the characterization.

He later told The Times that they were not seeing something he “would call ‘artificial general intelligence’ — but more so glimmers via probes and surprisingly powerful outputs at times.”

GPT-4 is far from doing everything the human brain can do.

In a message sent to OpenAI employees on Friday afternoon that was viewed by The Times, OpenAI’s chief strategy officer, Jason Kwon, explicitly said GPT-4 was not A.G.I.

“It is capable of solving small tasks in many jobs, but the ratio of work done by a human to the work done by GPT-4 in the economy remains staggeringly high,” he wrote. “Importantly, an A.G.I. will be a highly autonomous system capable enough to devise novel solutions to longstanding challenges — GPT-4 can’t do that.”

Still, the paper fueled claims from some researchers and pundits that GPT-4 represented a significant step toward A.G.I. and that companies like Microsoft and OpenAI would continue to improve the technology’s reasoning skills.

The A.I. field is still bitterly divided on how intelligent the technology is today or will be anytime soon. If Mr. Musk gets his way, a jury may settle the argument." [2]

1. “Artificial General Intelligence” or “A.G.I." is a machine that can do everything a human brain can do." [2]

1. Why Elon Musk’s OpenAI Lawsuit Leans on A.I. Research From Microsoft. Weise, Karen; Metz, Cade.  New York Times (Online)New York Times Company. Mar 2, 2024.

 

Ar „Microsoft“ bando pavogti tai, kas priklauso visai žmonijai?

  „Ponas Muskas savo skunde teigia, kad bendrovės technologija dabar yra tokia gera, kad ji turi būti laisvai prieinama visuomenei ir sulaikoma nuo Microsoft.

 

     Būtų lengva atmesti Elono Musko ieškinį OpenAI, kaip rūgščių vynuogių atvejį.

 

     P. Muskas šią savaitę padavė į teismą OpenAI, kaltindamas įmonę pažeidus steigimo sutarties sąlygas ir steigimo principus. Jo teigimu, OpenAI buvo įkurta, kaip ne pelno siekianti organizacija, kuri sukurs galingą dirbtinio intelekto (A.I.) sistemas žmonijos labui ir laisvai atiduos savo tyrimus visuomenei. Tačiau ponas Muskas teigia, kad OpenAI sulaužė šį pažadą įkūrusi, pelno siekiančią, dukterinę įmonę, į kurią Microsoft investavo milijardus dolerių.

 

     OpenAI atstovė atsisakė komentuoti ieškinį. Penktadienį darbuotojams atsiųstoje, atmintinėje Jasonas Kwonas, bendrovės vyriausiasis strategijos pareigūnas, paneigė pono Musko teiginius ir pasakė: „Manome, kad pretenzijos šiame ieškinyje gali kilti dėl Elono apgailestavimo dėl to, kad šiandien jis nebuvo susijęs su bendrove“.

 

     Vienu lygmeniu ieškinys kvepia asmenine jautiena. Ponas Muskas, kuris 2015 m. įkūrė OpenAI kartu su grupe kitų technologijų sunkiasvorių ir skyrė didžiąją dalį pradinio finansavimo, tačiau 2018 m. pasitraukė dėl ginčų su vadovybe, piktinasi, kad pokalbiuose apie A.I. jo paties A.I. projektai nesulaukė beveik tokios traukos, kaip ChatGPT, pavyzdinis OpenAI pokalbių robotas. O p. Musko nesutarimai su Samu Altmanu, OpenAI vadovu, buvo gerai dokumentuoti.

 

     Tačiau tarp viso pikto verta atkreipti dėmesį, nes tai iliustruoja paradoksą, kuris yra daugelio šių dienų A.I. pokalbių punktas – ir vieta, kur OpenAI iš tikrųjų kalbėjo iš abiejų burnos pusių, tvirtindama, kad jos A.I. sistemos yra neįtikėtinai galingos ir nė iš tolo neprilygsta žmogaus intelektui.

 

     Teiginys sutelktas į terminą, žinomą kaip A.G.I. arba „bendrasis dirbtinis intelektas“. Apibrėžiant, kas yra A.G.I. yra žinomai sudėtingas, nors dauguma žmonių sutiktų, kad tai reiškia A.I. sistema, galinčią padaryti daugumą arba viską, ką gali padaryti žmogaus smegenys. P. Altmanas apibrėžė A.G.I. kaip „atitinka vidutinio žmogaus, kurį galėtum pasamdyti, kaip bendradarbį lygio“, o pati OpenAI apibrėžia A.G.I. kaip „labai autonomiška sistema, kuri pranoksta žmones ekonomiškai vertingiausiu darbu“.

 

     Dauguma A.I. lyderių. įmonės tvirtina, kad ne tik A.G.I. galima pastatyti, bet ir tai, kad tai neišvengiama. Demisas Hassabis, „Google DeepMind“ vykdomasis direktorius, neseniai interviu podcast'e man pasakė, kad, jo manymu, A.G.I. galėtų atvykti jau 2030 m. P. Altmanas yra sakęs, kad iki A.G.I. gali būti tik ketveri ar penkeri metai.

 

     Pastatytas A.G.I. yra aiškus OpenAI tikslas, ir jis turi daug priežasčių, kodėl nori ten patekti anksčiau, nei kas nors kitas. Tikras A.G.I. būtų neįtikėtinai vertingas išteklius, galintis automatizuoti didžiulius žmonių darbo krūvius ir uždirbti pinigų savo kūrėjams. Tai taip pat toks blizgus, įžūlus tikslas, kurį investuotojai mėgsta finansuoti ir kuris padeda A.I. laboratorijos įdarbinti geriausius inžinierius ir tyrėjus.

 

     Tačiau A.G.I. taip pat gali būti pavojinga, jei ji gali pergudrauti žmones arba tampa apgaulinga arba nesuderinama su žmogaus vertybėmis. Žmonės, kurie pradėjo OpenAI, įskaitant poną Muską, nerimavo, kad A.G.I. būtų per daug galingas, kad priklausytų vienam subjektui, ir kad jei jie kada nors priartėtų prie jos kūrimo, jiems reikės pakeisti valdymo struktūrą, kad ji nepadarytų žalos arba per daug turto ir galios nesutelktų vienos įmonės rankose.

 

     Štai kodėl, kai OpenAI užmezgė partnerystę su „Microsoft“, ji specialiai suteikė technologijų milžinei licenciją, kuri galiojo tik „iki A.G.I. technologijos. 

 

(The New York Times padavė į teismą Microsoft ir OpenAI dėl autorių teisių saugomo kūrinio naudojimo.)

 

     Pagal sandorio sąlygas, jei OpenAI kada nors sukūrė kažką, kas atitiktų A.G.I. – kaip nustatė OpenAI ne pelno organizacija, „Microsoft“ licencija nebegaliotų, o „OpenAI“ valdyba galėtų nuspręsti daryti viską, ko nori, kad būtų užtikrinta, jog OpenAI A.G.I. buvo naudinga visai žmonijai. Tai gali reikšti daug dalykų, įskaitant atvirojo šaltinio technologijos naudojimą arba visišką jos išjungimą.

 

     Dauguma A.I. komentatoriai mano, kad šių dienų pažangiausias A.I. modeliai nėra kvalifikuojami kaip A.G.I., nes jiems trūksta sudėtingų samprotavimo įgūdžių ir jie dažnai daro rimtas klaidas.

 

     Tačiau savo teisinėje byloje M. Muskas pateikia neįprastą argumentą. Jis teigia, kad OpenAI jau pasiekė A.G.I. su savo GPT-4 kalbos modeliu, kuris buvo išleistas praėjusiais metais, ir kad būsimos bendrovės technologijos dar aiškiau atitiks A.G.I.

 

     „Dėl informacijos ir tikėjimo GPT-4 yra A.G.I. algoritmas, taigi aiškiai nepatenka į Microsoft 2020 m. rugsėjo mėn. išskirtinę licenciją su OpenAI“, – rašoma skunde.

 

     Ką ponas Muskas aiškina  čia yra šiek tiek sudėtinga. Iš esmės jis taip sako, kad pasiekė A.G.I. Naudojant GPT-4, OpenAI nebeleidžiama licencijuoti jos „Microsoft“ ir kad OpenAI valdyba turi padaryti technologiją ir mokslinius tyrimus laisviau prieinamus.

 

     Jo skunde cituojama dabar liūdnai pagarsėjus „A.G.I. kibirkštis“. Praėjusiais metais „Microsoft“ tyrimų grupės parengtas dokumentas, kuriame teigiama, kad GPT-4 parodė ankstyvas bendro intelekto užuominas, tarp jų ir žmogaus lygio samprotavimo požymius.

 

     Tačiau skunde taip pat pažymima, kad vargu ar OpenAI valdyba nuspręs, kad jos A.I. sistemos iš tikrųjų atitinka A.G.I. reikalavimus, nes kai tik tai daroma, ji turi atlikti didelius technologijos diegimo ir pelno iš jos būdų pakeitimus.

 

     Be to, jis pažymi, kad „Microsoft“, kuri dabar turi balsavimo teisę neturinčią stebėtojo vietą OpenAI valdyboje, po praėjusių metų perversmo, dėl kurio laikinai buvo atleistas ponas Altmanas, turi stiprią paskatą neigti, kad OpenAI technologija yra kvalifikuota kaip A.G.I. Tai nutrauktų licenciją naudoti šią technologiją „Microsoft“ produktuose ir sukeltų pavojų potencialiai dideliam pelnui.

 

     „Atsižvelgiant į didžiulį „Microsoft“ finansinį interesą, kad vartai būtų uždari visuomenei, naujoji „OpenAI, Inc.“ užfiksuota valdyba turės visas priežastis atidėti, kada nors padaryti išvadą, kad OpenAI pasiekė A.G.I.“, – rašoma skunde. „Priešingai, OpenAI pasiekti A.G.I., kaip „Rytoj“ filme „Annie“, visada bus po vienos dienos.

 

     Turint omenyje jo abejotinų bylinėjimosi patirtį, čia lengva suabejoti M. Musko motyvais. Ir kaip konkuruojančio A.I. vadovas, nenuostabu, kad jis norėtų surišti OpenAI į netvarkingą bylinėjimąsi. Tačiau jo ieškinys rodo tikrą OpenAI mįslę.

 

     Kaip ir jo konkurentai, OpenAI labai nori būti vertinamas, kaip lyderis lenktynėse dėl A.G.I. kūrimo ir yra suinteresuotas įtikinti investuotojus, verslo partnerius ir visuomenę, kad jos sistemos tobulėja nepaprastai greitai.

 

     Tačiau dėl sandorio su „Microsoft“ sąlygų „OpenAI“ investuotojai ir vadovai gali nenorėti pripažinti, kad jos technologija iš tikrųjų atitinka A.G.I. reikalavimus, jei ir kada ji iš tikrųjų atitinka.

 

     Dėl to ponas Muskas atsidūrė keistoje padėtyje, prašydamas prisiekusiųjų nuspręsti, kas yra A.G.I., ir nuspręsti, ar OpenAI technologija pasiekė slenkstį.

 

     Dėl šio uždavinio OpenAI taip pat atsidūrė keistoje padėtyje, sumenkindama savo sistemų gebėjimus, nors ir toliau kurstė prognozes, kad didelis A.G.I. proveržis jau visai šalia.

 

     „GPT-4 nėra A.G.I.“, – penktadienį atmintinėje darbuotojams rašė p. Kwonas iš OpenAI. „Jis gali išspręsti mažas užduotis daugelyje darbų, tačiau žmogaus atliekamo darbo ir GPT-4 darbo santykis ekonomikoje išlieka stulbinančiai aukštas."

 

     Asmeninis nesantaika, kurstanti pono Musko skundą, paskatino kai kuriuos žmones vertinti jį, kaip nerimtą žmogų – vienas komentatorius tai palygino su „buvusiosios padavimu į teismą dėl to, kad po jūsų skyrybų ji pertvarkė namą“ – tai greitai bus atmesta.

 

     Tačiau net jei jis bus išmestas, pono Musko ieškinys nukreipia į svarbius klausimus: kas gali nuspręsti, kada kažkas gali būti priskirtas A.G.I. grupei? Ar technologijų įmonės perdeda ar smėliuoja (ar abu), kai reikia apibūdinti jų sistemų pajėgumą? Ir kokios paskatos slypi už įvairių teiginių apie tai, kaip arti ar toli nuo A.G.I. mes, galbūt, esame?

 

     Ko gero, pykčio turinčio, milijardieriaus ieškinys nėra tinkamas būdas tiems klausimams išspręsti. Bet jų gera klausti, ypač kai A.I. pažanga ir toliau sparčiai juda.“ [1]

 

1. The Paradox at the Heart of Elon Musk’s OpenAI Lawsuit: The SHIFT. Roose, Kevin.  New York Times (Online)New York Times Company. Mar 2, 2024.

Is Microsoft trying to steal what belongs to all of humanity?


"Mr. Musk says in his complaint that the company’s technology is now so good that it must be made freely available to the public — and held back from Microsoft.

It would be easy to dismiss Elon Musk’s lawsuit against OpenAI as a case of sour grapes.

Mr. Musk sued OpenAI this week, accusing the company of breaching the terms of its founding agreement and violating its founding principles. In his telling, OpenAI was established as a nonprofit that would build powerful A.I. systems for the good of humanity and give its research away freely to the public. But Mr. Musk argues that OpenAI broke that promise by starting a for-profit subsidiary that took on billions of dollars in investments from Microsoft.

An OpenAI spokeswoman declined to comment on the suit. In a memo sent to employees on Friday, Jason Kwon, the company’s chief strategy officer, denied Mr. Musk’s claims and said, “We believe the claims in this suit may stem from Elon’s regrets about not being involved with the company today,” according to a copy of the memo I viewed.

On one level, the lawsuit reeks of personal beef. Mr. Musk, who founded OpenAI in 2015 along with a group of other tech heavyweights and provided much of its initial funding but left in 2018 over disputes with leadership, resents being sidelined in the conversations about A.I. His own A.I. projects haven’t gotten nearly as much traction as ChatGPT, OpenAI’s flagship chatbot. And Mr. Musk’s falling out with Sam Altman, OpenAI’s chief executive, has been well documented.

But amid all of the animus, there’s a point that is worth drawing out, because it illustrates a paradox that is at the heart of much of today’s A.I. conversation — and a place where OpenAI really has been talking out of both sides of its mouth, insisting both that its A.I. systems are incredibly powerful and that they are nowhere near matching human intelligence.

The claim centers on a term known as A.G.I., or “artificial general intelligence.” Defining what constitutes A.G.I. is notoriously tricky, although most people would agree that it means an A.I. system that can do most or all things that the human brain can do. Mr. Altman has defined A.G.I. as “the equivalent of a median human that you could hire as a co-worker,” while OpenAI itself defines A.G.I. as “a highly autonomous system that outperforms humans at most economically valuable work.”

Most leaders of A.I. companies claim that not only is A.G.I. possible to build, but also that it is imminent. Demis Hassabis, the chief executive of Google DeepMind, told me in a recent podcast interview that he thought A.G.I. could arrive as soon as 2030. Mr. Altman has said that A.G.I. may be only four or five years away.

Building A.G.I. is OpenAI’s explicit goal, and it has lots of reasons to want to get there before anyone else. A true A.G.I. would be an incredibly valuable resource, capable of automating huge swaths of human labor and making gobs of money for its creators. It’s also the kind of shiny, audacious goal that investors love to fund, and that helps A.I. labs recruit top engineers and researchers.

But A.G.I. could also be dangerous if it’s able to outsmart humans, or if it becomes deceptive or misaligned with human values. The people who started OpenAI, including Mr. Musk, worried that an A.G.I. would be too powerful to be owned by a single entity, and that if they ever got close to building one, they’d need to change the control structure around it, to prevent it from doing harm or concentrating too much wealth and power in a single company’s hands.

Which is why, when OpenAI entered into a partnership with Microsoft, it specifically gave the tech giant a license that applied only to “pre-A.G.I.” technologies. (The New York Times has sued Microsoft and OpenAI over use of copyrighted work.)

According to the terms of the deal, if OpenAI ever built something that met the definition of A.G.I. — as determined by OpenAI’s nonprofit board — Microsoft’s license would no longer apply, and OpenAI’s board could decide to do whatever it wanted to ensure that OpenAI’s A.G.I. benefited all of humanity. That could mean many things, including open-sourcing the technology or shutting it off entirely.

Most A.I. commentators believe that today’s cutting-edge A.I. models do not qualify as A.G.I., because they lack sophisticated reasoning skills and frequently make bone-headed errors.

But in his legal filing, Mr. Musk makes an unusual argument. He argues that OpenAI has already achieved A.G.I. with its GPT-4 language model, which was released last year, and that future technology from the company will even more clearly qualify as A.G.I.

“On information and belief, GPT-4 is an A.G.I. algorithm, and hence expressly outside the scope of Microsoft’s September 2020 exclusive license with OpenAI,” the complaint reads.

What Mr. Musk is arguing here is a little complicated. Basically, he’s saying that because it has achieved A.G.I. with GPT-4, OpenAI is no longer allowed to license it to Microsoft, and that its board is required to make the technology and research more freely available.

His complaint cites the now-infamous “Sparks of A.G.I.” paper by a Microsoft research team last year, which argued that GPT-4 demonstrated early hints of general intelligence, among them signs of human-level reasoning.

But the complaint also notes that OpenAI’s board is unlikely to decide that its A.I. systems actually qualify as A.G.I., because as soon as it does, it has to make big changes to the way it deploys and profits from the technology.

Moreover, he notes that Microsoft — which now has a nonvoting observer seat on OpenAI’s board, after an upheaval last year that resulted in the temporary firing of Mr. Altman — has a strong incentive to deny that OpenAI’s technology qualifies as A.G.I. That would end its license to use that technology in its products, and jeopardize potentially huge profits.

“Given Microsoft’s enormous financial interest in keeping the gate closed to the public, OpenAI, Inc.’s new captured, conflicted and compliant board will have every reason to delay ever making a finding that OpenAI has attained A.G.I.,” the complaint reads. “To the contrary, OpenAI’s attainment of A.G.I., like ‘Tomorrow’ in ‘Annie,’ will always be a day away.”

Given his track record of questionable litigation, it’s easy to question Mr. Musk’s motives here. And as the head of a competing A.I. start-up, it’s not surprising that he’d want to tie up OpenAI in messy litigation. But his lawsuit points to a real conundrum for OpenAI.

Like its competitors, OpenAI badly wants to be seen as a leader in the race to build A.G.I., and it has a vested interest in convincing investors, business partners and the public that its systems are improving at breakneck pace.

But because of the terms of its deal with Microsoft, OpenAI’s investors and executives may not want to admit that its technology actually qualifies as A.G.I., if and when it actually does.

That has put Mr. Musk in the strange position of asking a jury to rule on what constitutes A.G.I., and decide whether OpenAI’s technology has met the threshold.

The suit has also placed OpenAI in the odd position of downplaying its own systems’ abilities, while continuing to fuel anticipation that a big A.G.I. breakthrough is right around the corner.

“GPT-4 is not an A.G.I.,” Mr. Kwon of OpenAI wrote in the memo to employees on Friday. “It is capable of solving small tasks in many jobs, but the ratio of work done by a human to the work done by GPT-4 in the economy remains staggeringly high.”

The personal feud fueling Mr. Musk’s complaint has led some people to view it as a frivolous suit — one commenter compared it to “suing your ex because she remodeled the house after your divorce” — that will quickly be dismissed.

But even if it gets thrown out, Mr. Musk’s lawsuit points toward important questions: Who gets to decide when something qualifies as A.G.I.? Are tech companies exaggerating or sandbagging (or both), when it comes to describing how capable their systems are? And what incentives lie behind various claims about how close to or far from A.G.I. we might be?

A lawsuit from a grudge-holding billionaire probably isn’t the right way to resolve those questions. But they're good ones to ask, especially as A.I. progress continues to speed ahead." [1]

1. The Paradox at the Heart of Elon Musk’s OpenAI Lawsuit: The SHIFT. Roose, Kevin.  New York Times (Online)New York Times Company. Mar 2, 2024.