Sekėjai

Ieškoti šiame dienoraštyje

2023 m. gegužės 18 d., ketvirtadienis

OpenAI Introduces ChatGPT App for the iPhone

"OpenAI is aiming to build on the popularity of its chatbot with a smartphone app that responds to voice prompts.

Since ChatGPT debuted in November, hundreds of millions of people have experimented with the online chatbot, which can answer questions, write poetry, draft emails and riff on almost any topic from inside a web browser.

On Thursday, OpenAI, the San Francisco artificial intelligence lab behind ChatGPT, unveiled a new version of the chatbot for the iPhone, hoping to build on its enormous popularity.

Unlike the browser-based version of ChatGPT, the smartphone app responds to voice commands, operating a bit like Apple’s Siri digital assistant or Amazon’s Alexa. The app does not answer with voice, but generates responses in text.

In a blog post, OpenAI said the app was part of its effort to transform its A.I. research into “useful tools that empower people, while continuously making them more accessible.” It declined to comment further.

In offering its flagship technology to billions of iPhone users, OpenAI is solidifying its position among the giants of the tech industry.

ChatGPT is the most prominent example of what is called generative A.I., technology that can generate text, images and other media based on short prompts.

Google, Microsoft and various start-ups have released similar bots and have begun to roll such technology into a wide range of online services.

The result of more than a decade of research at companies like Google and OpenAI, these chatbots are poised to remake everything from internet search engines like Google Search and Bing to email programs like Gmail and Outlook.

They can generate digital text that can be used in almost any context, including for students to write term papers and businesspeople to create email messages and other marketing materials.

The technology is not perfect. Because these chatbots learn by analyzing vast amounts of digital text culled from across the internet, they cannot distinguish between fact and fiction. And the computer code they generate is often flawed.

Today, the technology tends to complement human workers rather than replace their skills outright.

OpenAI is not the first to introduce technology that lets people use ChatGPT with voice; some small companies and independent developers have already done so.

Microsoft also offers a version of its Bing chatbot that responds to voice commands.

The new iPhone app is free. Subscribers of ChatGPT Plus — available for $20 a month — can use a more powerful version of the chatbot based on a technology called GPT-4.

OpenAI began rolling out the app in the United States on Thursday and will expand into other countries in the coming weeks. A version of the app for Android phones is also in the works.”


 

Why do we need such a government?

  "G. Landsbergis: Lithuania has a plan for the West."

 

  Lithuania has a plan for Ukraine. Lithuania has a plan for Russia. Lithuania has a plan for China.

 

Lithuania has no plan for itself.

 

Is that what we elected you to the Lithuanian government for?

 

 

 


Kam mums tokia valdžia?


"G. Landsbergis: Lietuva turi planą Vakarams."

 Lietuva turi planą Ukrainai. Lietuva turi planą Rusijai. Lietuva turi planą Kinijai. 

Lietuva neturi plano sau. 

Ar mes tam jus išrinkome į Lietuvos valdžią?

 


Mūšyje dėl dirbtinio intelekto (A.I.) Meta nusprendžia atiduoti savo karūnos brangakmenius

„Technologijų milžinas viešai išleido savo naujausią A.I. technologiją, kad žmonės galėtų kurti savo pokalbių robotus. Tokie konkurentai, kaip „Google“, teigia, kad toks požiūris gali būti pavojingas.

 

Vasario mėnesį „Meta“ padarė neįprastą žingsnį, sparčiai besivystančiame, dirbtinio intelekto pasaulyje: nusprendė atiduoti savo A.I. karūnos brangenybes.

 

Silicio slėnio milžinas, kuriam priklauso „Facebook“, „Instagram“ ir „WhatsApp“, sukūrė A.I. technologiją, vadinama LLaMA, galinti valdyti internetinius pokalbių robotus. Tačiau užuot pasilikusi technologiją sau, Meta išleido sistemos pagrindinį kompiuterio kodą į lauką.

 

Akademikai, vyriausybės mokslininkai ir kiti, kurie „Meta“ nurodė savo el. pašto adresą, galėjo atsisiųsti kodą, kai įmonė patikrins asmenį.

 

Iš esmės „Meta“ davė savo A.I. technologiją, kuri bus atviro kodo programinė įranga – kompiuterio kodas, kurį galima laisvai kopijuoti, modifikuoti ir pakartotinai panaudoti – suteikdama pašaliniams asmenims viską, ko reikia, norint greitai sukurti savo pokalbių robotus.

 

„Platforma, kuri laimės, bus atvira“, – sakė Yann LeCun, „Meta“ vadovas A.I. mokslui, sakė interviu.

 

Kaip lenktynės vadovauti A.I. įkaista visame Silicio slėnyje, Meta išsiskiria iš savo konkurentų kitokiu požiūriu į technologiją. Įkūrėjo ir generalinio direktoriaus Marko Zuckerbergo vedama „Meta“ mano, kad protingiausia yra pasidalyti savo A.I. varikliais, kaip būdą skleisti savo įtaką ir, galiausiai, greičiau judėti ateities link.

 

Jos veiksmai skiriasi nuo „Google“ ir „OpenAI“ – dviejų įmonių, vadovaujančių naujoms A.I. ginklavimosi varžyboms. Susirūpinęs, kad, A.I. paremtos, tokios priemonės, kaip pokalbių robotai, bus naudojami dezinformacijai, neapykantą kurstančioms kalboms ir kitam toksiškam turiniui skleisti, šios įmonės vis labiau slepia metodus ir programinę įrangą, kuria grindžiami jų A.I. produktai.

 

„Google“, „OpenAI“ ir kiti kritikuoja „Meta“, sakydami, kad nevaržomas atvirojo kodo metodas yra pavojingas. Spartus A.I. augimas pastaraisiais mėnesiais iškėlė pavojaus varpus apie šios technologijos riziką, įskaitant tai, kaip ji gali pakenkti darbo rinkai, jei ji nebus tinkamai įdiegta. Ir per kelias dienas nuo LLaMA išleidimo sistema nutekėjo į 4chan – internetinę pranešimų lentą, žinomą melagingos ir klaidinančios informacijos skleidimu.

 

„Norime atidžiau pagalvoti apie informacijos pateikimą arba atvirojo šaltinio kodą A.I. technologijoje, sakė Zoubinas Ghahramani," sakė „Google“ tyrimų viceprezidentas, padedantis prižiūrėti A.I. "Kur tai gali sukelti netinkamą naudojimą?"

 

Kai kurie „Google“ darbuotojai taip pat svarstė, ar atvirojo šaltinio A.I. technologija gali kelti grėsmę konkurencijai. Šį mėnesį atmintinėje, kuri buvo nutekinta internetiniame leidinyje Semianalysis.com, „Google“ inžinierius perspėjo kolegas, kad dėl atvirojo kodo programinės įrangos, tokios, kaip LLaMA, atsiradimo „Google“ ir „OpenAI“ gali prarasti pirmaujančias pozicijas A.I.

 

Tačiau Meta teigė, nematanti jokios priežasties, pasilikti savo kodą sau. Didėjantis „Google“ ir „OpenAI“ slaptumas yra „didžiulė klaida“, – sakė dr. LeCunas, ir „labai blogas požiūris į tai, kas vyksta“. Jis teigia, kad vartotojai ir vyriausybės atsisakys priimti A.I. nebent to nekontroliuos tokios įmonės, kaip „Google“ ir „Meta“.

 

„Ar norite, kad kiekvieną A.I. sistemą kontroliuotų pora galingų Amerikos kompanijų?" jis paklausė.

 

OpenAI atsisakė komentuoti.

 

„Meta“ atvirojo kodo požiūris į A.I. nėra naujiena. Technologijos istorija yra nusėta atvirojo kodo ir patentuotų arba uždarų sistemų mūšių. Kai kurie kaupia svarbiausius įrankius, kurie naudojami, kuriant rytojaus skaičiavimo platformas, o kiti tuos įrankius atiduoda. Visai neseniai „Google“ sukūrė atvirą „Android“ mobiliąją operacinę sistemą, kad perimtų „Apple“ dominavimą išmaniųjų telefonų srityje.

 

Daugelis kompanijų atvirai pasidalijo savo A.I. technologijas praeityje, tyrėjų reikalavimu. Tačiau jų taktika keičiasi dėl lenktynių aplink A.I. Šis pokytis prasidėjo praėjusiais metais, kai OpenAI išleido „ChatGPT“. Laukinė pokalbių roboto sėkmė sužavėjo vartotojus ir paskatino konkurenciją A.I. srityje, o „Google“ sparčiai ėmėsi diegti daugiau A.I. į savo produktus, o „Microsoft“ į „OpenAI“ investuoja 13 mlrd. dolerių.

 

Nors „Google“, „Microsoft“ ir „OpenAI“ nuo to laiko daugiausia dėmesio skyrė A.I., Meta taip pat investavo į šią technologiją beveik dešimtmetį. Bendrovė išleido milijardus dolerių kurdama programinę ir aparatinę įrangą, reikalingą pokalbių robotams ir kitiems „generaciniams AI“, kurie patys kuria tekstą, vaizdus ir kitą laikmeną.

 

Pastaraisiais mėnesiais Meta įnirtingai dirbo užkulisiuose, kad sukurtų su savo A.I. naujų produktų. P. Zuckerbergas siekia, kad įmonė taptų A.I. vadove, ir rengia savaitinius susitikimus šia tema su savo vykdomąja komanda ir produktų lyderiais.

 

Ketvirtadienį, reikšdama savo įsipareigojimą A.I., „Meta“ pranešė sukūrusi naują kompiuterio lustą ir patobulinusi naują superkompiuterį, skirtą A.I. technologijoms. Ji taip pat kuria naują kompiuterių duomenų centrą, siekdama sukurti A.I.

 

„Mes kuriame pažangią infrastruktūrą A.I. jau daugelį metų, o šis darbas atspindi ilgalaikes pastangas, kurios leis dar labiau pažengti į priekį ir geriau panaudoti šią technologiją visame, ką darome“, – sakė p. Zuckerbergas.

 

Didžiausias Metos A.I. ėjimas - pastaraisiais mėnesiais išleido LLaMA, vadinamą dideliu kalbos modeliu, arba L.L.M. (LLaMA reiškia „Large Language Model Meta AI“.) L.L.M.s yra sistemos, kurios mokosi įgūdžių, analizuodamos didžiulį teksto kiekį, įskaitant knygas, Vikipedijos straipsnius ir pokalbių žurnalus. „ChatGPT“ ir „Google“ „Bard“ pokalbių robotas taip pat yra sukurti ant tokių sistemų.

 

L.L.M. tiksliai nustato teksto modelius, kuriuos jie analizuoja ir mokosi kurti savo tekstą, įskaitant kursinius darbus, tinklaraščio įrašus, poeziją ir kompiuterio kodą. Jie netgi gali tęsti sudėtingus pokalbius.

 

Vasario mėnesį „Meta“ atvirai išleido „LLaMA“, leisdama akademikams, vyriausybės tyrėjams ir kitiems, pateikusiems savo el. pašto adresą, atsisiųsti kodą ir naudoti jį savo pokalbių robotui kurti.

 

Tačiau įmonė nuėjo toliau, nei daugelis kitų atvirojo kodo A.I. projektų. Tai leido žmonėms atsisiųsti LLaMA versiją po to, kai šis modelis buvo išmokytas su didžiuliu skaičium skaitmeninio teksto, paimto iš interneto. Tyrėjai tai vadina „svorių atleidimu“, turėdami omenyje konkrečias matematines reikšmes, kurias sistema išmoko, analizuodama duomenis.

 

Tai buvo svarbu, nes, norint analizuoti visus šiuos duomenis, paprastai reikia šimtų specializuotų kompiuterių lustų ir dešimčių milijonų dolerių, kurių dauguma įmonių neturi. Tie, kurie turi svorius, gali greitai, lengvai ir pigiai įdiegti programinę įrangą, išleisdami dalį to, kiek kitu atveju kainuotų sukurti tokią galingą programinę įrangą.

 

Dėl to daugelis technologijų pramonės atstovų manė, kad Meta sukūrė pavojingą precedentą. 

 

Ir per kelias dienas kažkas paleido LLaMA svorius ant 4chan.

 

Stanfordo universitete mokslininkai naudojo naująją Meta technologiją, kad sukurtų savo A.I. sistemą, kuri buvo prieinama internete. Remiantis „The New York Times“ ekrano nuotraukomis, Stanfordo tyrinėtojas, vardu Moussa Doumbouya, netrukus ją panaudojo probleminiam tekstui sukurti. Vienu atveju sistema pateikė nurodymus, kaip išmesti negyvą kūną, kad niekas jo neaptiktų. Taip pat buvo sukurta rasistinė medžiaga, įskaitant Adolfo Hitlerio nuomonę palaikančius komentarus.

 

Per privatų tyrėjų pokalbį, kurį matė „The Times“, ponas Doumbouya sakė, kad šios technologijos platinimas visuomenei būtų tarsi „granata, prieinama kiekvienam bakalėjos parduotuvėje“. Į prašymą pakomentuoti jis neatsakė.

 

Stanfordas nedelsdamas pašalino A.I. sistemą iš interneto. Projektas buvo sukurtas, siekiant suteikti tyrėjams technologijas, kurios „užfiksavo pažangiausių A.I elgesį. modelių“, – sakė projektui vadovavęs Stanfordo profesorius Tatsunori Hashimoto. „Mes panaikinome demonstracinę versiją, nes vis labiau nerimavome dėl netinkamo panaudojimo potencialo ne tik tyrimų aplinkoje“.

 

Daktaras LeCunas teigia, kad tokia technologija nėra tokia pavojinga, kaip gali atrodyti. Jis teigė, kad nedidelis skaičius asmenų jau gali generuoti ir skleisti dezinformaciją ir neapykantą kurstančią kalbą. Jis pridūrė, kad toksiškos medžiagos gali būti griežtai apribotos socialinių tinklų, tokių kaip „Facebook“.

 

„Negalite užkirsti kelio žmonėms kurti nesąmonių, pavojingos informacijos ar dar ko nors kito“, – sakė jis. "Bet jūs galite sustabdyti jo platinimą."

 

„Meta“ atveju daugiau žmonių, naudojančių atvirojo kodo programinę įrangą, taip pat gali sudaryti vienodas sąlygas, nes ji konkuruoja su „OpenAI“, „Microsoft“ ir „Google“. Jei kiekvienas programinės įrangos kūrėjas pasaulyje sukurs programas naudodamas Meta įrankius, tai galėtų padėti įmonei įsitvirtinti, kylant kitai naujovių bangai ir išvengti galimo nereikšmingumo.

 

Daktaras LeCunas taip pat atkreipė dėmesį į naujausią istoriją, kad paaiškintų, kodėl Meta įsipareigojo naudoti atviro šaltinio A.I. technologiją. Jis sakė, kad vartotojų interneto raida buvo atvirų, bendruomeninių standartų, padėjusių sukurti greičiausią, plačiausiai paplitusį, žinių mainų tinklą, kokį tik kada nors matė pasaulis, rezultatas.

 

„Pažanga greitesnė, kai ji atvira“, – sakė jis. „Jūs turite gyvybingesnę ekosistemą, kurioje kiekvienas gali prisidėti.""

 


In Battle Over A.I., Meta Decides to Give Away Its Crown Jewels

“The tech giant has publicly released its latest A.I. technology so people can build their own chatbots. Rivals like Google say that approach can be dangerous.

In February, Meta made an unusual move in the rapidly evolving world of artificial intelligence: It decided to give away its A.I. crown jewels.

The Silicon Valley giant, which owns Facebook, Instagram and WhatsApp, had created an A.I. technology, called LLaMA, that can power online chatbots. But instead of keeping the technology to itself, Meta released the system’s underlying computer code into the wild.

Academics, government researchers and others who gave their email address to Meta could download the code once the company had vetted the individual.

Essentially, Meta was giving its A.I. technology away as open-source software — computer code that can be freely copied, modified and reused — providing outsiders with everything they needed to quickly build chatbots of their own.

“The platform that will win will be the open one,” Yann LeCun, Meta’s chief A.I. scientist, said in an interview.

As a race to lead A.I. heats up across Silicon Valley, Meta is standing out from its rivals by taking a different approach to the technology. Driven by its founder and chief executive, Mark Zuckerberg, Meta believes that the smartest thing to do is share its underlying A.I. engines as a way to spread its influence and ultimately move faster toward the future.

Its actions contrast with those of Google and OpenAI, the two companies leading the new A.I. arms race. Worried that A.I. tools like chatbots will be used to spread disinformation, hate speech and other toxic content, those companies are becoming increasingly secretive about the methods and software that underpin their A.I. products.

Google, OpenAI and others have been critical of Meta, saying an unfettered open-source approach is dangerous. A.I.’s rapid rise in recent months has raised alarm bells about the technology’s risks, including how it could upend the job market if it is not properly deployed. And within days of LLaMA’s release, the system leaked onto 4chan, the online message board known for spreading false and misleading information.

“We want to think more carefully about giving away details or open sourcing code” of A.I. technology, said Zoubin Ghahramani, a Google vice president of research who helps oversee A.I. work. “Where can that lead to misuse?”

Some within Google have also wondered if open-sourcing A.I. technology may pose a competitive threat. In a memo this month, which was leaked on the online publication Semianalysis.com, a Google engineer warned colleagues that the rise of open-source software like LLaMA could cause Google and OpenAI to lose their lead in A.I.

But Meta said it saw no reason to keep its code to itself. The growing secrecy at Google and OpenAI is a “huge mistake,” Dr. LeCun said, and a “really bad take on what is happening.” He argues that consumers and governments will refuse to embrace A.I. unless it is outside the control of companies like Google and Meta.

“Do you want every A.I. system to be under the control of a couple of powerful American companies?” he asked.

OpenAI declined to comment.

Meta’s open-source approach to A.I. is not novel. The history of technology is littered with battles between open source and proprietary, or closed, systems. Some hoard the most important tools that are used to build tomorrow’s computing platforms, while others give those tools away. Most recently, Google open-sourced the Android mobile operating system to take on Apple’s dominance in smartphones.

Many companies have openly shared their A.I. technologies in the past, at the insistence of researchers. But their tactics are changing because of the race around A.I. That shift began last year when OpenAI released ChatGPT. The chatbot’s wild success wowed consumers and kicked up the competition in the A.I. field, with Google moving quickly to incorporate more A.I. into its products and Microsoft investing $13 billion in OpenAI.

While Google, Microsoft and OpenAI have since received most of the attention in A.I., Meta has also invested in the technology for nearly a decade. The company has spent billions of dollars building the software and the hardware needed to realize chatbots and other “generative A.I.,” which produce text, images and other media on their own.

In recent months, Meta has worked furiously behind the scenes to weave its years of A.I. research and development into new products. Mr. Zuckerberg is focused on making the company an A.I. leader, holding weekly meetings on the topic with his executive team and product leaders.

On Thursday, in a sign of its commitment to A.I., Meta said it had designed a new computer chip and improved a new supercomputer specifically for building A.I. technologies. It is also designing a new computer data center with an eye toward the creation of A.I.

“We’ve been building advanced infrastructure for A.I. for years now, and this work reflects long-term efforts that will enable even more advances and better use of this technology across everything we do,” Mr. Zuckerberg said.

Meta’s biggest A.I. move in recent months was releasing LLaMA, which is what is known as a large language model, or L.L.M. (LLaMA stands for “Large Language Model Meta AI.”) L.L.M.s are systems that learn skills by analyzing vast amounts of text, including books, Wikipedia articles and chat logs. ChatGPT and Google’s Bard chatbot are also built atop such systems.

L.L.M.s pinpoint patterns in the text they analyze and learn to generate text of their own, including term papers, blog posts, poetry and computer code. They can even carry on complex conversations.

In February, Meta openly released LLaMA, allowing academics, government researchers and others who provided their email address to download the code and use it to build a chatbot of their own.

But the company went further than many other open-source A.I. projects. It allowed people to download a version of LLaMA after it had been trained on enormous amounts of digital text culled from the internet. Researchers call this “releasing the weights,” referring to the particular mathematical values learned by the system as it analyzes data.

This was significant because analyzing all that data typically requires hundreds of specialized computer chips and tens of millions of dollars, resources most companies do not have. Those who have the weights can deploy the software quickly, easily and cheaply, spending a fraction of what it would otherwise cost to create such powerful software.

As a result, many in the tech industry believed Meta had set a dangerous precedent. And within days, someone released the LLaMA weights onto 4chan.

At Stanford University, researchers used Meta’s new technology to build their own A.I. system, which was made available on the internet. A Stanford researcher named Moussa Doumbouya soon used it to generate problematic text, according to screenshots seen by The New York Times. In one instance, the system provided instructions for disposing of a dead body without being caught. It also generated racist material, including comments that supported the views of Adolf Hitler.

In a private chat among the researchers, which was seen by The Times, Mr. Doumbouya said distributing the technology to the public would be like “a grenade available to everyone in a grocery store.” He did not respond to a request for comment.

Stanford promptly removed the A.I. system from the internet. The project was designed to provide researchers with technology that “captured the behaviors of cutting-edge A.I. models,” said Tatsunori Hashimoto, the Stanford professor who led the project. “We took the demo down as we became increasingly concerned about misuse potential beyond a research setting.”

Dr. LeCun argues that this kind of technology is not as dangerous as it might seem. He said small numbers of individuals could already generate and spread disinformation and hate speech. He added that toxic material could be tightly restricted by social networks such as Facebook.

“You can’t prevent people from creating nonsense or dangerous information or whatever,” he said. “But you can stop it from being disseminated.”

For Meta, more people using open-source software can also level the playing field as it competes with OpenAI, Microsoft and Google. If every software developer in the world builds programs using Meta’s tools, it could help entrench the company for the next wave of innovation, staving off potential irrelevance.

Dr. LeCun also pointed to recent history to explain why Meta was committed to open-sourcing A.I. technology. He said the evolution of the consumer internet was the result of open, communal standards that helped build the fastest, most widespread knowledge-sharing network the world had ever seen.

“Progress is faster when it is open,” he said. “You have a more vibrant ecosystem where everyone can contribute.””