Sekėjai

Ieškoti šiame dienoraštyje

2024 m. sausio 27 d., šeštadienis

Yra daug priežasčių, kodėl mirtinų autonominių ginklų kūrimas yra bloga idėja

  „Didžiausias dalykas, kaip rašiau „Nature“ 2015 m.4, yra tai, kad „galima tikėtis milijonų platformų, kurių judrumas ir mirtingumas paliks žmones visiškai neapsaugotus“. Šis samprotavimas iliustruotas 2017 m. kurį išleidau kartu su „Future of Life Institute“ (žr. go.nature.com/4ju4zj2). Jame rodomi „Slaughterbots“ – pigių mikrodronų spiečius, naudojantys dirbtinį intelektą ir veido atpažinimą, kad nužudytų politinius oponentus. Kadangi nereikia žmogaus priežiūros, vienas asmuo gali paleisti beveik neribotą skaičių ginklų, kad išnaikintų ištisas populiacijas. Ginklų ekspertai sutinka, kad priešpėstinius spiečius reikėtų priskirti masinio naikinimo ginklams (žr. go.nature.com/3yqjx9h). Dirbtinio intelekto bendruomenė beveik vieningai prieštarauja autonominiams ginklams dėl šios priežasties.

 

     Be to, į dirbtinio intelekto sistemas gali būti įsilaužta arba nelaimingi atsitikimai gali paaštrinti konfliktą arba sumažinti karų slenkstį. Ir žmogaus gyvybė nuvertėtų, jei robotai priimtų sprendimus dėl gyvybės ar mirties, keltų susirūpinimą dėl moralės ir teisingumo. 2019 m. kovo mėn. JT generalinis sekretorius António Guterresas apibendrino šią bylą derybininkams dėl autonominių ginklų Ženevoje: „Mašinos, turinčios galią ir diskreciją atimti gyvybes be žmogaus įsikišimo, yra politiškai nepriimtinos, moraliai atstumiančios ir turėtų būti uždraustos pagal tarptautinę teisę“ ( žr. go.nature.com/3yn6pqt). Tačiau, be tarptautinių humanitarinių įstatymų, vis dar nėra taisyklių, draudžiančių gaminti ir parduoti mirtinus autonominius masinio naikinimo ginklus." [1]


1. AI weapons. Stuart Russell. Nature 614, 620-623 (2023)

There are many reasons why developing lethal autonomous weapons is a bad idea


"The biggest, as I wrote in Nature in 20154, is that “one can expect platforms deployed in the millions, the agility and lethality of which will leave humans utterly defenceless”. The reasoning is illustrated in a 2017 YouTube video advocating arms control, which I released with the Future of Life Institute (see go.nature.com/4ju4zj2). It shows ‘Slaughterbots’ — swarms of cheap microdrones using AI and facial recognition to assassinate political opponents. Because no human supervision is required, one person can launch an almost unlimited number of weapons to wipe out entire populations. Weapons experts concur that anti-personnel swarms should be classified as weapons of mass destruction (see go.nature.com/3yqjx9h). The AI community is almost unanimous in opposing autonomous weapons for this reason.

Moreover, AI systems might be hacked, or accidents could escalate conflict or lower the threshold for wars. And human life would be devalued if robots take life-or-death decisions, raising moral and justice concerns. In March 2019, UN secretary-general António Guterres summed up this case to autonomous-weapons negotiators in Geneva: “Machines with the power and discretion to take lives without human involvement are politically unacceptable, morally repugnant and should be prohibited by international law” (see go.nature.com/3yn6pqt). Yet there are still no rules, beyond international humanitarian laws, against manufacturing and selling lethal autonomous weapons of mass destruction." [1]


1. AI weapons. Stuart Russell. Nature 614, 620-623 (2023)

2024 m. sausio 26 d., penktadienis

Dirbtinio intelekto (AI) siuntimas į kalbų mokyklą

   „Amerikietiškos įmonės OpenAI sukurtas pokalbių robotas ChatGPT gali duoti priimtinus atsakymus į klausimus nuo branduolinės inžinerijos iki stoikų filosofijos.

 

     Ar bent jau tai gali anglų kalba. Naujausia versija, ChatGPT-4, išlaikė 85% bendrų klausimų ir atsakymų testo. Kitomis kalbomis tai mažiau įspūdinga. Pavyzdžiui, atliekant testą telugų kalba, indų kalba, kuria kalba beveik 100 mln. žmonių, ji surinko tik 62 proc.

 

     „OpenAI“ daug neatskleidė, kaip buvo sukurtas „ChatGPT-4“. Tačiau žvilgsnis į jo pirmtaką „ChatGPT-3“ yra įtaigus. Dideli kalbų modeliai (LLM) mokomi, naudojant tekstą, paimtą iš interneto, kuriame anglų kalba yra lingua franca. Maždaug 93 % ChatGPT-3 mokymo duomenų buvo anglų kalba. „Common Crawl“, tik viename iš duomenų rinkinių, pagal kuriuos buvo parengtas modelis, anglų kalba sudaro 47 % korpuso, o kitos (dažniausiai susijusios) Europos kalbos sudaro 38 % daugiau. Kinų ir japonų, priešingai, kartu sudarė tik 9%. Telugų kalba net nebuvo apvalinimo klaida.

 

     Johnso Hopkinso universiteto mokslininko Nathanielio Robinsono ir jo kolegų įvertinimas rodo, kad tai nėra tik ChatGPT problema. Visiems LLM sekasi geriau su „didelių išteklių“ kalbomis, kurių mokymo duomenų yra daug, nei su mažai išteklių turinčiomis kalbomis, kurioms jų trūksta. Tai yra problema tiems, kurie tikisi eksportuoti dirbtinį intelektą į neturtingas šalis, tikėdamiesi, kad tai gali pagerinti viską nuo mokyklų iki sveikatos priežiūros. Todėl mokslininkai visame pasaulyje stengiasi, kad dirbtinis intelektas būtų daugiakalbis.

 

     Indijos vyriausybė yra ypač suinteresuota. Daugelis jos viešųjų paslaugų jau yra suskaitmenintos ir nori jas sustiprinti dirbtiniu intelektu. Pavyzdžiui, rugsėjį ji pradėjo pokalbių robotą, padedantį ūkininkams gauti informacijos apie valstybės išmokas.

 

     Botas veikia, suvirindamas dviejų tipų kalbos modelius, sako Shankar Maruwada iš EkStep Foundation, ne pelno organizacijos, padėjusios jį sukurti. Vartotojai gali pateikti užklausas savo gimtąja kalba. (Kol kas palaikomos aštuonios; netrukus pasirodys dar penkios.) Jie perduodami mašininio vertimo programinei įrangai, sukurtai Indijos akademinėje įstaigoje IIT Madras, kuri išverčia juos į anglų kalbą. Angliška klausimo versija perduodama LLM, o jo atsakymas išverčiamas atgal į vartotojo gimtąją kalbą.

 

     Panašu, kad sistema veikia. Tačiau užklausų vertimas į LLM pageidaujamą kalbą yra gana gremėzdiškas sprendimas. Juk kalba yra pasaulėžiūros ir kultūros bei tiesiog prasmės priemonė, pažymi vienos Indijos AI firmos vadovas. 2022 m. paskelbtame Sidnėjaus universiteto mokslininkės Rebeccos Johnson straipsnyje nustatyta, kad „ChatGPT-3“ davė atsakymus tokiomis temomis, kaip ginklų kontrolė ir pabėgėlių politika, kurie labiausiai atitiko vertybes, kurias amerikiečiai demonstravo Pasaulio vertybių tyrime, visuotiniame visuomenės nuomonės klausimyne.

 

     Todėl daugelis tyrinėtojų stengiasi, kad patys LLM geriau kalbėtų mažiau vartojamomis kalbomis. Vienas iš būdų yra modifikuoti prieigos raktą – LLM dalį, kuri susmulkina žodžius į mažesnius gabalus, žetonus, kad būtų galima manipuliuoti likusia modelio dalimi. Tekstui devanagari kalba, raštu, naudojamu hindi kalba, reikia nuo trijų iki keturių kartų daugiau žetonų, kai jie žymimi standartiniu būdu, nei tam pačiam tekstui anglų kalba. Indijos startuolis, pavadintas „Sarvam AI“, parašė hindi kalbai optimizuotą žetonų rinkiklį, kuris gerokai sumažina šį skaičių. Mažiau žetonų reiškia mažiau skaičiavimų. Sarvam mano, kad „OpenHathi“, „Devanagari“ optimizuota LLM, gali maždaug trimis ketvirčiais sumažinti atsakymų į klausimus išlaidas.

 

     Kitas dalykas yra tobulinti duomenų rinkinius, kuriais remiantis mokomi LLM. Dažnai tai reiškia daugybės rašiklio ir popieriaus tekstų skaitmeninimą. Lapkričio mėnesį Mohamedo bin Zayedo universiteto Abu Dabyje tyrėjų komanda išleido naujausią arabiškai kalbančio modelio versiją, pavadintą „Jais“. Jame yra šeštadaliu daugiau parametrų (vienas modelio dydžio matas) kaip ChatGPT-3, tačiau arabų kalba veikia lygiai taip pat. Timothy Baldwin, universiteto provostas, pažymi, kad kadangi jo komanda galėjo suskaitmeninti tik tiek arabiško teksto, modelis taip pat apėmė šiek tiek anglų kalbos. Galų gale, kai kurios sąvokos yra panašios visomis kalbomis ir jas galima išmokti bet kuria kalba. Duomenys konkrečia kalba yra svarbesni, mokant modelį konkrečių kultūrinių idėjų ir keistenybių.

 

     Trečias būdas yra pakoreguoti modelius po to, kai jie buvo išmokyti. Ir Jais, ir OpenHathi turėjo kai kurias klausimų ir atsakymų poras, kurias sukūrė žmonės. Tas pats atsitinka su Vakarų pokalbių robotais, kad jie neplatintų tai, ką jų kūrėjai laiko dezinformacija. Ernie Bot, LLM iš Baidu, didelės Kinijos technologijų įmonės, buvo pakoreguotas taip, kad ji nekalbėtų dalykų, kuriems vyriausybė galėtų prieštarauti. Modeliai taip pat gali mokytis iš žmonių atsiliepimų, kuriuose vartotojai vertina LLM atsakymus. Tačiau tai sunku padaryti daugeliui skurdžių pasaulio kalbų, sako daktaras Baldwinas, nes tam reikia įdarbinti pakankamai raštingus žmones, kad galėtų kritikuoti mašinos rašymą.

 

     Kaip gerai visa tai veiks, pamatysime. Ketvirtadalis Indijos suaugusiųjų yra neraštingi, o to neišspręs joks LLM koregavimas. Daugelis indų nori bendrauti balso žinutėmis, o ne tekstinėmis žinutėmis. AI taip pat gali paversti kalbą žodžiais, kaip tai daro Indijos pokalbių robotas ūkininkams. Tačiau tai prideda dar vieną žingsnį, per kurį gali atsirasti klaidų.

 

     Ir gali būti, kad Silicio slėnio didžiųjų berniukų pastangomis vietinių LLM kūrėjai galiausiai gali būti išvesti iš verslo. Nors ChatGPT-4 toli gražu nėra tobulas, jis daug geriau, nei ChatGPT-3, atsako į klausimus ne anglų kalbomis. Kad ir kaip būtų, dirbtinio intelekto mokymas kalbėti daugiau iš 7000 pasaulio kalbų gali būti tik geras dalykas." [1]

 

Lietuvos vaikai dabar priversti naudotis labai ribotu dirbtiniu intelektu, nes lietuvių kalba medžiagos internete yra išskirtinai mažai. Tai dar pagilina mūsų jaunosios kartos galimybių konkuruoti pasaulyje apribojimus. Jei nenorite, kad vaikai užaugtų laukiniais, vežkite juos į Vakarus jau dabar.


1.  Sending AI to language school. The Economist; London Vol. 450, Iss. 9381,  (Jan 27, 2024): 73, 74.

Sending AI to language school

 

"ChatGPT, a chatbot developed by OpenAI, an American firm, can give passable answers to questions on everything from nuclear engineering to Stoic philosophy. 

Or at least, it can in English. The latest version, ChatGPT-4, scored 85% on a common question-and-answer test. In other languages it is less impressive. When taking the test in Telugu, an Indian language spoken by nearly 100m people, for instance, it scored just 62%.

OpenAI has not revealed much about how ChatGPT-4 was built. But a look at its predecessor, ChatGPT-3, is suggestive. Large language models (LLMs) are trained on text scraped from the internet, on which English is the lingua franca. Around 93% of ChatGPT-3’s training data was in English. In Common Crawl, just one of the datasets on which the model was trained, English makes up 47% of the corpus, with other (mostly related) European languages accounting for 38% more. Chinese and Japanese combined, by contrast, made up just 9%. Telugu was not even a rounding error.

An evaluation by Nathaniel Robinson, a researcher at Johns Hopkins University, and his colleagues finds that is not a problem limited to ChatGPT. All LLMs fare better with “high-resource” languages, for which training data are plentiful, than for “low-resource” ones for which they are scarce. That is a problem for those hoping to export AI to poor countries, in the hope it might improve everything from schools to health care. Researchers around the world are therefore working to make AI more multilingual.

India’s government is particularly keen. Many of its public services are already digitised, and it is keen to fortify them with AI. In September, for instance, it launched a chatbot to help farmers get information about state benefits.

The bot works by welding two sorts of language model together, says Shankar Maruwada of the EkStep Foundation, a non-profit that helped build it. Users can submit queries in their native tongues. (Eight are supported so far; five more are coming soon.) These are passed to a piece of machine-translation software developed at IIT Madras, an Indian academic institution, which translates them into English. The English version of the question is then fed to the LLM, and its response translated back into the user’s mother tongue.

The system seems to work. But translating queries into an LLM’s preferred language is a rather clumsy workaround. After all, language is a vehicle for worldviews and culture as well as just meaning, notes the boss of one Indian AI firm. A paper by Rebecca Johnson, a researcher at the University of Sydney, published in 2022, found that ChatGPT-3 gave replies on topics such as gun control and refugee policy that aligned most with the values displayed by Americans in the World Values Survey, a global questionnaire of public opinion.

Many researchers are therefore trying to make LLMs themselves more fluent in less widely spoken languages. One approach is to modify the tokeniser, the part of an LLM that chops words into smaller chunks for the rest of the model to manipulate. Text in Devanagari, a script used with Hindi, needs three to four times more tokens, when tokenised the standard way, than the same text in English. An Indian startup called Sarvam AI has written a tokeniser optimised for Hindi, which cuts that number substantially. Fewer tokens means fewer computations. Sarvam reckons that OpenHathi, its Devanagari-optimised LLM, can cut the cost of answering questions by around three-quarters.

Another is to improve the datasets on which LLMs are trained. Often this means digitising reams of pen-and-paper texts. In November a team of researchers at Mohamed bin Zayed University, in Abu Dhabi, released the latest version of an Arabic-speaking model called “Jais”. It has one-sixth as many parameters (one measure of a model’s size) as ChatGPT-3, but performs on par with it in Arabic. Timothy Baldwin, the university’s provost, notes that, because his team could only digitise so much Arabic text, the model also included some English. Some concepts, after all, are similar across all languages, and can be learned in any tongue. Data in a specific language are more important for teaching the model specific cultural ideas and quirks.

The third approach is to tweak models after they have been trained. Both Jais and OpenHathi have had some question-and-answer pairs hand crafted by humans. The same happens with Western chatbots, to stop them spreading what their makers see as disinformation. Ernie Bot, an LLM from Baidu, a big Chinese tech company, has been tweaked to try to stop it saying things to which the government might object. Models can also learn from human feedback, in which users rate an LLM’s answers. But that is hard to do for many poor-world languages, says Dr Baldwin, since it requires recruiting people literate enough to criticise the machine’s writing.

How well all this will work remains to be seen. A quarter of India’s adults are illiterate, something that no amount of LLM tweaking will solve. Many Indians prefer using voice messages to communicate rather than text ones. AI can also turn speech into words, as India’s chatbot for farmers does. But that adds another step at which errors can creep in.

And it is possible that builders of local LLMs may eventually be put out of business by the efforts of the Silicon Valley big boys. Although it is far from perfect, ChatGPT-4 is much better than ChatGPT-3 at answering questions in non-English languages. However it is done, teaching AI to speak more of the world’s 7,000-odd languages can only be a good thing." [1]

Lithuanian children are now forced to use very limited artificial intelligence, because there is exceptionally little material in Lithuanian on the Internet. This further limits our young generation's ability to compete in the world. If you don't want your children to grow up wild, take them to the West now.

1.  Sending AI to language school. The Economist; London Vol. 450, Iss. 9381,  (Jan 27, 2024): 73, 74.