Sekėjai

Ieškoti šiame dienoraštyje

2021 m. liepos 12 d., pirmadienis

Global Tax Deal



"International negotiators split their work into two separate ideas, known as pillars. Pillar One, pushed by European countries including the U.K., would assign more taxing power to countries with large consumer markets and pull power away from low-tax jurisdictions such as Ireland.

Pillar Two, driven by the U.S., would impose at least a 15% tax on companies' world-wide earnings. Setting that floor makes it easier for the Biden administration to try raising taxes on U.S. companies by up to $2 trillion over a decade because U.S. rates could rise higher without creating significant opportunities for companies to dodge taxes by shifting profits and addresses." [1]

 The crocodile tears of Lithuanian businessmen would end, that they would escape the high taxes of Lithuania and leave Lithuanian teachers without a breadcrumb.


1. Global Tax Deal Faces Big Hurdle in Congress
Rubin, Richard. Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]12 July 2021: A.1.
 

2021 m. liepos 10 d., šeštadienis

What does a liberal offer to do with migrants in Lithuania?

 Here is what the liberal writes:  

"There are tens and maybe hundreds of millions of unhappy people in the world who are unable to create prosperity in their countries. And ready to travel where that prosperity is already created by others. Let's not forget that almost a million Lithuanians have moved to richer European countries. Let's go to the nearest refugee camp with the Lithuanian šakotis or croissants - they dreamed so much about Paris."

Do you want hundreds of millions of migrants in Lithuania? You will have it. Liberals will let them in. Bake the šakotis.

Ką liberalas siūlo daryti su migrantais Lietuvoje?

 Štai ką rašo liberalas:

"Pasaulyje yra dešimtys, o gal ir šimtai milijonų nelaimingų žmonių, nesugebančių susikurti gerovės savo valstybėse. Ir pasiruošusių keliauti ten, kur ta gerovė jau sukurta kitų. Neužmirškime, kad tokia galimybe pasinaudojo beveik milijonas lietuvių, išvykusių gyventi į turtingesnes Europos šalis. Tai gal nuvežkime į artimiausią pabėgėlių stovyklą po lietuvišką šakotį ar kruasanų – jie juk taip svajojo apie Paryžių."

Norite šimtų milijonų migrantų Lietuvoje? Bus. Liberalai įsileis. Kepkite šakočius.



Who voted for such donkeys in the Lithuanian government? Why do they need a fence near Belarus?

 "As of today, the construction of the barbed barrier, which is planned to be built 550 kilometers, has also started, and a decision has been made to start building a fence on the Belarusian border, said minister  A. Bilotaitė. However, border official Liubayev assured that even after the construction of the wire barrier and later the physical fence, officials, having seen migrants on the other side and heard a clear request for political asylum, would continue to receive them without hindrance in accordance with the basic principles of EU law since the migrants will already be in the territory of Lithuania." 

It is clear that that fence is only needed for propaganda - we are not sleeping, we are doing something for 41 million. euros, our taxpayers’ money. 


Kas rinkote tokias asiles į Lietuvos valdžią? Kam joms reikalinga tvora prie Baltarusijos?

 "„Nuo šiandien pradėta spygliuoto barjero statyba, numatyta pastatyti 550 kilometrų, taip pat priimtas sprendimas pradėti statyti tvorą su Baltarusijos pasieniu. Mes matome, kad tai galėtume padaryti pakankamai greitai, kaina būtų tokios tvoros apie 41 mln. eurų“, – žurnalistams penktadienį sakė A. Bilotaitė.

Vis dėlto R. Liubajevas patikino, kad net ir pastačius vielinį barjerą ir vėliau – fizinę tvorą, pareigūnai, išvydę migrantus kitoje jos pusėje ir išgirdę aiškiai išreikštą politinio prieglobsčio prašymą, juos ir toliau turės netrukdomai priimti vadovaujantis kertiniais ES teisės principais, kadangi šalia tvoros jie jau bus Lietuvos teritorijoje."

Aišku, kad ta tvora reikalinga tik propagandai - mes nemiegam, mes kažką darom už 41 mln. eurų, mūsų, mokesčių mokėtojų, pinigus.


2021 m. liepos 9 d., penktadienis

Dirbtinis intelektas keičia kompiuterinių programų rašymo būdą

 „GPT-3, „Generative Pre-Trained Transformer 3“ yra kalbos modelis, kurį sukūrė „OpenAI“ - dalinai komercinė, dalinai ne pelno siekianti dirbtinio intelekto (AI) laboratorija San Franciske. GPT-3 buvo išmokytas beprecedentės teksto masės, kad išmoktų tikimybę, jog duotas žodis bus po ankstesnių žodžių. Kai pateikiamas trumpas teksto pavyzdys, jis sukuria stebėtinai nuoseklią prozą, parašytą panašiu stiliumi. Prieiga prie GPT-3 yra ribota. Viena vertus, sako Jackas Clarkas, buvęs organizacijos politikos vadovas, kitaip jis gali būti naudojamas masinėms netikrų naujienų gamybai arba socialinių tinklų užplūdimui „trolinimo ir sielvarto“ pranešimais. 

Tačiau „OpenAI“ taip pat žino, kad GPT-3 yra komerciškai vertingas. Praėjusiais metais laboratorija pradėjo leisti patikrintoms įmonėms pirkti produkciją patvirtintam naudojimui. Tai apima atsakymų į spausdintus klausimus apie gaminius rengimą ir išgalvotų personažų kalbos įjungimą virtualiuose pasauliuose. 

Bet bene svarbiausia, kad GPT-3 taip pat gali būti naudojamas kompiuterio kodui rašyti. Kelios firmos jau naudoja GPT-3 ir jos pirmtaką GPT-2, kad pridėtų AI prie programinės įrangos, kurią jų programuotojai naudoja rašydami kodą. Didžioji dalis to, ką įrašo šie programuotojai, kažkur praeityje jau buvo parašyta kitur. Tai reiškia, kad į tokius paketus įvesdami daugybę jau egzistuojančių kodų, jie gali būti išmokyti numatyti eilutes, kurių programuotojui reikės toliau. Ekrane pasirodo galimi vienos ar kelių eilučių „kodo užbaigimai“. 

 Viena kompanija, sukūrusi tokią dirbtiniu intelektu remtą užbaigimo funkciją, yra „Tabnine“ iš Tel Avivo. „Tabnine“ naudojo GPT-2 tiek daug kodų į savo programavimo programinę įrangą, dar vadinamą „Tabnine“, kad ši programinė įranga įgijo savotiškų „žinių apie pasaulį“, sako Eranas Yahavas, geriausias firmos technologas. Dr Yahavas tai apibūdina kaip „gana gerą supratimą apie tai, kaip pasaulis elgiasi“, bent jau kalbant apie programavimą. „Tabnine“ programinė įranga gali aptikti, kad vartotojas pradėjo įvesti kodą tvarkyti, tarkime, pirkimo užsakymus. Tada jis pasiūlys kodą, kad būtų rodomi produktų pavadinimai ir kainos, taip pat kodą, kad būtų sukurti laukai, kuriuose būtų užpildyti kiekiai, mokėjimo ir pristatymo duomenys. 

 Kai kurios kodavimo sekos yra retos. Tokiais atvejais „Tabnine“ prailgina siūlomų užbaigimų iššokantįjį sąrašą, kad padidintų naudingo pasiūlymo tikimybę. Spustelėjęs tinkamą, programuotojas moko „Tabnine“ pasirodyti geriau. Pasak įmonės vadovo Droro Weisso, „Tabnine“ profesionali versija, atrodo, yra „beveik intelektuali“, nes ji gali suprasti programuotojo ketinimus. 

Tabnine nėra viena. Birželio 17 d. amerikiečių programinės įrangos milžinė „Microsoft“ išleido naują dirbtiniu intelektu remtą užbaigimo funkcijos versiją, kurią įterpia į kodavimo programinę įrangą „Visual Studio“. Originali versija, išleista 2018 m. ir pavadinta „IntelliCode“, buvo apmokyta keliuose tūkstančiuose internetinių saugyklų, kuriose saugomas programavimo projektų kodas. „Microsoft“ mokė atnaujintą sistemą daugiau nei pusėje milijono tokių saugyklų. Amanda Silver, viena iš „Visual Studio“ vadovų, sako, kad šie papildomi mokomųjų duomenų kaupiniai leidžia naujajai versijai geriau suprasti ketinimus iš programuotojo jau parašytų užuominų. 

Viso to tikslas, žinoma, yra laiko taupymas. San Francisko įmonė „Kite“ tvirtina, kad jos dirbtinio intelekto užbaigimo produktai sumažino kai kurių užduočių atlikimo klavišų skaičių beveik perpus. Tačiau bendras efektyvumo padidėjimas yra mažesnis. Čekijos programavimo programinės įrangos kūrėjos „JetBrains“ Sankt Peterburgo biuro dirbtinio intelekto produktų vadovas Vitalijus Khudobakhshovas laiko sutaupymą matuoja nuo 10 iki 20 proc.  Pasak „Debuild“ firmos vadovo Sharifo Shameemo, kuris naudoja GPT-3 pagalba kuriant svetaines, ši technologija taip pat sumažina „pažintines pridėtines išlaidas“. Pasirinkimas iš kelių pasirinkimų yra mažiau sunkus, nei sprendimų iš pradžių kūrimas.

 Taip pat naudos gauna ne tik tie, kurie rašo kodą. Kūrėjai praleidžia beveik tiek pat laiko, ieškodami klaidų tame, ką parašė, nei iš pradžių. Niujorko universiteto Brendano Dolano-Gavitto sukurtas mašininio mokymosi modelis gali pagreitinti derinimo procesą. Norėdami jį apmokyti, dr. Dolanas-Gavittas renka kodą, kuriame yra didžiausia pasaulyje nepatentuotų „atvirojo kodo“ kodų kolekcija. Pagal vieną vertinimą, „GitHub“ turi mažiausiai milijardą kodo fragmentų, kurie identifikuoti kaip turintys klaidą. Dr Dolan-Gavitt modelis, laikinai vadinamas GPT-CSRC, šią vasarą praryja šį kodą.

Kitas klaidų pastebėjimo modelis yra kuriamas Masačusetso technologijos institute (MIT). Shashankas Srikantas, prie projekto dirbantis doktorantas, sako, kad tikslas yra išmokyti modelį atpažinti ne tik netyčines klaidas, bet ir piktybiškai įterptus pažeidžiamumus. Nesąžiningi darbuotojai kartais slepia tokio pobūdžio gudrybes, kurios yra skirtos tam, kad slapta gautų prieigą prie slaptažodžių. Tačiau ši praktika dažniausiai taikoma atvirojo kodo programavimo projektuose, prie kurių gali prisidėti visi. Žmonių apžvalgininkai paprastai stengiasi pastebėti šias „pažeidžiamumo injekcijas“, kaip jie kartais žinomi. Ponas Srikantas sako, kad, norėdami paslėpti savo praeities kūrinius, apsukrūs koduotojai dažnai naudoja apgaulingus, bet grynai kosmetinius pavadinimus tokiems dalykams kaip programos valdomi kintamieji. Todėl MIT komanda treniruoja savo modelį, kad pažymėtų fragmentų etikečių ir jų tikrojo funkcionalumo neatitikimus. Sunkumas yra tas, kad geri tokių išdykavimų pavyzdžiai yra daug rečiau, nei įprastos klaidos. Tačiau yra papildomas ženklas, kad pažeidžiamumas gali būti slypėjęs. Kenkėjiški koduotojai dažnai tai slepia rašydami nereikalingą kodą, skirtą atmesti recenzentus, todėl ponas Srikantas taip pat maitina MIT modelį tokio tipo potencialiai signalinio kodo pavyzdžiais, kuriuos jis apibūdina kaip „kabančius“ ir „mirusius“. 

Aiškus šios veiklos tikslas yra sukurti programinės įrangos programuotojus, kurie, kaip ir žmonių įvairovė, gali perimti idėją ir paversti ją kodu. Apie ateinančius dalykus žino dr Dolan-Gavitt sukurta svetainė. Pavadintas „Šis kodas neegzistuoja“, jis prašo programuotojų nustatyti, ar dešimčių eilučių ilgio kodo sekcijas parašė žmogus, ar jo sukurtas GPT-2 pagrindu sukurtas modelis. Iš daugiau nei 329 200 atliktų vertinimų mažiau nei 51% buvo teisingi. Tai tik truputį geriau, nei atsitiktinis. 

Mašinos, pasirodo, dabar sugeba parašyti net ilgas veikiančio kodo sekas. Kaip socialiniame tinkle „Twitter“ žinomas amerikiečių kompiuterių inžinierius Johnas Carmackas, apmąstydamas šį įvykį „iš tikrųjų sukelia lengvą šiurpuliuką“. Nenuostabu, kad nemažai firmų mato galimybę. Viena yra Paryžiaus įmonė, vadinama „SourceAI“. Tai yra programinės įrangos projektavimas, į kurį vartotojai natūralia kalba įveda kodo užklausą - pavyzdžiui, tai, kas apskaičiuos skaičių vertę matematinėje formulėje, vadinamoje „Fibonači“ seka. Pasinaudodama GPT-3, „SourceAI“ pavadinta programinė įranga sukuria norimas kodo eilutes įvairiomis programavimo kalbomis. 

„Debuild“ bando tą pačią idėją. Ji bando sukurti programinę įrangą, kuri neprogramuotojams leistų paprastąja anglų kalba apibūdinti norimą sukurti programą ir tada ją parašys AI. Prašymas, tarkime, kirpyklos programėlės, leidžiančios mecenatams pasirinkti kirpėją ir susitikimų laiką, jau gali suteikti daugiau ar mažiau tai. Ponas Shameemas sako, kad tikslas yra iššluoti kodo rinkimo smulkmenas, kad žmonės galėtų sutelkti dėmesį į tai, ko nori, o ne į tai, kaip nurodyti kompiuteriams tai padaryti. 

Savo ruožtu „Microsoft“ taip pat naudoja GPT-3, kad valdytų tai, ką ji vadina „nėra kodo / mažo kodo“. Šiam darbui vadovaujantis Charlesas Lamanna numato šviesią pigesnės programinės įrangos, kurią sukūrė nemokyti „piliečių kūrėjai“, ateitį.“ [1]  

1.     1. "The software software engineers; Automating programming." The Economist, 10 July 2021, p. 72(US).

Artificial intelligence is transforming the way computer programs are written


“GPT-3 IS QUITE a beast. The Generative Pre-Trained Transformer 3, to give its full name, is a language model developed by OpenAI, a part-commercial, part not-for-profit artificial-intelligence (AI) laboratory in San Francisco. GPT-3 was trained on an unprecedented mass of text to teach it the probability that a given word will follow preceding words. When fed a short text "prompt", it cranks out astonishingly coherent prose written in a similar style.

Access to GPT-3 is restricted. For one thing, says Jack Clark, former head of policy at the organisation, it might otherwise be used to mass produce fake news or flood social media with "trolling and griefing" messages. But OpenAI also knows that GPT-3 is commercially valuable. Last year the laboratory started letting vetted firms buy its output for approved uses. These include producing answers to typed questions about products, and powering the speech of fictional characters in virtual worlds. But perhaps most important, GPT-3 can also be used to write computer code.

Several firms are already using GPT-3 and its predecessor GPT-2 to add AI to the software that their programmers use to write code. Much of what these programmers type out has already been written elsewhere at some point in the past. This means that by feeding oodles of pre-existing code into such packages, they can be trained to predict the lines a programmer needs next. As a programmer types, potential "code completions" of one or a few lines pop up on the screen.

Predict and provide

One company that has created such an AI-completion feature is Tabnine, of Tel Aviv. Tabnine used GPT-2 to feed so much code to its programming software, also named Tabnine, that this software gained a sort of "world knowledge", says Eran Yahav, the firm's top technologist. Dr Yahav describes this as "a pretty good notion of how the world behaves", at least when it comes to programming-speak. Tabnine software may detect that a user has begun to type code to handle, say, purchase orders. It will then suggest code to display product names and prices, as well as code to create fields to be filled with quantities, payment and delivery data. It works even though Tabnine has never been specifically instructed to do that.

Some coding sequences are rare. In these cases, Tabnine lengthens its pop-up list of suggested completions to increase the likelihood of offering a useful one. By clicking on one that is appropriate, the programmer teaches Tabnine to perform better. Tabnine's professional version seems "almost intelligent" in its ability to understand a programmer's intent, according to Dror Weiss, the firm's boss.

Tabnine is not alone. On June 17th Microsoft, an American software giant, released a new version of an AI-completion feature which it embeds in coding software called Visual Studio. The original version, released in 2018 and named IntelliCode, was trained on a few thousand online repositories in which code for programming projects is stored. Microsoft trained its upgraded system on more than half a million such repositories. Amanda Silver, one of the executives in charge of Visual Studio, says these extra heaps of training fodder allow the new version to glean intent better from hints in code that a programmer has already written.

The purpose of all this, of course, is to save time. Kite, a firm in San Francisco, claims its AI-completion products cut the number of keystrokes required for some tasks by nearly half. Overall efficiency gains, however, are lower. Vitaly Khudobakhshov, head of AI products at the St Petersburg office of JetBrains, a Czech developer of programming software, sees time savings of 10% to 20%. In the view of Sharif Shameem, the boss of Debuild, a firm in San Francisco that uses GPT-3 to help build websites, the technology also reduces "cognitive overhead". Selecting from multiple choices is less taxing than devising solutions from scratch.

Bugs and the system

Nor are those who write code the only beneficiaries. Developers spend nearly as much time searching for bugs in what they have written as they do writing it in the first place. A machine-learning model being built by Brendan Dolan-Gavitt of New York University may speed up the debugging process.

To train it, Dr Dolan-Gavitt is collecting code labelled as buggy by GitHub, a Microsoft subsidiary that hosts the biggest collection of non-proprietary "open source" code in the world. By one estimate, GitHub holds at least a billion snippets of code identified as harbouring a bug. Dr Dolan-Gavitt's model, provisionally called GPT-CSRC, will devour that code this summer.

Another bug-spotting model is in development at the Massachusetts Institute of Technology (MIT). Shashank Srikant, a PhD student working on the project, says the goal is to train the model to recognise not just inadvertent bugs, but also maliciously inserted vulnerabilities. Rogue employees are sometimes behind trickery of this sort, which is intended to do things like secretly gain access to passwords. The practice is most common, however, in open-source programming projects to which anyone can contribute. Human reviewers typically struggle to spot these "vulnerability injections", as they are sometimes known.

The reason, Mr Srikant says, is that, in a bid to slip their handiwork past reviewers, devious coders often use deceptive but purely cosmetic names for things like the variables handled by a program. The team at MIT is therefore training its model to flag discrepancies between snippets' labels and their actual functionality. The difficulty is that good examples of such mischief are much rarer than ordinary errors.

There is, however, an additional sign that a vulnerability injection may be lurking. Malicious coders often conceal these by writing superfluous code intended to throw off reviewers, so Mr Srikant is also feeding MIT's model with examples of this type of potentially telltale code, which he describes as "dangling" and "dead".

The clear destination of all this activity is the creation of software programmers which can, like the human variety, take an idea and turn it into code. An inkling of things to come is provided by a website created by Dr Dolan-Gavitt. Named "This Code Does Not Exist", it asks programmers to determine if sections of code dozens of lines long were written by a human or a model based on GPT-2 that he has built. Of more than 329,200 assessments made, less than 51% have been correct. That is only a shade better than random.

Machines, it turns out, are now able to write even longish sequences of functioning code. As John Carmack, a noted American computer engineer, has tweeted, pondering this development "does generate a slight shiver". Unsurprisingly, a number of firms see an opportunity.

One is a Parisian firm called SourceAI. It is designing software into which users type, in natural language, a request for code--such as something that will work out the value of numbers in a mathematical formula called the Fibonacci sequence. By tapping into GPT-3, SourceAI's eponymous software churns out the desired lines of code in a range of programming languages.

Debuild is testing the same idea. It is trying to create software that lets non-programmers describe, in plain English, a program they want to create, and will then write it. A request for, say, a barbershop app that lets patrons choose a barber and an appointment slot can already produce more or less just that. Mr Shameem says the goal is to sweep away the minutiae of code-typing, so that people can focus on what they want done, not how to instruct computers to do it.

For its part, Microsoft is also using GPT-3 to power what it calls "no code/low code" programming. Charles Lamanna, who leads the work, envisages a bright future of cheaper software created by untrained "citizen developers". Some folk fear an alternative, darker outcome. Might AIs eventually write whatever code they fancy running? No such runaway feedback loop is around the corner. But that mainstay of science fiction does now appear a little less far-fetched.” [1]

1.     1. "The software software engineers; Automating programming." The Economist, 10 July 2021, p. 72(US).