Sekėjai

Ieškoti šiame dienoraštyje

2023 m. spalio 6 d., penktadienis

Scholzas ir Macronas svajoja apie ES ChatGPT

„Absoliučiai bridžo diena: tai, turbūt, sunkiausia metų savaitė lobistams. ES tikrai nori gabalėlio dirbtinio intelekto pyrago, o kitą savaitę Hamburge gresia pjaustymas. Daug rankų dabar mojuoja ašmenimis.

 

     Vokiečių-prancūzų variklis vėl galėjo pradėti ūžti. Abiejų šalių vyriausybės kitą savaitę susitiks Hamburge ir norės susitarti dėl DI reguliavimo linijos. ES šiuo metu nustato revoliucijos kursą; dėl itin svarbaus dirbtinio intelekto reglamento planuojama derėtis per trišalį dialogą spalio 25 d. Pagrindinis klausimas yra toks: kaip tiksliai Europa reguliuoja technologiją, kuri yra chroniškai nenuspėjama ir tuo pat metu laikoma greitkeliu viso pasaulio ekonomikoms?

 

     Tai skaitmeninis déjà vu: kaip dažnai darydavo anksčiau, ES svajoja pagaliau pasivyti amerikiečius. Po Europos paieškos variklio, Europos Vikipedijos, Europos socialinių tinklų ir Europos debesų, dabar ji turėtų veikti – su ES pokalbių GPT.

 

     Prancūzija dažnai griebdavosi sulėtinti JAV konkurenciją per reglamentus, tačiau birželį pasiūlė kitokią strategiją – taip sakant, aplenkimo manevrą. Prancūzijos ministrai perspėjo neiššvaistyti šios naujos „produktyvumo galimybės“ (greičiausiai tai reikš Prancūzijos dirbtinio intelekto kompanijų, tokių, kaip „Mistral AI“, galimybę). Federalinė vyriausybė taip pat siunčia verslui palankius signalus į Briuselį, o pramonės asociacijos, tokios, kaip „Bitkom“, rašo popierių po popieriaus.

 

     Šis koncertas gali pasijusti ES Parlamento kreipimesi: dabar jis susiduria su priešpriešiniais vėjais ne tik iš pramonės, bet ir iš vyriausybių. To priežastis yra subtilus parlamento narių reguliavimo metodas: jie nori reguliuoti dirbtinį intelektą iš esmės, t. y. ten, kur technologija dar nevaizduoja paveikslų, nerašo tekstų ar nemėgdžioja žmonių, o yra dirbtinės smegenys, kurias galima panaudoti viskam tam vėliau.

 

     Prašau jokio teisinio netikrumo!

 

     Šis branduolys vadinamas „pagrindų modeliais“, terminu iš Stanfordo universiteto. Tai modelis, parengtas, naudojant labai plačią duomenų bazę, kuri gali padaryti bet ką, jei ją įdiegiate tinkamoje aplinkoje. Labai pagarsėjusio „ChatGPT“ esmė yra „pagrindo modelis“. Terminas yra glaudžiai susijęs su „bendrosios paskirties DI“: tai DI, kuris gali būti naudojamas kitiems tikslams, nei buvo numatyta iš pradžių, tačiau nėra mokomas, naudojantis tokia ekstremalia duomenų baze. Taip, tai painu – todėl diskutuojama dėl šių terminų, nes paskutinis dalykas, kurio reikia naujai pramonei, yra teisinis neapibrėžtumas.

 

     Komisija ir vyriausybės dabar baiminasi teisinio tikrumo. Nes jei „pagrindinis modelis“ gali padaryti bet ką, jis gali padaryti bet ką. Pareiškime F.A.Z. D: ECONOMY perspėjo rugsėjo viduryje: ji pasisako už privalomą savireguliaciją, o ne griežtus reikalavimus. Tikėtina, kad fone yra įspėjamieji skambučiai iš pramonės: kūrėjai ir pradedančios įmonės būtų beviltiškai priblokšti, jei turėtų numatyti, kas bus daroma su jų pagrindiniu AI.

 

     Valdžia taip pat susirūpinusi terminologija. „Visų pirma, mes siūlome sugriežtinti apibrėžimus ir padaryti juos labiau diferencijuotus. Be to, reikėtų kalbėti apie „bendrosios paskirties AI sistemas“ (gpAI), o ne apie „pagrindinį modelį“, nes: „Kas tiksliai tai apima, neaišku“. Taip, išties.

 

     Prašome nereguliuoti per daug!

 

     Vokietija ir Prancūzija kartu su Danija, Čekija, Estija ir Airija galimą kursą nubrėžė „nepopieriniame dokumente“ (kurį taip pat turi F.A.Z. D:ECONOMY). Šiame neoficialiame dokumente rašoma, kaip spurtas ant virvės: svarbi atsakomybė, bet taip pat ir tvarumas. Valdžioms ir įmonėms reikalingas teisinis tikrumas, o piliečių pasitikėjimas taip pat reikalauja skaidrumo – kas yra tikra, kas yra DI? Bet svarbiausia: prašau nereguliuoti per daug.

 

     Autoriai piešia atsakomybės matrioškos paveikslą: didelės rizikos DI teikėjas galėtų būti maža įmonė, kuri toliau plėtojo bendrosios paskirties DI, kuri savo ruožtu galėtų būti pagrįsta „pagrindų modeliu“, kurį sukūrė mažas kūrėjas arba net korporacija. Užuot pradėjus nuo esmės, DI reglamentas turėtų laikytis rizika pagrįstos koncepcijos: sutelkti dėmesį į sistemas, naudojimą ir riziką ir taip apsaugoti kūrėjus ar net atvirojo kodo veiklą. Dėl skaidrumo, įskaitant vandens ženklus, dirbtinis intelektas turėtų būti atpažįstamas.

 

     Straipsnyje pažodžiui sakoma: „Todėl rekomenduojame per daug nereguliuoti visų atsakomybės paskirstymo aspektų ir detalių labai ilgoje, sudėtingoje ir nuolat besikeičiančioje DI vertės grandinėje“. Pramonei patiks vokiečių ir prancūzų požiūris – ES Parlamentui ir taip pat.  Tokios vartotojų teisių apsaugos organizacijos kaip Europos vartotojų asociacija BEUC, tikriausiai, to nedaro. BEUC taip pat pasisako už specialias pagrindinio DI taisykles, neatsižvelgiant į rizikos scenarijų.

 

     Prašome nekelti ginčų tarp šviesoforų!

 

     Tačiau ES nėra viena pasaulyje: G7 šalių skaitmeniniai ministrai ir EBPO taip pat ėmėsi dirbtinio intelekto reguliavimo. Hirosimos dirbtinio intelekto procese jie nori vaikščioti tuo pačiu lynu: pasitikėjimu, teisiniu tikrumu, naujovėmis, rizikos valdymu, atsakomybės matrioška. Šviesoforas čia taip pat netiesiogiai išbandomas: G-7 procesą koordinuoja Skaitmeninė ministerija, vadovaujama Volkerio Wissingo, FDP, o dirbtinio intelekto reguliavimo darbą dalijasi federalinis ekonomikos ministras Robertas Habeckas (žalieji) ir Federalinis teisingumo ministras Marco Buschmannas (FDP).

 

     Todėl pramonės atstovai narsiai palaiko spaudimą: „Bitkom“ nori išvengti pagrindinių dirbtinio intelekto reguliavimo ir laikytis rizika pagrįsto požiūrio, kurį iš pradžių pasiūlė ES Komisija, dar gerokai anksčiau, nei „ChatGPT“ apvertė pasaulį aukštyn kojomis. Tačiau asociacijai rūpi ir kitas rūpestis: kaip vyks keitimasis informacija pagal atsakomybės matriošką. Kiekvienas, kuris toliau plėtoja teikėjo DI, gali susidurti su nežinoma atsakomybės rizika (žr. F.A.Z. Pro nuo rugsėjo 12 d.).

 

     Kitas didelis galvos skausmas yra autorių teisės ir klausimas, ar gpAI sistemos teikėjai turi dokumentuoti mokymams naudojamus kūrinius. Ypač Prancūzija turi parodyti savo spalvas: praeityje jokia šalis taip karštai nepasisakė už autorių teises skaitmeniniame amžiuje. Bet kas žino: galbūt naujasis noras turėti EU ChatGPT yra stipresnis už senus įpročius." [1]


1.  Scholz und Macron träumen von EU-ChatGPT. Von Hendrik Wieduwilt. Frankfurter Allgemeine Zeitung (online) Frankfurter Allgemeine Zeitung GmbH. Oct 3, 2023.

Scholz and Macron Dream of EU ChatGPT.

   "Absolutely bridge day: This is perhaps the toughest week of the year for lobbyists. The EU really wants a piece of the AI cake, and the cut is looming in Hamburg next week. Many hands are now wielding the blade.

 

     The German-French engine could start humming again. The governments of the two countries will meet in Hamburg next week and want to agree on a line on AI regulation. The EU is currently setting the course for the revolution; the all-important AI regulation is scheduled to be negotiated in a trilogue on October 25th. The central question is: How closely does Europe regulate a technology that is chronically unpredictable and at the same time considered a fast track for economies around the world?

 

     It's digital déjà vu: As it has often done before, the EU dreams of finally catching up with the Americans. After a European search engine, a European Wikipedia, European social networks and European clouds, it should now work - with an EU ChatGPT.

 

     France has often resorted to slowing down US competition through regulations, but in June it proposed a different strategy: an overtaking maneuver, so to speak. French ministers warned against squandering this new “opportunity for productivity” (this is likely to mean that of French AI companies such as Mistral AI). The federal government is also sending business-friendly signals to Brussels, and industry associations like Bitkom are writing paper after paper.

 

     The EU Parliament can feel addressed by this concert: it is now facing headwinds not only from industry, but also from governments. The reason for this is the MPs' delicate regulatory approach: They want to regulate AI at the core - i.e. where the technology does not yet paint pictures, write texts or simulate people, but is an artificial brain that can be used for all of this later.

 

     Please no legal uncertainty!

 

     This core is referred to as “Foundation Models”, a term from Stanford University. It is a model trained on an extremely broad database that can do anything if you install it in appropriate environments. At the core of the infamous ChatGPT is a “Foundation Model”. The term is closely related to “General Purpose AI”: This is an AI that can be used for purposes other than those originally intended, but is not trained on such an extreme data base. Yes, that's confusing - and that's why these very terms are being debated, because the last thing a new industry needs is legal uncertainty.

 

     The Commission and governments now fear for legal certainty. Because if a “foundation model” can do anything, it can do anything. In a statement, the F.A.Z. D:ECONOMY warned in mid-September: It advocates mandatory self-regulation instead of hard requirements. The background is likely to be warning calls from the industry: developers and start-ups would be hopelessly overwhelmed if they had to foresee what would be done with their core AI.

 

     The government is also concerned about terminology. "Above all, we suggest sharpening the definitions and making them more differentiated." In addition, one should speak of "general purpose AI systems" (gpAI), not of "foundation model", because: "What exactly this includes is not clear." Yes indeed.

 

     Please do not overregulate!

 

     Germany and France, together with Denmark, the Czech Republic, Estonia and Ireland, have outlined the possible course in a “non-paper” (which F.A.Z. D:ECONOMY also has). This unofficial paper reads like a sprint over a tightrope: responsibility is important, but so is sustainability. Authorities and companies need legal certainty, and citizen trust also requires transparency - what is real, what is AI? But above all: please do not over-regulate.

 

     The authors paint the picture of a responsibility matryoshka: The provider of a high-risk AI could be a small company that has further developed a general-purpose AI, which in turn could be based on a “foundation model” that was written by a small developer or a corporation. Instead of starting at the core, the AI regulation should stick to the risk-based concept: focus on systems, uses and risks and thereby protect developers or even open source activities. Transparency, including through watermarks, should make AI recognizable.

 

     The paper literally says: “We therefore recommend not going too far in regulating all aspects and details of the distribution of responsibility in the very long, complex and constantly evolving AI value chain.” The industry will like the German-French approach - the EU Parliament and also Consumer protection organizations such as the European Consumer Association BEUC probably do not. The BEUC also advocates for special rules for core AI, regardless of the risk scenario.

 

     Please no traffic light disputes!

 

     But the EU is not alone on the globe: the digital ministers of the G7 countries and the OECD have also taken up the cause of AI regulation. In the Hiroshima AI process, they want to walk the same tightrope: trust, legal certainty, innovation, risk management, responsibility matryoshka. The traffic light is also indirectly being put to the test here: the G-7 process is coordinated by the Digital Ministry under Volker Wissing, FDP, and work on the AI regulation is shared between Federal Economics Minister Robert Habeck (Greens) and Federal Justice Minister Marco Buschmann (FDP).

 

     The industry representatives are therefore valiantly keeping up the pressure: Bitkom wants to avoid core AI regulation and stick to the risk-based approach that the EU Commission originally proposed, long before ChatGPT turned the world upside down. But there is another concern for the association: how the exchange of information will proceed along the responsibility matryoshka. Anyone who further develops a provider's AI may be buying into unknown liability risks (see F.A.Z. Pro from September 12th).

 

     Another major headache is copyright and the question of whether providers of a gpAI system have to document the works used for training. France in particular has to show its colors here: no country in the past has advocated so fervently for the rights of authors in the digital age. But who knows: Maybe the new desire for an EU ChatGPT is stronger than old habits." [1]


1.  Scholz und Macron träumen von EU-ChatGPT. Von Hendrik Wieduwilt. Frankfurter Allgemeine Zeitung (online) Frankfurter Allgemeine Zeitung GmbH. Oct 3, 2023.

Nauja moralinė tvarka jau griūva

"Gerardas Bakeris rašinyje "Nauja moralinė tvarka jau griūva" (WSJ, Laisva raiška, rugsėjo 26 d.) užfiksuoja postmodernizmo esmę: sienų atvėrimą, siekį išvengti klimato pražūties ir tradicinės Vakarų kultūros atmetimą. 

 

Visa tai skamba taip šviesiai ir jaudinančiai – kol nepamatysi kainos etiketės.Mums yra pernelyg brangu, todėl negalime sau leisti, kad pasaulis gyventų tik iš mūsų pašalpų, negalime nuvaryti atgal šimtmečius trukusią pramonės pažangą, negalime atmesti vertybes, kurios ir sukūrė gerovę bei socialinę tvarką.

 

     Dana R. Hermanson

     Marietta, Ga.“ [1]

1. Our Postmodern Experiment. Wall Street Journal, Eastern edition; New York, N.Y.. 06 Oct 2023: A.16.