Sekėjai

Ieškoti šiame dienoraštyje

2023 m. birželio 13 d., antradienis

U.S. Eases Stance on Chip Makers in China --- South Korea, Taiwan firms get green light to operate, expand without reprisals.

"WASHINGTON -- The Biden administration plans to allow top semiconductor manufacturers from South Korea and Taiwan to maintain and expand their existing chip-making operations in China without U.S. reprisals, according to recent remarks by a senior Commerce Department official.

Some analysts say the move will weaken U.S. export controls designed to slow China's technological advance.

Alan Estevez, undersecretary of commerce for industry and security, told an industry gathering last week that the administration intended to extend existing exemptions from a U.S. export-control policy designed to restrict companies from selling chips and chip-making equipment to China, according to several attendees.

Last October, the U.S. implemented curbs on China's semiconductor sector but it also provided one-year exemptions to several companies -- including South Korea's Samsung Electronics and Taiwan Semiconductor Manufacturing -- that have invested billions of dollars to build plants in China.

Those exemptions were set to expire in October. Estevez told a meeting of the Semiconductor Industry Association, a trade group, that the exemptions would be renewed for the foreseeable future, according to the attendees. The Commerce Department declined to comment.

The status of the exemptions was closely scrutinized by companies and foreign governments to see how strictly the U.S. export curbs would affect investments in China beyond the fall.

The move to extend the exemptions, rather than winding them down, amounts to a recognition by U.S. authorities that efforts to isolate China from high-tech goods are more difficult than anticipated in a highly integrated global industry, according to industry executives. It also comes as some foreign businesses bristle at Washington's expanding interference in their operations.

The U.S. has sought to keep advanced chips out of Chinese hands by limiting the exports of chips and related chip-making equipment not only by American manufacturers but also those made by allies.

The U.S. has influence over Korean and Taiwanese chip makers because the companies rely on technology and equipment developed or manufactured by companies from the U.S., as well as from the Netherlands and Japan, where the governments have agreed to join the U.S. export-control efforts.

U.S. and foreign chip makers have resisted U.S. efforts to limit their business with China. Asian and European governments have also pushed back. The most vocal criticism has come from South Korea. China is by far its largest export market. Seoul, a close U.S. military and economic ally, is also careful not to anger Beijing, which has strong influence over North Korea.

U.S. officials in recent weeks said the U.S. doesn't seek to decouple from China. National security adviser Jake Sullivan said in an April speech that Washington's strategy is to limit restrictions to highly strategic technologies with "a small yard, high fence." Treasury Secretary Janet Yellen has said in speeches that a full separation from China's economy would be disastrous for both countries.

Others in Washington, particularly Republican lawmakers, want tougher stances on China. Sen. Marco Rubio (R., Fla.), in a May 30 letter, urged Commerce Secretary Gina Raimondo to strengthen the U.S. controls over technology exports, including chips: "Companies are hard at work to weaken and circumvent the rule's export controls."

Samsung, for one, has said it has curtailed some of its operations in China. A Samsung spokeswoman said the company only produces memory chips in China that don't require the most advanced technology, which she said was a business decision unrelated to geopolitical concerns.

The U.S. is also pressuring Asian manufacturers to curb their operations in China through the $53 billion Chips and Science Act. While wooing Samsung and TSMC with the program's incentives to build plants in the U.S., Washington has laid out expectations that such money would be awarded in exchange for companies limiting investment in China. Both chip makers have resisted such efforts.

The South Korean government and companies have asked the U.S. to reconsider those restrictions." [1]

1.  U.S. News: U.S. Eases Stance on Chip Makers in China --- South Korea, Taiwan firms get green light to operate, expand without reprisals. Hayashi, Yuka. 
Wall Street Journal, Eastern edition; New York, N.Y. [New York, N.Y]. 13 June 2023: A.2.

 

No Code tools and artificial intelligence in coding



https://codeornocode.com/no-code-tools/

 

"AI tools like Github Copilot or Amazon Codewhisperer already help programmers write code faster.

 

Just like in programming, a number of No Code tools are already starting to integrate AI into their programs. For example, in the "Bardeen" program, you can simply write in plain language what you want to achieve and it will automatically compose an automation task that can be edited."

 

 

 


No Code įrankiai ir dirbtinis intelektas kodo rašyme

https://codeornocode.com/no-code-tools/

 

"Tokie įrankiai kaip Github Copilot ar Amazon Codewhisperer jau programuotojams padeda greičiau rašyti kodą.

 

Taip pat kaip ir programavime, jau nemažai “No Code” įrankių pradeda integruoti DI į savo programas. Kaip pvz “Bardeen” programoje jau gali tiesiog paprasta kalba parašyti ką nori pasiekti ir jis automatiškai sudėlios automatizacijos užduotį, kurią galima redaguoti."



2023 m. birželio 12 d., pirmadienis

ChatGPT & Co: dirbtinio intelekto įstatymas Europai

"Europos Parlamentas susitarė dėl dirbtinio intelekto (AI) sistemos. Ir balsuoja dabar. Štai keturi požiūriai, ką tai reiškia.

„ChatGPT“ sprendimas po sunkių imtynių

Kai Zenner

2023 m. birželio 14 d. bus svarbi dirbtinio intelekto diena Europoje. Po 18 mėnesių trukusių derybų laukiama balsavimo dėl Europos Parlamento atsakymo į siūlomą AI reglamentą. ES Komisijos projektas buvo teisėkūros naujovė. Pirmą kartą produktų saugos ir žmogaus teisių apsaugos taisyklės buvo sujungtos, siekiant geriau įsisavinti specialiuosius AI sistemų kūrimo ir taikymo reikalavimus.

Pradinis taškas buvo suvokimas, kad dėl didėjančio dabartinių mašininio mokymosi ir gilaus mokymosi sistemų nenuspėjamumo, neskaidrumo ir sudėtingumo atsiranda vis daugiau teisinių spragų.

Be to, siekdama užtikrinti, kad naujieji reglamentai nesustabdytų Europos dirbtinio intelekto inovacijų, Komisija taip pat pasirinko rizika pagrįstą metodą. Siūlomame įstatyme laipsniškai atskiriamos mažos rizikos ir uždraustos dirbtinio intelekto technologijos. Pirmiesiems, pavyzdžiui, AI valdomam žaisliniam automobiliui, taikomos tik bendrosios teisės normos, nesvarbu, ar tai būtų ES žaislų direktyva, ar duomenų apsaugos ir jaunimo apsaugos įstatymas. Jei dirbtinis intelektas yra labai rizikingas, AI reglamento projekte jos teikėjams ir naudotojams nustatomi specialūs įpareigojimai. Kai taip yra, nusprendžiama pagal sritį, nuo švietimo iki teismų sistemos. Kai kurios dirbtinio intelekto sistemos, pvz., socialinis balas, pagal kurį žmonės klasifikuojami ir vertinami pagal jų socialinį elgesį, bus visiškai uždraustos.

Kodėl parlamentarams prireikė 43 techninių ir 12 politinių susitikimų, kad aptartų 89 AI reglamento konstatuojamąsias dalis, 85 straipsnius ir devynis priedus? To priežastys – siūlomo įstatymo sudėtingumas ir dviejų parlamentinių komitetų įtraukimas. Tačiau trys techninės priežastys buvo dar svarbesnės.

Pirma, ideologija: Europos Parlamente susidūrė du pasauliai – parlamento nariai, kurie galingas AI sistemas mato kaip grėsmę asmenims ir visuomenei, ir tie, kurie daugiausia dėmesio skiria technologijų teikiamoms galimybėms. Nors viena stovykla nemanė, kad dirbtinio intelekto reguliavimas buvo pakankamai toli, kita stovykla bijojo per didelio reguliavimo.

Antra, konceptualios problemos. Teisės akto pasiūlyme Komisija pasiūlė horizontalią sistemą, kuri vienodai traktuoja visas didelės rizikos dirbtinio intelekto sistemas pačius įvairiausius sektorius ir taikymo sritis. Tačiau, nepaisant partijų, deputatai greitai suprato, kad tai praktiškai neveikia. AI sistema, dalyvaujanti priimant sprendimus dėl prieigos prie viešųjų paslaugų, neturi naudoti jokių iškraipytų duomenų rinkinių apie bent ką. Su dirbtinio intelekto sistema, kuri dalyvauja, tiriant vaistus, naudojamus nėštumo metu, padėtis yra atvirkštinė: svarbūs tik vaisingo amžiaus moterų duomenys.

Trečia, sparti technologijų pažanga: net kai 2021 m. balandžio 21 d. buvo pristatytas dirbtinio intelekto įstatymas, jame esančios gaminių saugos taisyklės turėjo didelių sunkumų susidoroti su savarankiškai besimokančiomis ir besikeičiančiomis AI sistemomis. Tačiau 2022 m. lapkritį Open AI paskelbus ChatGPT AI sistemą, įstatymas buvo visiškai priblokštas. Technologija, neturinti fiksuoto tikslo ir be aiškių pritaikymų, keičiama, kaip skaitmeninis modeliavimo molis, konceptualiai net nepripažįstamas produktu pagal griežtas gaminio saugos taisykles.

Parlamento pasiektuose derybų rezultatuose ne tik labiau atsižvelgiama į kontekstą, kuriame naudojama didelės rizikos dirbtinio intelekto sistema, ir sprendžiami nauji ChatGPT keliami iššūkiai. AI reglamento taikymo sritis taip pat buvo patikslinta ir visiškai pritaikyta pripažintam EBPO AI apibrėžimui. Taip išvengta pavojaus, kad ateityje kiekvienas automatizuotas procesas, pavyzdžiui, Excel faile, bus suprantamas, kaip AI. EP nariai taip pat nustatė daug sutapimų su kitais ES teisės aktais, ypač su sektorių taisyklėmis dėl kibernetinio saugumo ir duomenų apsaugos, taip pat dėl ​​ medicinos ir finansinių produktų. Aiškus techninių derybų akcentas buvo Europos ir nacionalinių priežiūros institucijų struktūra ir galios. Šalys norėjo pasimokyti iš BDAR įgyvendinimo klaidų, pvz., skirtingų pagrindinių principų interpretacijų. Todėl buvo pasiūlytas aiškus suderinimas ES lygmeniu, kurį koordinavo Komisija ir sustiprintas AI biuras. Tačiau iki AI įstatymo įsigaliojimo dar reikia nuveikti ilgą kelią. Po balsavimo birželio 14 d., vadinamasis Europos Parlamento ir ES valstybių narių derybų žurnalas. Jei iki šių metų Kalėdų bus pasiektas susitarimas, siūlymas formaliai galėtų įsigalioti iki 2024 metų birželio 9 dienos – Europos Parlamento rinkimų dienos. Tačiau pereinamieji laikotarpiai iki 2026 m. vidurio reiškia, kad kūrėjai ir vartotojai dar turi pakankamai laiko pasiruošti naujoms taisyklėms.

„Briuselio efektas“ ir tai, kas vis dar trukdo

Autorius Axel Voss

Į planuojamą AI reglamentą galima žiūrėti kritiškai. Nepaisant to, teisinga ir svarbu reguliuoti šią technologiją. AI sistemos jau apverčia senus įpročius ir procesus aukštyn kojomis. Kur tiksliai slypi techninio tobulėjimo ribos, net tarp ekspertų yra labai prieštaringa. Todėl ES teisės aktų leidėjas turi įsikišti, jei nori užtikrinti, kad mūsų socialinė ir teisinė sistema galėtų tinkamai susidoroti su vis pažangesniais ir galingesniais kompiuteriais. Jei ES teisė taip pat bus subalansuota ir praktiška, tai galų gale netgi galėtų sukelti „Briuselio efektą“: kitos valstybės priimtų tvirtas ES teisės normas ir taip ne tik padidintų dirbtinio intelekto sistemų saugumą visame pasaulyje, bet ir sukurtų konkurencinį pranašumą Europai. Mūsų įmonės galėtų eksportuoti savo dirbtinio intelekto produktus ir paslaugas į užsienį be didelių koregavimų ir su de facto ES kokybės ženklu.

Nepaisant didelės pažangos, padarytos parlamento pranešime, įstatymo disbalansas ir toliau trukdo įgyvendinti šį teigiamą scenarijų. Iš 85 straipsnių 82 daugiausia dėmesio skiriama AI rizikai. Nors 2020 m. ES Komisijos paskelbtoje AI baltojoje knygoje vis dar buvo „puikybės ekosistema“ ir „pasitikėjimo ekosistema“, 2021 m. reglamentavimo pasiūlyme nurodoma tik pastaroji. Suderintas planas, kuriuo siekiama aprėpti kompetenciją, yra neįpareigojantis ir iki šiol jį įgyvendino tik pusėtinai valstybės narės. Kaip ES turėtų pasiekti tikslą pasivyti AI pasaulio lyderius?

Suskaidyta švietimo sistema, idėjų neperdavimas iš mokslo į pramonę, prasta infrastruktūra ir pernelyg ribojama duomenų apsauga reiškia, kad ES vis labiau atsilieka pasauliniu mastu.

Jei Komisija ir standartizacijos institucijos nesugebės laiku pateikti esminių gairių ir techninių standartų, skirtingos AI įstatymo interpretacijos dar labiau pablogins mūsų padėtį. Atsiradęs teisinis netikrumas žinotų tik vieną nugalėtoją: Amerikos technologijų milžinus. Tik jie, turėdami daugybę konsultantų ir teisininkų, gali greitai pritaikyti savo verslą prie naujų teisės aktų reikalavimų. Netgi didžiulės baudos vargu ar pastebimos metiniame balanse. Visai kitaip Europos konkurentai, ypač mažos ir vidutinės įmonės (MVĮ) ir pradedančios įmonės.

Vien dėl BDAR sankcijų daugelis atgrasė investuoti į didelių duomenų programas.

AI reguliavimas gali turėti panašų poveikį: sustiprinti AI technologijų milžinų rinkos galią ir visam laikui priversti Europos įmones pasitraukti iš rinkos.

Norint, kad dirbtinio intelekto reglamentas būtų sėkmės istorija, veiksmingai ginanti pilietines teises ir laisves, tuo pačiu skatinant naujoves, trišalėse derybose su valstybėmis narėmis reikia atkreipti dėmesį į keturis klausimus. Pirma, geresnis reglamentavimas: reikia nustatyti ir dar nuosekliau ištaisyti sutapimus ir prieštaravimus su daugeliu kitų ES skaitmeninių įstatymų ir sektorių taisyklių. Daugelis AI sistemų ir galimų naudojimo atvejų jau yra plačiai reglamentuojami. Todėl kiekvienu atveju būtina atidžiai patikrinti, ar AI įstatymas tikrai reikalingas ir kiek kitur jau patenkinami nauji jo reikalavimai. Antra, suderinimas visoje ES: turi būti užtikrinta, kad Airijoje ir Bulgarijoje būtų taikomos tos pačios taisyklės ir galimybės. Todėl, remiantis ES sutartimis, ES lygmeniu reikėtų apibrėžti didžiausią įmanomą kiekį ir atidžiau stebėti nacionalines priežiūros institucijas.

Jei, kaip ir BDAR atveju, valstybė narė imasi per daug veiksmų arba nesiima jokių veiksmų tam tikroms problemoms spręsti, Komisija turi įsikišti. Trečia, inovacijų skatinimas: turi būti gerokai patobulinta inovacijų teisinė ir finansinė bazė, pavyzdžiui, rengiant duomenų rinkinius, kad naujovės būtų naudingos ir įmonėms. Taip pat reikėtų pagalvoti apie „Nacionalinio standartų ir technologijų instituto“ (NIST) Europos atitikmenį iš JAV. Ketvirta, kalbama apie MVĮ ir besikuriančias įmones: jų gebėjimas diegti naujoves yra didžiulė Europos stiprybė, tačiau jos labiausiai nukenčia dėl sudėtingo ir brangaus ES skaitmeninių įstatymų laikymosi. Joms turėtų būti padedama ne tik su daugiau išimčių taisyklių. Atsižvelgiant į dominavimą rinkoje, kai kurios korporacijos taip pat turėtų įsikišti į AI vertės grandinę, kad užtikrintų informacijos srautą tarp visų veikėjų. Tik turėdamas reikiamų žinių apie įmontuotus išorinius komponentus, AI startuolis iš Europos galiausiai galės atitikti AI įstatymo reikalavimus savo produktui ar paslaugai.

AI reglamentas turi pasiimti su savimi ekonomiką

Autorius Monish Darda

Istoriškai dėl reguliavimo technologija tapo atsakingesnė, saugesnė ir etiškesnė. AI, o ypač generatyvinio AI, atveju tai nesiskiria. ES dirbtinio intelekto įstatymo projektas turi puikių požiūrių ir tokia forma pralaužia naują kelią. Rizika pagrįstas metodas, pagal kurį reguliuojamos didelės rizikos programos konkrečiai ir, taikant specialius įpareigojimus, o „bendrosios paskirties“ AI taikomas bendrosios taisyklės, iš esmės gali pasiūlyti daug. Tai leidžia atsakingai diegti naujoves didelės rizikos srityse. Specialūs įpareigojimai, taikomi vadinamųjų pagrindų modelių, pvz., ChatGPT, teikėjams, gali būti veiksminga priemonė, kovojant su generatyvaus AI pavojais. Tokios tarptautinės bendrovės, kaip Icertis, požiūriu, sąžiningam AI reguliavimui Europoje svarbūs penki punktai.

Lengvas naudojimas ir teisinis aiškumas: taisyklės turi būti lengvai suprantamos, jei jų reikia laikytis. Jos turi papildyti esamus reglamentus, o ne prieštarauti jiems arba su jais sutapti. Aiškiai apibrėžtos taikymo ribos, mokymo duomenų kokybės gairės ir įmanomi paslaugų teikėjams bei naudotojams taikomi reglamentai yra naudingi dirbtiniam intelektui. Visų pirma, turi būti aiškus pačios sudėtingos dirbtinio intelekto sąvokos apibrėžimas, kad įstatymas turėtų fiksuotą taikymo sritį.

Pasauliniai standartai: visame pasaulyje turi būti pasiektas sutarimas dėl reguliavimo, atsižvelgiant į konkrečius regioninius poreikius. Reguliavimas, kuriuo neatsižvelgiama į šias pasaulines realijas, galiausiai, kenkia konkurencingumui ir tolimesnėms naujovėms. Dirbtinio intelekto reguliavimo pagrindas turi būti tarptautiniu susitarimu, kad stipriai reguliuojami regionai neatsiliktų nuo kitų, kurie mažai reguliuoja, ir atvirkščiai. Turime pradėti siekti sutarimo dabar, nes tam reikia laiko. Būtų svarbus pasiekimas, jei įstatyme būtų nustatyti tam mechanizmai.

Riziką atitinkantis reguliavimas: genų inžinerijos teisės reikalavimai žmogaus klonavimui yra daug griežtesni, nei pasėlių genetinės modifikacijos. AI reglamentas turėtų sutelkti dėmesį į AI programas, kurios iš tikrųjų pakeičia įžvalgas arba realizuoja naują turinį. Reguliavimo reikalavimai turi būti pagrįsti žmogaus poveikiu. AI įstatymo projekte tai atsižvelgiama į tai – tai taip pat turėtų apibūdinti trišalį dialogą.

Reguliavimo laikymasis turi būti ekonominė paskata: jei reguliavimą finansuoja tie, kurie yra reguliuojami, tai turi didesnę galimybę pasisekti, nes yra finansinių paskatų jį įgyvendinti. Tai verčia įmones visame technologijų gyvavimo cikle susiburti ir dirbti, savo vardu siekiant bendrų reguliavimo tikslų. AI pasaulyje tai įmanoma dabar, o ne vėliau. Terminas „AI“ turi turėti teigiamą atspalvį, jei jis turi būti įdomus įmonei. Jei tai turi neigiamą reikšmę, tai kenkia įmonės, naudojančios šią technologiją, rinkos vertei. Šiuo metu iššūkiai yra ne tik ypač dideli AI įstatymui. „Duomenų įstatymo“ projektu taip pat norima sukurti Europos duomenimis pagrįstų verslo modelių ekosistemą be jokių realių paskatų ekonomikai joje dalyvauti.

Mažų ir vidutinių įmonių apsauga nuo bankroto: istoriškai didelės įmonės geriau atlaiko reguliavimo pokyčius, nes jos planuoja į priekį ir turi daugiau išteklių. Tik reguliavimas su laipsniškomis sankcijų struktūromis, kuriomis siekiama apsaugoti dideles ir mažas įmones, yra priimtinas praktikoje ir turi sėkmės galimybę. Inovacijos kyla iš įmonių, kurios, siekdamos augti, pasikliauja naujų technologijų taikymu. Pagalvokite apie „Google“ ar „Meta“, jie dažnai iškildavo, kaip naujos įmonės, kurios virto technologijų milžinais, naudojančiais griaunančias technologijas. AI taip pat dažnai platina jauni, šviesūs protai. Ypatingas iššūkis trišalio dialogo metu yra rasti tinkamus „atvirojo kodo pasiūlymų“ sprendimus. Europa turi skatinti daugelio šviesių protų kūrybiškumą ir sukurti saugią teisinę bazę jų darbui ir čia neturi per daug reguliuoti.

Jei Europa nori įsitvirtinti pasaulyje, tada AI reguliavimas turi būti pragmatiškas. Jis turi remti dideles ir mažas įmones ir skatinti eksperimentuoti. Tačiau tuo pat metu reguliavimas turi leisti valdyti dirbtinį intelektą taip, kad būtų apsaugoti pagrindiniai etikos ir teisės principai, įskaitant privatumą. AI įstatymo projektas turi potencialo, o pasaulis su jauduliu, viltimi ir lūkesčiais stebi, ar įstatymas pasiseks.

AI kaip iš anksto nustatytas teisinės valstybės lūžio taškas

Autorius Rolfas Schwartmanas

Jungtinėse Valstijose vienai oro linijų bendrovei buvo iškelta byla dėl žalos atlyginimo. Du advokatai dabar yra teisme, nes jie naudojo ChatGPT, pateikdami ieškinį, o robotas tiesiog sukūrė precedentus, kurie buvo pateikti. Botas pastebėjo, kad teismų praktikos sistemoje reikia tinkamų bylų – ir pradėjo elgtis kūrybiškai. Remiantis ES Parlamento požiūriu į AI reglamentą, „bendrosios paskirties AI“, kaip ir ChatGPT programa, savaime nėra rizikingas. Tik „Pagrindo modelio“, t. y. modelio, kurio paraiškos pagrindas yra daug duomenų, teikėjams taikomi specialūs įsipareigojimai naujai sukurtame straipsnyje. Jei jų laikomasi, jais pagrįstas robotas laikomas saugiu.

Skamba įtikinamai, kad pavojinga ne technologija, o ja besinaudojantys žmonės. O kas, jei žmogus, kuris pagal AI reglamentą turi nuspręsti, ar paspausti sustabdymo mygtuką, naudoja technologiją, kurios jis negali nei suprasti, nei įvaldyti? Tokios programinės įrangos kaip „ChatGPT“ naudojimas yra pagrįstas AI modeliu, kurio duomenų bazė nėra skaidri apie jo kilmę ir kuriame nesvarbu, kas teisinga, neteisinga, leidžiama, draudžiama, reikšminga kontekstui, beprasmiška ar net žalinga. Tai tarsi laukinis dirbtinis gyvūnas, kurio beveik neįmanoma prisijaukinti. Visiems, kurie naudojasi ChatGPT, kaip teisininku, leidžiama veikti pagal AI reglamento projektą. Naudojimui taikomos bendrosios taisyklės. Jeigu teisminiame procese advokatas tyčia pateikia melagingus faktus, tai gali būti sukčiavimas. Tačiau teisėjas pats turi išnagrinėti įstatymą. Jei jis naudoja ChatGPT, pavyzdžiui, tirdamas, vedęs teisinį dialogą dėl bylos ar net priimti sprendimo pasiūlymą sprendime, tai yra sudėtinga. Bet kokiu atveju teisinės skaitmeninės kompetencijos nepakanka, jei roboto funkcijos negalima nei suprasti, nei įsisavinti, bet duoda tikėtinus rezultatus. Atsargiam ir apdairiam teisėjui ši sistema nereikalinga. Sistemai nereikia kito teisėjo, gali būti provokuojanti tezė dėl ChatGPT naudojimo.

Bavarija ir Šiaurės Reinas-Vestfalija pradėjo projektą, skirtą sukurti „generatyvinį teismų sistemos kalbos modelį“, kuris skirtas, pavyzdžiui, palengvinti teismus masinėse bylose. Kalbama apie vartotojų apsaugą su scheminiais teisinio įgyvendinimo civilinėje teisėje testais, pavyzdžiui, „dyzelino bylose“. Kovojant su nusikalstamumu, tinkamas dirbtinio intelekto naudojimas laikomas būtinu ne tik, veiksmingai veikiančiai, konstitucinei valstybei, ne tik internetiniams nusikaltimams. Teismų sistemos robotai turėtų būti susiję ne su tokiais dalykais, kaip „ChatGPT“, o su specialiais modeliais ir jais pagrįstomis sistemomis su aiškia atskaitomybe. Jie turėtų būti apmokyti, naudojant atrinktus duomenis, pavyzdžiui, iš teisinių ir sprendimų duomenų bazių, taip pat pagal skaidrius kriterijus pateikiama literatūra ir atnaujinama realiuoju laiku.

Kažkas panašaus kainuoja didelius pinigus. Valstybinis duomenų centras, galbūt ir privati ​​įmonė, turėtų prisiimti atsakomybę už duomenų bazę, sistemos mokymą ir veikimą, jos optimizavimo tikslus ir kontekstus bei sprendimų koridorių. Jei reikia, visos šalys turėtų turėti galimybę ja naudotis pagal nustatytas taisykles, kad būtų galima suabejoti rezultatais – pavyzdžiui, peržiūrint. Botas gali būti traktuojamas, kaip kažkoks ekspertas, nors ir labai toli siekiantis. Ekspertų išvados dažnai priimamos, bet ne nematomos. Iš esmės ekspertai skiriami pagal jų kompetenciją, galimos ir priešingos nuomonės – tai turėtų galioti ir AI. Jei atskleidžiate AI juodraščius, netikėti sprendimai, pažeidžiantys teisę būti išklausytam, neįtraukiami. Tačiau požiūris yra rizikingas. Jei dirbtinio intelekto sistemos konkuruoja tarpusavyje, kaip šachmatų kompiuteriai ir gali patikrinti tik save, teisinė valstybė panaikinama.

Todėl kalbos modeliui turėtų būti suteikta tiksli informacija apie tai, kur yra jo pagalbinės veiklos ribos, ir jis turėtų leisti praktikuojančiam teisininkui savarankiškai priimti teisminį ar teisminį sprendimą. Konkrečiu atveju kompiuteris turėtų patikimai ir skaidriai atskleisti, kokius parametrus ir kokiais duomenimis kokiam kontekstui remiasi jo pasiūlymas. Šiuo pagrindu žmogus gali sukurti teisingumą.

Bet kaip jis tai padarė? Jis neturėtų drąsiai sekti skaitmeniniu kūrėju, bet išnagrinėti jo pasiūlymą su būtinu nepasitikėjimu, ir tai išlieka jo problema. Gydytojas, norintis atmesti AI diagnozę, taip pat turi tai. Tačiau atvejai iš esmės skiriasi. Gydytojui AI diagnozę ir jo abejones pacientui išaiškinus skaidriai, pacientas turi priimti savarankišką ir atsakingą sprendimą. Teismai sprendžia trečiąsias šalis ir vykdo valstybės valdžią žmonių vardu, nesvarbu, ar jie to nori, ar ne. Jei dirbtinio intelekto projektai, tokie, kaip ekspertų nuomonės, patenka į procesą, reikėtų imtis veiksmingų atsargumo priemonių, kad nebūtų perduota atsakomybė. Ateityje paties teisėjo indėlis gali būti pagrįsti, kodėl AI teisingai užfiksavo faktus, įvardijo visus esminius dalykus, o neesminius paslėpė. Ir kodėl priimtas rezultatas. Jei teisėjas tai daro savarankiškai, išmintingai ir kruopščiai, tada ši sistema yra tinkama. Priešingu atveju jis pristato teisėją robotą. Jei čia padarysime klaidų, AI naudojimas teismuose gali tapti teisinės valstybės lūžio tašku.

Kai Zenneris yra Axelio Vosso biuro Briuselyje vadovas ir dalyvavo derybose dėl Europos Parlamento pasiūlymo.

Axel Voss (EP narys) yra PPE pranešėjas Europos Parlamente dėl dirbtinio intelekto reglamento.

Monish Darda yra CTO ir Icertis, tarptautinio sutarčių gyvavimo ciklo valdymo programinės įrangos tiekėjo, vienas iš įkūrėjų.

Profesorius dr Rolfas Schwartmannas vadovauja Kelno taikomųjų mokslų universiteto žiniasklaidos teisės tyrimų centrui, yra Duomenų apsaugos ir duomenų saugumo draugijos (GDD) e.V. pirmininkas ir specializuoto žurnalo „Recht der Datenverarbeitung“ (RDV) vienas iš redaktorių."


ChatGPT & Co: An Artificial Intelligence Law For Europe

"The European Parliament has agreed on a framework for artificial intelligence (AI). And vote is now. Here are four perspectives on what that means.

A solution to ChatGPT after tough wrestling

By Kai Zenner

June 14, 2023 will be an important day for artificial intelligence (AI) in Europe. After 18 months of negotiations, the European Parliament's response to the proposed AI regulation is up for a vote. The EU Commission's draft was a legislative novelty. For the first time, rules on product safety and the protection of human rights were combined in order to better master the special requirements in the development and application of AI systems.

The starting point was the realization that the increasing unpredictability, opacity and complexity of current machine learning and deep learning systems are increasingly creating legal gaps.

At the same time, to ensure that the new regulations do not stall European innovation in AI, the Commission also chose a risk-based approach. The proposed law makes a gradual distinction between low-risk and banned AI technologies. The former, such as an AI-controlled toy car, is only subject to the general rules of law, be it the EU toy directive or data protection and youth protection law. If an AI is highly risky, the draft AI regulation imposes special obligations on its providers and users. When this is the case is determined by area, from education to the judiciary. A few AI systems, such as social scoring, which classifies and evaluates people according to their social behavior, will be banned entirely.

Why did parliamentarians need 43 technical meetings and 12 political meetings to discuss the 89 recitals, 85 articles and nine annexes of the AI regulation? The reasons for this are the complexity of the proposed law and the inclusion of two parliamentary committees. But three technical reasons were even more important.

First, ideology: Two worlds collided in the European Parliament – Members of Parliament who see powerful AI systems as a threat to individuals and society, and those who primarily focus on the opportunities offered by the technology. While one camp did not think AI regulation went far enough, the other camp feared over-regulation.

Second, conceptual problems: With the legislative proposal, the Commission proposed a horizontal framework that treats all high-risk AI systems in the most diverse sectors and areas of application equally. However, across party lines, the deputies quickly realized that this does not work in practice. An AI system that is involved in making decisions about access to public services must not use any distorted data sets. With an AI system that is involved in research into drugs for pregnancy, the situation is reversed: Only the data from women of childbearing age are relevant.

Thirdly, the rapid technological progress: Even when the AI law was presented on April 21, 2021, the product safety rules it contained had great difficulty coping with the self-learning and changing AI systems. However, with the ChatGPT AI system published by Open AI in November 2022, the law was completely overwhelmed. A technology without a fixed purpose and without clear applications, changeable like digital modeling clay, is conceptually not even recognized as a product by the rigid product safety rules.

The result of the negotiations now achieved by Parliament not only takes more account of the context in which the high-risk AI system is used and addresses the new challenges posed by ChatGPT. The scope of the AI regulation has also been specified and fully adapted to the recognized OECD AI definition. This averted the danger that in the future every automated process, for example in an Excel file, would be understood as AI. MEPs also fixed many overlaps with other EU laws, notably with sectoral rules on cybersecurity and data protection, as well as on medical and financial products. The clear focus of the technical negotiations was the structure and powers of European and national supervisory authorities. There was a cross-party will to learn from the implementation errors in the GDPR, such as the different interpretations of core principles. Consequently, a clear harmonization at EU level was proposed, coordinated by the Commission and a strengthened AI office. However, there is still a long way to go before the AI Act comes into force. After the vote on June 14, the so-called trilog negotiations between the European Parliament and the EU Member States. If an agreement is reached by Christmas this year, the proposal could formally come into force by June 9, 2024, the day of the European elections. However, transitional periods until mid-2026 mean that developers and users still have plenty of time to prepare for the new rules.

The “Brussels Effect” and what still stands in its way

By Axel Voss

The planned AI regulation can be viewed critically. Nevertheless, it is right and important to regulate this technology. AI systems are already turning old habits and processes upside down. Exactly where the limits of technical development lie is extremely controversial, even among experts. The EU legislator must therefore intervene if he wants to ensure that our social and legal system can deal adequately with increasingly intelligent and powerful computers. If the EU law is also balanced and practical, it could even trigger a "Brussels effect" in the end: other states would adopt the robust EU legal norms and thus not only increase the security of AI systems around the world, but also create a competitive advantage for Europe. Our companies could export their AI products and services abroad without major adjustments and with a de facto EU seal of quality.

Despite the great progress made in the parliamentary report, the law's imbalance continues to stand in the way of this positive scenario. Out of 85 articles, 82 focus on the risks of AI. While there was still an “ecosystem of excellence” and an “ecosystem of trust” in the AI White Paper published by the EU Commission in 2020, the regulatory proposal of 2021 only features the latter. The coordinated plan, which is intended to cover excellence, is non-binding and has so far only been implemented half-heartedly by the member states. How is the EU supposed to achieve the goal of catching up with the AI world leaders?

The fragmented education system, the lack of transfer of ideas from science to industry, the poor infrastructure and overly restrictive data protection mean that the EU is falling further and further behind globally.

If the Commission and standardization authorities do not manage to provide the essential guidance and technical standards in good time, the different interpretations of the AI Act will make our situation even worse. The resulting legal uncertainty would know only one winner: the American tech giants. Only they are in a position, with a host of consultants and lawyers, to quickly adapt their business to the new legal requirements. Even massive fines are hardly noticeable in the annual balance sheet. Quite different for the European competitors, especially for small and medium-sized enterprises (SMEs) and start-ups.

The mere existence of GDPR sanctions has discouraged many from investing in big data applications.

AI regulation could have a similar effect: strengthen the market power of tech giants in AI and force Europe's companies out of the market for good.

In order for the AI regulation to be a success story that efficiently protects civil rights and freedoms while at the same time promoting innovation, four points in particular must be addressed in the trilogue negotiations with the member states. First, better regulation: Overlaps and contradictions with the many other EU digital laws and sectoral rules must be identified and remedied even more consistently. Many AI systems and possible use cases are already extensively regulated. It is therefore necessary to check carefully in each case whether the AI Act is really necessary and to what extent its new requirements are not already being met elsewhere. Secondly, EU-wide harmonisation: it must be ensured that the same rules and opportunities apply from Ireland to Bulgaria. Therefore – within the framework of the EU treaties – the maximum possible should be defined at EU level and the national supervisory authorities should also be more closely watched.

If, as with the GDPR, a Member State takes too much action or does not take any action at all against certain problems, the Commission must intervene. Thirdly, the promotion of innovation: The legal and financial framework for innovation, for example when training data sets, must be significantly improved so that innovation is also worthwhile for companies. A European counterpart to the “National Institute for Standards and Technology” (NIST) from the United States should also be considered. Fourth, it's about SMEs and start-ups: their ability to innovate is Europe's great strength, but they suffer the most from difficult and expensive compliance with EU digital laws. They should not only be helped with more exception rules. Given the market dominance some corporations should also intervene in the AI value chain to ensure the flow of information between all actors. Only with the necessary knowledge about the built-in external components will the AI start-up from Europe ultimately be able to meet the requirements of the AI law for its product or service.

The AI regulation must take the economy with it

By Monish Darda

Historically, regulation has made technology more responsible, safer, and more ethical. In the case of AI, and especially generative AI, it is no different. The draft of the EU AI law has remarkable approaches and is breaking new ground in this form. The risk-based approach, which regulates high-risk applications specifically and through special obligations, while "general purpose" AI falls under the general rules, has a lot to offer in principle. It enables responsible innovations in high-risk areas. The special obligations for providers of so-called foundation models, such as those behind ChatGPT, can prove to be an effective means of combating the dangers of generative AI. From the point of view of an international company like Icertis, five points seem important for fair AI regulation in Europe.

Ease of use and legal clarity: Regulations must be easy to understand if they are to be followed. They must complement existing regulations, not work against them or overlap with them. Clearly defined application boundaries, guidelines for the quality of training data and feasible regulations for providers and users are useful for AI. In particular, there must be clarity in the definition of the complex concept of AI itself so that the law has a fixed scope of application.

Global standards: Consensus on regulation needs to be established across the globe, taking into account specific regional needs. Regulation that fails to respect these global realities ultimately harms competitiveness and further innovation. The basis of AI regulation must be internationally consensual so that heavily regulated regions do not fall behind others that regulate little - and vice versa. We need to start building consensus now, because it takes time. It would be an important achievement if the law could establish mechanisms for this.

Risk-appropriate regulation: The requirements of genetic engineering law for human cloning are much stricter than for the genetic modification of crops. AI regulation should focus on AI applications that actually transform insights or realize new content. Regulatory requirements must be based on human impact. The draft of the AI law takes this to heart - this should also characterize the trilogue.

Compliance with regulation must be an economic incentive: if regulation is funded by those who are being regulated, it has a greater chance of succeeding because there are financial incentives for its implementation. It is forcing companies across the technology lifecycle to come together and work on their own behalf towards the common goals of regulation. In the world of AI, this is possible now rather than later. The term "AI" must have a positive connotation if it is to carry by a company. If it has negative connotations, it is detrimental to the market value of the company using this technology. At this point, the challenges are not only particularly great for the AI law. The draft of the "Data Act" also wants to create a European ecosystem for data-driven business models without any real incentives for the economy to participate in it.

Bankruptcy protection for small and medium-sized companies: Historically, large companies weather regulatory changes better because they plan ahead and have more resources. Only regulation with graduated sanction structures that try to protect large and small companies enjoys acceptance in practice and has a chance of success. Innovation comes from companies that rely on the adoption of new technologies to grow. Think of Google or Meta, they often emerged as start-ups that developed into tech giants using disruptive technology. AI is also often spread by young, bright minds. A particular challenge during the trilogue is to find appropriate solutions for "open source offers". Europe must promote the creativity of the many bright minds and create a secure legal framework for their work and must not regulate too much here.

If Europe wants to establish itself in the world, then AI regulation must be pragmatic. It must support large and small companies and encourage experimentation. At the same time, however, regulation must allow for the control of AI in a way that protects fundamental principles of ethics and law, including privacy. The draft AI law has potential and the world is watching with excitement, hope and expectations that the law will succeed.

AI as a predetermined breaking point of the rule of law

By Rolf Schwartman

In the United States, an airline has been sued for damages. Two lawyers are now in court because they used ChatGPT to file the lawsuit, and the bot simply made up precedents that were presented. The bot noticed that you need suitable cases to win in the case law system - and got creative. According to the EU Parliament's approach to the AI regulation, "general-purpose AI", like the ChatGPT application, is not inherently risky. Only the providers of a "Foundation Model", i.e. the model trained with a lot of data as the basis of the application, are subject to special obligations in a newly created article. If they are complied with, the bot based on them is considered safe.

It sounds plausible that it is not the technology that is dangerous, but the people who use it. But what if the person who, according to the AI regulation, has to decide whether to press the stop button, uses a technology that he can neither understand nor master? The use of software like ChatGPT is based on an AI model whose database is not transparent about its origin and in which right, wrong, allowed, forbidden, meaningful for the context, pointless or even harmful does not matter. It is like a wild artificial animal that is almost impossible to tame. Anyone who uses ChatGPT as a lawyer is permitted to act in accordance with the draft AI regulation. The general rules apply to use. If the lawyer deliberately presents false facts in a court proceeding, then this can be fraud. However, the judge must examine the law himself. If he uses ChatGPT, for example to research, to conduct a legal dialogue on the case or even to adopt a solution proposal in the judgement, this is tricky. In any case, legal digital competence is not sufficient if the function of the bot can neither be understood nor mastered, but produces results that are plausible. The careful and prudent judge does not need this system. The system does not need the other judge, could be a provocative thesis for the use of ChatGPT.

Bavaria and North Rhine-Westphalia have started a project to develop a "generative language model of the judiciary", which is intended to relieve courts in mass proceedings, for example. This is about consumer protection with schematic tests for legal enforcement in civil law, for example in "diesel cases". In the fight against crime, an appropriate use of AI is not only regarded as indispensable for an effectively working constitutional state, not only in online crime. Bots in the judiciary should not be about something like ChatGPT, but about special models and systems based on them with clear accountability. These would have to be trained with selected data, for example from legal and judgment databases, as well as literature fed in according to transparent criteria, and updated in real time.

Something like that costs a lot of money. A state data center, perhaps also a private company, would have to take responsibility for the database, the training and operation of the system, its optimization goals and contexts and the corridor of decisions. If necessary, all parties should be able to use it according to fixed rules so that the results can be questioned - for example in the revision. The bot could be treated as some kind of expert, albeit a very far-reaching one. Findings from experts are often adopted. In principle, experts are appointed on the basis of their competence, and counter-opinions are possible - this should also apply to AI. If you disclose AI drafts, surprise decisions that violate the right to be heard are excluded. But the approach is risky. If AI systems compete against each other in the process like chess computers and can only check themselves, the rule of law is abolished.

The language model would therefore have to be given precise information as to where the limits of its auxiliary activity lie, and it would have to enable the legal practitioner to make his or her judicial decision autonomously. In a specific case, the computer would have to disclose reliably and transparently which parameters and which data for which context its suggestion is based on. On this basis man can create justice.

But how did he do it? He should not follow the digital mastermind with confidence, but examine his suggestion with the necessary mistrust, this remains his problem. The doctor who wants to reject an AI-assisted diagnosis also has this. However, the cases are fundamentally different. After the doctor has made the diagnosis of the AI and his doubts transparent to the patient, the patient must make a self-determined and responsible decision. Courts adjudicate third parties and exercise state authority over people on behalf of the people, whether they want it or not. If AI drafts such as expert opinions flow into a process, effective precautions against delegation of responsibility would have to be taken. In the future, the judge's own contribution may be to justify why the AI correctly recorded the facts, named all the essential points and hidden the unessential ones. And why the result is adopted. If the judge does this autonomously, wisely and thoroughly, then this system is suitable. Otherwise, it introduces the robot judge. If we make mistakes here, the use of AI in the judiciary can become the breaking point of the rule of law.

Kai Zenner is the head of Axel Voss' Brussels office and was involved in the negotiations on the European Parliament's proposal.

Axel Voss (MEP) is the EPP rapporteur for the AI regulation in the European Parliament.

Monish Darda is CTO and co-founder of Icertis, an international provider of contract lifecycle management software.

Professor dr Rolf Schwartmann heads the Cologne research center for media law at the Cologne University of Applied Sciences and is chairman of the Society for Data Protection and Data Security (GDD) e.V. and co-editor of the specialist journal "Recht der Datenverarbeitung" (RDV)."