„Vargu ar kuri nors kita technologija žada tokį didelį
produktyvumo padidėjimą ir kartu tokį aiškų sąnaudų skaidrumą kaip DI –
galimybė tiek įmonėms, tiek ekonomikai. Ir vis dėlto ja dažnai nepasinaudojama:
užuot veikę drąsiai, daugelis verslo ir politikos sprendimų priėmėjų
vadovaujasi baimėmis ir kognityviniais šališkumais. Jie nurodo duomenų apsaugą
arba randa kitų pasiteisinimų. Tačiau tie, kurie dvejoja, labai rizikuoja.
Dirbtinis intelektas laikomas pagrindine mūsų laikų
technologija. Jis žada efektyvesnius procesus, geresnius sprendimus ir visiškai
naujus verslo modelius. Tačiau daugelyje vietų nematyti jokių pokyčių ženklų.
Vietoj smalsumo – nervingumas, o vietoj inovacijų – blokada.
Neseniai dalyvavau DI renginyje, kuris turėjo įkvėpti
entuziazmo dėl ateities. Tačiau užuot konstruktyviai aptarus galimybes ir
pagrindines sąlygas, kaip dažnai nutinka, vienas po kito buvo išrikiuoti siaubo
scenarijai. Diskusijoje dalyvavo save DI ekspertu vadinantis asmuo, kuris taip
save vadina nuo pat „The Last Time“ išleidimo. ChatGPT. Jo pagrindinė žinutė:
kiekvienas, naudojantis „ChatGPT“, rizikuoja, kad neskelbtini duomenys atsidurs
JAV serveriuose ir bus pakartotinai panaudoti be priežiūros. Poveikis kambaryje
buvo akivaizdus. Daugelis jautėsi pateisinti savo sprendimu nenaudoti dirbtinio
intelekto.
Yra daugybė kitų pavyzdžių, kurie rodo panašų elgesio
modelį: įmonė atsisako dirbtinio intelekto palaikomos priežiūros programinės
įrangos, nes nėra tikra, ar mašinų duomenis galima laikyti asmeniniais.
Savivaldybė atsisako bandomojo eismo srautų optimizavimo projekto, nors
judėjimo duomenys galėtų būti visiškai anonimizuoti. Kas visiems šiems atvejams
bendro: inovacijoms trukdo ne pats duomenų netinkamas naudojimas, o jų baimė.
Ir ši baimė dažnai yra neracionali. Daugeliu atvejų ji atitinka psichologinius
modelius, gerai aprašytus elgsenos ekonomikoje.
Kaip psichologiniai mechanizmai trukdo investuoti į dirbtinį
intelektą
Pagrindinis mechanizmas yra nuostolių vengimas, kurį aprašė
Danielis Kahnemanas, Nobelio ekonomikos premijos laureatas ir elgsenos
ekonomikos pradininkas. Pagal šią teoriją daugelis žmonių galimus nuostolius
vertina labiau nei tokį pat didelį pelną. Hipotetinė reputacijos žala, kurią
sukelia duomenų apsaugos problema, dažnai atrodo grėsmingesnė nei realus
efektyvumo padidėjimas iš dirbtinio intelekto programos. Tai veda prie lemtingo
vengimo. elgesį. IT pramonėje dažnai sakoma: „Niekas niekada nebuvo atleistas
už tai, kad nusipirko SAP.“ Šios idėjos idėja yra ta, kad, pavyzdžiui,
nesėkmingas atvirojo kodo projektas kelia grėsmę asmeninei karjerai labiau nei
pernelyg brangus SAP diegimas. Šiandien iš esmės tiesa, kad niekas niekada
nebuvo atleistas už tai, kad blokavo dirbtinio intelekto projektą dėl duomenų
apsaugos priežasčių – nepaisant prarastų galimybių.
Be to, kiekvienas, kuris sustabdo projektą dėl duomenų
apsaugos priežasčių, yra moraliai saugus. Jam nereikia prisiimti atsakomybės už
nežinomą riziką ir tuo pačiu metu gali remtis aukštu etikos principu. Tai
patogu, užtikrina asmeninę apsaugą ir atrodo atsakinga. Ir tai net jei tai
trukdo kolektyvinei pažangai.
Dabartinis TU Darmštato dirbtinio intelekto monitorius,
reprezentatyvi daugiau nei 2000 dalyvių apklausa, atlikta bendradarbiaujant su
nuomonės tyrimų institutu „You-Gov“, taip pat nurodo duomenų apsaugą kaip
didžiausią riziką, susijusią su generatyvinio dirbtinio intelekto naudojimu –
lenkia haliucinacijas, žmogaus gebėjimų praradimą, informacijos kilmės
nežinojimą ir dirbtinio intelekto energijos suvartojimą. Stebina tai, kad
moterys dažniau nei vyrai išreiškia susirūpinimą, o technologiškai išprusę
asmenys vertina, kad rizika yra gerokai mažesnė nei tų, kurie turi mažiau
informacijos, o vyresnio amžiaus žmonės yra skeptiškesni, nei jaunesni.
Panagrinėkime, ar ir kiek šie nuogąstavimai yra tikrai pagrįsti.
Kainų ir produktų diferencijavimas: ką kiekvienas turi
žinoti
Daugelio duomenų apsaugos diskusijų pagrindinis klausimas
yra klausimas, ar į „ChatGPT“ ar panašius kalbos modelius įvedami duomenys yra
automatiškai išsaugomi, skaitomi ar naudojami modeliams mokyti. Atsakymas labai
priklauso nuo naudojamos versijos. Kaip ir daugelis programinės įrangos
gamintojų, dauguma žinomų dirbtinio intelekto įmonių taip pat užsiima kainų ir
produktų diferenciacija: panašios jų produktų versijos siūlomos skirtingomis
kainomis, siekiant maksimaliai padidinti pajamas.
Pavyzdžiui, atviroji dirbtinio intelekto įmonė siūlo savo
paslaugas keliomis versijomis – nuo nemokamos bazinės versijos iki „ChatGPT
Enterprise“ su išsamia duomenų apsauga ir garantuojamu duomenų izoliavimu.
Nors nemokama versija pagal numatytuosius nustatymus naudoja
vartotojo įvestį modeliams tobulinti, „Enterprise“ versija leidžia užšifruotą
duomenų perdavimą, įvesties nenaudojimą mokymo tikslais ir sutartimi
garantuojamą apdorojimą pagal konkrečiai įmonei taikomas duomenų apsaugos
gaires. „Google“ imasi panašaus požiūrio su savo „Gemini“ modeliais.
Duomenų apsauga: kodėl dirbtiniam intelektui dažnai taikomi
dvigubi standartai
Tačiau išankstinis nusistatymas, kad dirbtinis intelektas
yra priešiškas duomenų apsaugai, išlieka, kaip rodo minėtas pavyzdys iš įvykio:
generatyvinis dirbtinis intelektas tariamai yra duomenų apsaugos minų laukas.
Kalbos modeliai, tokie kaip „ChatGPT“, gali būti lengvai valdomi įmonių viduje
taip, kad jokia neskelbtina informacija nebūtų nutekinta neapsaugota. Viena
vertus, tai įmanoma visiškai viduje – su savo infrastruktūra, izoliuotuose
tinkluose ir aiškiai reglamentuotomis prieigos teisėmis. Tokiu atveju visi
įėjimai ir išėjimai lieka įmonės IT aplinkoje, o duomenų apsauga ir
konfidencialumas yra visiškai pačios įmonės rankose.
Kita vertus, debesijos operacijos taip pat gali atitikti
BDAR reikalavimus, jei jos remiasi profesionaliais pasiūlymais, kurie
garantuoja užšifruotą perdavimą ir nenaudoja įvesties mokymo tikslais.
Duomenų apsaugos požiūriu nėra esminio skirtumo tarp kalbos
modelių naudojimo ir, pavyzdžiui, „Outlook“ ar kitų įprastų el. pašto programų.
Abu gali būti valdomi pagal BDAR reikalavimus debesijos aplinkoje – net ir su
Amerikos tiekėjų, tokių kaip „Microsoft“ ar „Google“, infrastruktūra. Būtent
šis aspektas daugelyje debatų yra nepastebimas arba tiesiog nežinomas. O
praktiškai raginimuose paprastai nėra daugiau jautrios informacijos nei
įprastuose verslo el. laiškuose.
Europa išsiugdė refleksą būti atsargiam
Žinoma, didelės baudos už pažeidimus, numatytos BDAR ir ES
Dirbtinio intelekto įstatyme, taip pat kursto baimę. Šis netikrumas dažnai
sulėtina inovacijų tempą Europoje. Atsargumas šioje šalyje dažnai tampa
refleksu: vos tik paskelbiama apie naują technologiją, prasideda išsamios
diskusijos apie jos riziką, reguliavimą ir galimą neigiamą raidą. Šis
reikalavimas kruopštumui yra mūsų politinės kultūros dalis – ir ne be savo
privalumų. Tačiau pernelyg dažnai jis virsta paralyžiuojančiu laukimo ir
stebėjimo požiūriu, kuris mus atitraukia atgal į strategines ateities sritis.
Internetas yra pamokanti istorija: 1990-aisiais JAV ir
Azijos įmonės kūrė platformas, rinkas ir verslo modelius, o Europa ilgai
diskutavo apie galimą riziką, tokią kaip kontroliuojamumas, duomenų apsauga ir
technologinė branda. Iš tiesų, Timas Bernersas-Lee, interneto kalbos HTML
išradėjas, kritiškai vertino savo paties darbą. Tačiau tai nepakeitė pasaulinio
interneto triumfo. Istorija rodo, kad dėl tinklo efektų geriausios
technologijos dažnai neįveikia. Vertingiausios pasaulio įmonės daugiausia yra
iš JAV, ir būtent jos drąsiai priėmė naujas interneto technologijas anuomet.
Šiandien dirbtinio intelekto srityje patiriame déjà vu, ypač
svarbioje generatyvinio dirbtinio intelekto srityje. Pažvelkime į vadinamąją
pokalbių robotų areną. Tai platforma, kurioje lyginama skirtingų kalbų modelių
kokybė. Dešimties geriausiųjų sąrašas parodytas paveikslėlyje.
Reitinge pirmauja „Open AI“ su neseniai išleistu GPT-5
kalbos modeliu, kuris pakeitė ilgą laiką pirmąją vietą užėmusį „Google“ „Gemini
2.5-Pro“. Kiti „Open AI“ modeliai, taip pat „Open AI“ atšakos „Anthropic“ ir
Elono Musko „xAI“ kalbų modeliai taip pat yra tarp dešimties geriausiųjų. Taip
pat yra trys Kinijos modeliai. Kaip ir interneto atveju, Europa nevaidina jokio
vaidmens tiekėjo pusėje.
Kodėl net ir akivaizdžiai teigiama grąža neskatina veikti
Būtent todėl labai svarbu drąsiai judėti į priekį, bent jau
vartotojų pusėje. Generatyvusis dirbtinis intelektas (DI) turi potencialą
pakelti produktyvumą ir inovacijas į naują lygį – tai kartą per šimtmetį
pasitaikanti galimybė įvairaus dydžio įmonėms, pradedant korporacijomis ir
baigiant vidutinio dydžio įmonėmis. Daugybė tyrimų jau rodo reikšmingą
produktyvumo padidėjimą:
Bendras Stanfordo universiteto, Masačusetso technologijos
instituto (MIT) ir „Microsoft“ atliktas klientų aptarnavimo srities tyrimas
rodo, kad generatyvinio DI naudojimas 15 procentų padidina per valandą
išsprendžiamų klientų problemų skaičių. Produktyvumo padidėjimas buvo ypač reikšmingas
tarp mažiau apmokytų darbuotojų – šioje grupėje padidėjimas siekė net 36
procentus.
Kitas MIT tyrimas parodė, kad darbuotojai, naudodamiesi
„ChatGPT“, galėjo atlikti savo užduotis maždaug 35 procentais greičiau. Be to,
– ir tai dažnai pamirštama – ekspertai įvertino teksto ir turinio kokybę, taip
pat rezultatų originalumą. Rezultatas buvo tas, kad tekstai, sukurti naudojant
„ChatGPT“, veikė geriau nei tie, kurie nebuvo sukurti be DI pagalbos. „Boston
Consulting Group“ atliktas kontroliuojamas tyrimas pateikė panašius rezultatus.
„Frankfurter Allgemeine Zeitung“ dirbtinio intelekto
tinklalaidėje „Kärcher“ generalinis direktorius Hartmutas Jenneris praneša apie
maždaug valandos kasdienį darbo laiko sutaupymą.
Medžiagų tyrimų srityje MIT tyrimas rodo, kad tyrėjai, naudojantys
dirbtinį intelektą, naujas medžiagas atranda 44 procentais greičiau, patentus
pateikia 39 procentais anksčiau ir produktų prototipus kuria 17 procentų
greičiau.
Keletas tyrimų taip pat patvirtina panašų produktyvumo
padidėjimą programinės įrangos kūrimo srityje. Pasak Sundaro Pitchai,
„Alphabet“ ir „Google“ generalinio direktoriaus, dirbtinis intelektas dabar
generuoja daugiau nei 30 procentų naujo kodo „Google“.
Verslo vertinimui net nereikia verslo plano ar investavimo
modelio – galimybės tokios akivaizdžios. Be to, generatyvinio dirbtinio
intelekto sąnaudos yra palyginti skaidrios ir lengvai apskaičiuojamos.
Žinomos tiek licencijų (dažnai siekia 20 eurų vienam
vartotojui per mėnesį), tiek įvesties ir išvesties žetonų, skirtų naudoti API
pagrindu, sąnaudos.
Tai dar labiau nesuprantama, kodėl tiek daug įmonių dvejoja.
Kartais atrodo, kad jos praktiškai ieško pasiteisinimų nesiimti veiksmų – ar
tai būtų duomenų apsauga, tariamai prastėjanti Gartnerio kreivės pozicija, kuri
tariamai įrodo, kad generatyvinis dirbtinis intelektas smunka, unikalaus
pardavimo pasiūlymo trūkumas ar kiti rūpesčiai.
Pasaulis greičiausiai atrodys kitaip. Jensenas Huangas,
technologijų bendrovės „Nvidia“ generalinis direktorius, apibendrina tai taip:
„Jūsų darbą pakeis ne dirbtinis intelektas, o jį naudojantis žmogus. Tie, kurie
ignoruoja DI, konkurencijoje netrukus bus aplenkti tų, kurie jį naudoja.“
Atsargumas yra dorybė, tačiau jis neturėtų tapti neveiklumo
pasiteisinimu. Tie, kurie nesugeba nustatyti standartų pagrindinėje technologijoje,
nesvarbu, ar jie yra kūrėjai, ar vartotojai, tampa priklausomi nuo išorinių
tiekėjų. Taip elgdamiesi jie taip pat atsisako galimybės padėti formuoti
būsimus standartus. Daugeliu atvejų tai bus JAV arba Kinijos tiekėjai, kaip
rodo „Chatbot Arena“. Nuo tada, kai Donaldas Trumpas grįžo į JAV prezidento
postą, tai dar labiau pasakytina apie Europą. Tie, kurie atsilieka
technologiškai, rizikuoja ne tik ekonomine priklausomybe, bet ir geopolitiniu
pažeidžiamumu.
Europa susiduria su strateginiu pasirinkimu: arba išmoksime
pasinaudoti galimybėmis, kol jos visiškai neprarastos, arba tapsime
nuolatiniais technologinių inovacijų iš kitų pasaulio regionų vartotojais.
Laikas apie tai galvoti beveik baigėsi.
Tikrasis pavojus: sustoti vardan duomenų apsaugos
Žinoma, duomenų apsauga yra vertingas turtas, ypač
duomenimis pagrįstų technologijų amžiuje. Asmens duomenų apsauga niekada negali
būti pažeidžiama. Tačiau būtent dėl šios priežasties turime ją kurti taip,
kad ji sudarytų sąlygas inovacijoms, o ne joms trukdytų. Tačiau pernelyg dažnai
nutinka priešingai: dėl susirūpinimo dėl galimos rizikos projektai sustabdomi
gerokai anksčiau, nei galimybės ir rizika dar net pasvertos. Priežastys dažnai
būna psichologinis šališkumas arba žinių stoka.
Dėl to pastebimai susilpnėja mūsų padėtis. Startuoliai
tolsta, o investicijos teka ten, kur duomenų apsauga suprantama kaip principas,
kurį galima formuoti, o ne kaip inovacijų stabdys. Dėl to Europa ne tik švaisto
startuolius ir kapitalą, bet ir galimybę puikius tyrimų rezultatus ir
technologinį potencialą paversti rinkai aktualiomis inovacijomis. Atsakymas
slypi ne mažesnėje, o išmanesnėje duomenų apsaugoje – kaip neatsiejamos
projektavimo dalies, o ne kaip kliūtis proceso pabaigoje. „Privatumas
projektuojant“ vietoj visuotinės blokados.
Turint sveiką protą, patikimus tiekėjus ir aiškias
taisykles, generatyvinis dirbtinis intelektas jau šiandien gali būti naudojamas
laikantis duomenų apsaugos reikalavimų ir ekonomiškai efektyviai. Nuolatinis
mokymasis yra labai svarbus šio proceso svertas – ne tik įgūdžių ugdymui, bet
ir baimėms mažinti.
Be to, duomenų apsauga dažnai tėra matomiausias pretekstas.
Kaip minėta pirmiau, dažnai yra ir kitų priežasčių, kodėl neinvestuojama ir
renkamasi palaukti. Visi šie argumentai turi vieną bendrą bruožą: jie pateisina
neveiklumą neįvardydami dvejonių kainos.
Svarbiausias klausimas yra ne tai, ar galime, o tai, ar
norime. Ši technologija suteikia retą galimybę. Jei ją blokuosime bijodami
hipotetinių rizikų arba dėl pasitenkinimo prisiimti atsakomybę, prarasime
realias klestėjimo, konkurencingumo ir socialinės pažangos galimybes. Tie,
kurie susitelkia tik į galimą riziką, praranda naudą įmonėms ir ekonomikai.
Interneto istorija rodo, kad tie, kurie per ilgai svarsto, galiausiai derasi
tik dėl žaidimo taisyklių, o kiti jau seniai laimėjo žaidimą.
Peteris Buxmannas yra Darmštato technikos universiteto
verslo informatikos profesorius. Jis taip pat dirba verslo pasaulyje kaip
stebėtojų tarybos narys ir įmonės įkūrėjas, taip pat yra „Frankfurter Allgemeine
Zeitung“ tinklalaidės apie dirbtinį intelektą bendravedėjas.“ [1]
Kas yra „Enterprise“ analogas „Google“ dirbtiniame intelekte
įmonėms, gerai apsaugantis šių įmonių duomenis?
„Vertex AI“ yra geriausia „Google“ dirbtinio intelekto
platforma įmonėms, kurioms reikia apsaugoti duomenis. Ji veikia saugioje
„Google Cloud“ infrastruktūroje. „Google Workspace“ su „Gemini“ yra dar vienas
variantas, užtikrinantis integruotą dirbtinį intelektą produktyvumo įrankiuose.
Abi platformos užtikrina, kad klientų duomenys nebūtų naudojami viešiesiems
modeliams mokyti.
„Vertex AI“ platforma
„Vertex AI“ yra platforma, skirta įmonių dirbtinio intelekto
programoms kurti, diegti ir valdyti. Ji siūlo saugią aplinką, leidžiančią
įmonėms kontroliuoti savo duomenis ir modelius.
Pagrindinės duomenų apsaugos funkcijos:
Duomenų nuosavybė ir kontrolė: „Google“ teigia, kad klientų
duomenys nebus naudojami jos pačių didelių kalbos modelių (LLM) mokymui ar
tobulinimui be aiškaus leidimo. Jūsų duomenys, raginimai ir sugeneruoti
rezultatai lieka jūsų intelektine nuosavybe.
Duomenų izoliacija: Klientai gali vykdyti dirbtinio
intelekto darbo krūvius ir modelius izoliuotuose, privačiuose tinkluose
naudodami virtualų privatų debesį (VPC) ir privačių paslaugų prijungimą (PSC).
Tai apsaugo nuo neteisėtos išorinės prieigos prie neskelbtinų duomenų ir
modelių.
Konfidencialūs skaičiavimai: Konfidencialus dirbtinis
intelektas „Vertex AI“ šifruoja duomenis, kol jie apdorojami atmintyje. Tai
užtikrina, kad duomenys yra nepasiekiami net „Google“ vidinėms komandoms.
Duomenų anonimizavimas ir maskavimas: jautrių duomenų
apsaugos API gali automatiškai atrasti, klasifikuoti ir pašalinti iš
identifikatorių jautrią informaciją prieš ją naudojant modelio mokymui ar
analizei.
Kliento valdomi šifravimo raktai (CMEK): galite šifruoti
duomenis ir dirbtinio intelekto modelio artefaktus naudodami savo šifravimo
raktus.
Vaidmenimis pagrįsta prieigos kontrolė: „Vertex AI“
integruojasi su „Google Cloud“ tapatybės ir prieigos valdymu (IAM), kad būtų
užtikrintos tikslios teisės.
„Google Workspace“ su „Gemini“
„Gemini for Google Workspace“ teikia įmonės lygio dirbtinio
intelekto asistentą įmonėms, naudojančioms „Google“ produktyvumo įrankius. Visa
sąveika pagal numatytuosius nustatymus yra apsaugota įmonės lygio sauga.
Pagrindinės duomenų apsaugos funkcijos:
Duomenys nenaudojami mokymui: raginimai ir sugeneruotas
turinys nenaudojami bendriems „Gemini“ modeliams mokyti ir jų neperžiūri
žmonės. Duomenys lieka jūsų organizacijos domene.
Apsauga nuo esamų politikų: esamos „Google Workspace“
saugumo ir duomenų praradimo prevencijos (DLP) politikos automatiškai taikomos
sąveikai su „Gemini“.
Atitikties palaikymas: „Gemini for Workspace“ yra gavusi
tokius sertifikatus kaip ISO 27001/17/18 ir SOC 1/2/3 ir gali padėti įmonėms
patenkinti atitikties poreikius, pvz., HIPAA.
DI apsauga „Google Cloud“ debesyje
Ši saugumo sistema integruojasi su „Google“ saugumo komandų
centru, kad apsaugotų visą DI gyvavimo ciklą. Ji suteikia centralizuotą DI
išteklių matomumą ir kontrolę.
Konkrečios funkcijos:
„Model Armor“: aktyvi apsauga nuo DI specifinių grėsmių,
tokių kaip greitas įskiepijimas, avarinis įsilaužimas ir jautrių duomenų
nutekėjimas.
DI rizikos vertinimas: ji gali aptikti ir kataloguoti DI
išteklius, įvertinti pažeidžiamumus ir imituoti atakų scenarijus, kad padėtų
saugumo komandoms aktyviai spręsti riziką.
Grėsmių valdymas: galimybės aptikti, tirti ir reaguoti į
grėsmes, nukreiptas į DI darbo krūvius ir modelius.
Ar „Vertex DI“ leidžia kliento įmonei apmokyti savo DI
„Google“ serveriuose ir saugoti mokymo rezultatus išskirtiniam kliento
naudojimui?
Taip, „Vertex AI“ leidžia klientų įmonėms apmokyti
pasirinktinius dirbtinio intelekto modelius „Google“ infrastruktūroje, o gauti
modeliai ir jų mokymo duomenys skirti tik kliento naudojimui. „Google“ politika
nurodo, kad jie nenaudoja klientų duomenų savo modelių mokymui be aiškaus
leidimo, o platforma sukurta su įmonės lygio saugumo ir atitikties funkcijomis,
siekiant užtikrinti duomenų privatumą ir kontrolę įmonėms.
Kaip tai veikia:
Individualus mokymas:
Galite naudoti „Vertex AI“ pasirinktinio mokymo funkciją,
kad paleistumėte savo mašininio mokymosi kodą ir naudotumėte savo duomenų
rinkinius modeliams mokyti „Google“ infrastruktūroje.
Duomenų ir modelio išskirtinumas:
Kai apmokote modelį „Vertex AI“, jūsų pateikti duomenys
lieka jūsų, o jūs išlaikote visišką nuosavybės teisę ir išskirtinę teisę
naudoti apmokytą modelį.
Mokymo kontrolė:
Jūs turite didelę kontrolę mokymo procesui, įskaitant
pageidaujamos mašininio mokymosi sistemos pasirinkimą ir skaičiavimo išteklių
bei konteinerių nurodymą mokymo užduočiai.
Įmonės lygio saugumas:
„Vertex AI“ yra sukurtas naudoti įmonėse, užtikrinant saugią
ir reikalavimus atitinkančią aplinką dirbtinio intelekto modeliams valdyti ir
diegti.
„Google“ duomenų politika:
Jokio duomenų naudojimo:
„Google Cloud“ teigia, kad jie nenaudos jūsų duomenų savo AI
/ ML modeliams treniruoti ar koreguoti be jūsų išankstinio leidimo.
Kliento duomenų apdorojimo priedas (CDPA):
Daugiau informacijos apie duomenų tvarkymą rasite CDPA, o
tai sustiprina įsipareigojimą užtikrinti klientų duomenų privatumą ir kontrolę.
1. Angst, Ausreden,
Abwarten - wie wir die Jahrhundertchance Künstliche Intelligenz verspielen.
Frankfurter Allgemeine Zeitung; Frankfurt. 18 Aug 2025: 18. Von Peter Buxmann