Sekėjai

Ieškoti šiame dienoraštyje

2025 m. balandžio 2 d., trečiadienis

Penki dalykai, kurių neturėtumėte pasakyti „ChatGPT“ ar kitiems dirbtinio intelekto įrankiams – neleiskite, kad jūsų paslaptingas bėrimas taptų mokymo priemone arba neatsirastų duomenų pažeidimo


 „Per pastaruosius kelerius metus daug išmokau iš OpenAI ChatGPT. Botas irgi daug apie mane sužinojo.

 

 Dirbtinis intelektas (AI) surinko realius faktus iš daugelio mūsų pokalbių ir įrašė juos į savo atmintį. Ji prisiminė, kad mėgstu kiaušinius, turiu kūdikį, kurį maitinu, einant miegoti, ir man reikia daryti mankštą dėl skaudančios nugaros.

 

 Taip pat prisiminė dar asmeniškesnius dalykus, kurių čia nekartosiu.

 

 Nesvarbu, kurį pokalbių robotą pasirinksite: kuo daugiau su jais bendrinate, tuo naudingesni jie gali būti. Pacientai įkelia savo kraujo tyrimus analizei, o inžinieriai įklijuoja nepaskelbto kodo fragmentus, kad padėtų derinti. Kai kurie dirbtinio intelekto tyrinėtojai teigia, kad turėtume būti atidesni, ką sakome šiems, žmonėmis skambantiems, įrankiams.

 

 Dalintis kai kuria informacija yra ypač rizikinga, pvz., socialinio draudimo numeriu arba įmonės nuosavybės teise priklausančiais duomenimis.

 

 Dirbtinio intelekto įmonės trokšta duomenų, kad patobulintų savo modelius, tačiau net jos nenori mūsų paslapčių. „Prašome nesidalyti jokia neskelbtina informacija savo pokalbiuose“, – ragina OpenAI. Ir „Google“ prašo savo „Gemini“ naudotojų: „Neįveskite konfidencialios informacijos ar jokių duomenų, kurių nenorėtumėte, kad apžvalgininkas matytų“.

 

 Pokalbiai apie jūsų keistą bėrimą ar finansinius sunkumus gali būti panaudoti, lavinant rytojaus dirbtinį intelektą arba išaiškinant duomenų pažeidimą, teigia AI tyrinėtojai.

 

Štai ko nenaudoti raginimų tekstuose ir kaip užmegzti daugiau privačių pokalbių su AI.

 

 Laikykitės konfidencialumo

 

 Pokalbių robotai gali skambėti siaubingai žmogiškai, todėl žmonės pokalbiuose su jais būna stebėtinai atviri. Kai ką nors įvedate į pokalbių robotą, „prarasite to nuosavybę“, sako Jennifer King, Stanfordo į žmogų orientuoto dirbtinio intelekto instituto bendradarbė.

 

 2023 m. kovo mėn. „ChatGPT“ klaida leido kai kuriems vartotojams pamatyti, ką kiti žmonės iš pradžių įvedė savo pokalbiuose. Nuo tada bendrovė paskelbė pataisymą. „OpenAI“ taip pat išsiuntė prenumeratos patvirtinimo el. laiškus netinkamiems žmonėms, kuriuose buvo atskleisti vartotojų vardai ir pavardės, el. pašto adresai ir mokėjimo informacija.

 

 Jūsų pokalbių istorija taip pat gali būti įtraukta į įsilaužtus duomenis arba kaip dalis to, kas paverčiama, jei dirbtinio intelekto įmonei bus išduotas orderis. Apsaugokite savo paskyrą tvirtu slaptažodžiu ir kelių veiksnių autentifikavimu.

 

 Ir praleiskite šias specifikas:

 

 -- Tapatybės informacija. Tai apima jūsų socialinio draudimo, vairuotojo pažymėjimo ir paso numerius, taip pat jūsų gimimo datą, adresą ir telefono numerį. Kai kurie pokalbių robotai stengiasi tuos redaguoti. „Norime, kad mūsų AI modeliai sužinotų apie pasaulį, o ne apie privačius asmenis, ir aktyviai sumažiname asmeninės informacijos rinkimą“, – sakė „OpenAI“ atstovė.

 

 -- Medicininiai rezultatai. Konfidencialumas yra pagrindinė sveikatos priežiūros vertybė, siekiant užkirsti kelią diskriminacijai ir gėdinimui, tačiau pokalbių robotai paprastai nėra specialios sveikatos duomenų apsaugos dalis. Jei kyla pagunda paprašyti dirbtinio intelekto interpretuoti laboratorinius darbus, prieš įkeldami vaizdą, apkirpkite arba redaguokite dokumentą: „Pabandykite sulaikyti testo rezultatus ir juos suredaguoti“, – pataria Kingas.

 

 -- Finansinės sąskaitos. Saugokite savo banko ir investicinių sąskaitų numerius, kurie gali būti naudojami jūsų lėšoms stebėti ar pasiekti.

 

 -- Slapta įmonės informacija. Jei darbo tikslais naudojate įprastas populiarių pokalbių robotų versijas, galite netyčia atskleisti klientų duomenis arba neviešas komercines paslaptis – net ir tokiu atveju, kaip rašyti el. laišką. „Samsung“ uždraudė „ChatGPT“ po to, kai inžinierius nutekino vidinį šaltinio kodą į paslaugą. Jei dirbtinis intelektas yra naudingas jūsų darbe, jūsų įmonė turėtų užsiprenumeruoti įmonės versiją arba turėti savo tinkintą AI su konkrečiai įmonei skirta apsauga.

 

 -- Prisijungimai. Daugėjant dirbtinio intelekto agentų, galinčių atlikti realaus pasaulio užduotis, yra daugiau priežasčių perduoti paskyros kredencialus pokalbių robotui. Šios paslaugos nebuvo sukurtos, kaip skaitmeninės saugyklos – išsaugokite slaptažodžius, PIN kodus ir saugos klausimus slaptažodžių tvarkytuvėje.

 

 Uždenkite jūsų pėdsakus

 

 Kai pateikiate atsiliepimą apie roboto atsakymą (paprastai pakeliate nykštį aukštyn arba žemyn), galite duoti leidimą įvertinti jūsų raginimą ir jo išvestį ir netgi naudoti mokymui. Jei pokalbis pažymėtas saugumo sumetimais (pavyzdžiui, paminėjus smurtą), įmonės darbuotojai gali jį peržiūrėti.

 

 Anthropic's Claude pagal numatytuosius nustatymus nenaudoja jūsų pokalbių mokymuisi ir ištrina duomenis po dvejų metų. „OpenAI“ „ChatGPT“, „Microsoft Copilot“ ir „Google“ „Gemini“ naudoja pokalbius, tačiau nustatymuose siūlo to atsisakyti.

 

 Jei rūpinatės privatumu, išbandykite šiuos patarimus:

 

 -- Dažnai ištrinkite. Nepaprastai paranojiški vartotojai turėtų ištrinti kiekvieną pokalbį jam pasibaigus, sako Jasonas Clintonas, Anthropic vyriausiasis informacijos saugos pareigūnas. Įmonės paprastai išvalo „ištrintus“ duomenis po 30 dienų.

 

 Išimtis? „DeepSeek“, kuri turi serverius Kinijoje. Pagal savo privatumo politiką jis gali saugoti jūsų duomenis neribotą laiką ir nėra jokio atsisakymo pasiūlymo.

 

 -- Naudokite laikinus pokalbius. „ChatGPT“ laikinas pokalbis, esantis viršutiniame dešiniajame pokalbio lango kampe, yra tarsi jūsų naršyklės inkognito režimas. Įjunkite, kad „ChatGPT“ atminties bankas nepridėtų šios medžiagos į jūsų profilį. Pokalbis nebus rodomas jūsų istorijoje, o turinys nebus naudojamas modeliams mokyti.

 

 -- Klauskite anonimiškai. Duck.ai, privatumo paieškos variklio DuckDuckGo, anonimizuoja raginimus į jūsų pasirinktą AI modelį, įskaitant Claude ir OpenAI GPT, ir sako, kad duomenys nenaudojami modelių mokymui. Jis negali padaryti visko, ką gali, visas paslaugas teikiantis, robotas, pvz., analizuoti failus.

 

 Tiesiog nepamirškite: pokalbių robotai yra užprogramuoti taip, kad pokalbis tęstųsi. Jūs turite susilaikyti arba paspausti „ištrinti“.” [1]

 

1.  The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach. Nguyen, Nicole.  Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr 2025: A12.

The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach

 

"I've learned a lot from OpenAI's ChatGPT over the past few years. And the bot has learned a lot about me.

The AI picked up factoids from our many conversations and banked them in its memory. It remembered I like eggs, I have a baby who nurses to sleep and I need to modify my exercise because of my achy back.

It also remembered even more personal things I won't repeat here.

It doesn't matter which chatbot you choose: The more you share, the more helpful they can be. Patients upload their blood work for analysis and engineers paste snippets of unpublished code for debugging help. Some AI researchers say we should be more discerning about what we tell these human-sounding tools.

Some information is especially risky to share, such as your Social Security number or your company's proprietary data.

The AI companies are hungry for data to improve their models, but even they don't want our secrets. "Please don't share any sensitive information in your conversations," OpenAI urges. And Google implores its Gemini users: "Don't enter confidential information or any data you wouldn't want a reviewer to see."

Chats about your weird rash or your financial flubs might be used to help train tomorrow's AI -- or come out in a data breach, say AI researchers. Here's what to keep out of your prompts, and how to have more private conversations with AI.

Keep confidential

Chatbots can sound eerily human, leading people to be surprisingly open in their conversations with them. When you type something into a chatbot, "you lose possession of it," says Jennifer King, a fellow at the Stanford Institute for Human-Centered Artificial Intelligence.

In March 2023, a ChatGPT bug allowed some users to see what other people initially typed in their chats. The company has since issued a fix. OpenAI also sent subscription confirmation emails to the wrong people, exposing users' first and last names, email addresses and payment information.

Your chat history could also be included in a hacked data trove or as a part of what's turned over if the AI company is served a warrant. Protect your account with a strong password and multifactor authentication. And skip these specifics:

-- Identity information. This includes your Social Security, driver's license and passport numbers, as well as your date of birth, address and phone number. Some chatbots work to redact them. "We want our AI models to learn about the world, not private individuals, and we actively minimize the collection of personal information," an OpenAI spokeswoman said.

-- Medical results. Confidentiality is a core value in healthcare to prevent discrimination and embarrassment, but chatbots are typically not part of the special protection given to health data. If you're tempted to ask AI to interpret lab work, crop the image or edit the document before uploading: "Try to keep it just to the test results and redact it," King advises.

-- Financial accounts. Guard your bank and investment account numbers, which could be used to monitor or access your funds.

-- Proprietary corporate information. If you're using the mainstream versions of popular chatbots for work purposes, you could inadvertently expose client data or nonpublic trade secrets -- even with something as small as drafting an email. Samsung banned ChatGPT after an engineer leaked internal source code to the service. If AI is useful in your job, your company should subscribe to an enterprise version, or have its own custom AI with company-specific protections.

-- Logins. With the rise of AI agents that can perform real-world tasks, there are more reasons to hand over account credentials to a chatbot. These services weren't built as digital vaults -- save your passwords, PINs and security questions for your password manager.

Cover your tracks

When you give feedback about a bot's response -- thumbs-up or -down, typically -- you might be giving permission for your prompt and its output to be evaluated and even used for training. If the conversation gets flagged for safety (if you mention violence, for example), company employees might review it.

Anthropic's Claude by default doesn't use your chats for training and deletes data after two years. OpenAI's ChatGPT, Microsoft's Copilot and Google's Gemini do use conversations, but offer an opt-out in settings. 

If you're privacy conscious, try these tips:

-- Delete often. Extra-paranoid users should delete every conversation after it's over, says Jason Clinton, Anthropic's chief information security officer. Companies typically purge "deleted" data after 30 days.

An exception? DeepSeek, which has servers in China. According to its privacy policy, it can retain your data indefinitely, and there is no opt-out offer.

-- Use temporary chat. ChatGPT's Temporary Chat, found in the top right corner of the chat window, is like your browser's Incognito Mode. Turn it on to stop ChatGPT's memory bank from adding that material to your profile. The chat won't appear in your history, and the contents won't be used to train models.

-- Ask anonymously. Duck.ai, by privacy search engine DuckDuckGo, anonymizes prompts to the AI model of your choice, including Claude and OpenAI's GPT, and says data isn't used for model training. It can't do everything a full-service bot can, such as analyze files.

Just remember: The chatbots are programmed to keep the conversation going. It's up to you to hold back -- or hit "delete."" [1]

1.  The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach. Nguyen, Nicole.  Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr 2025: A12.

2025 m. balandžio 1 d., antradienis

Nuo pelės smegenų iki žmogaus smegenų?


 

"Kuo Homo sapiens smegenys yra unikalios? Atidžiau pažvelgus į pagrindines organo dalis, matyti, kad mūsų smegenys nėra tiesiog skirtingos nuo kitokio gyvūno. Jos bendrauja tiksliau ir gali saugoti daugiau informacijos.

 

Tai, kas tinka E. coli, turi būti teisinga ir drambliui", – kartą sakė molekulinės biologijos pradininkas Jacques'as Monod. Tai reiškia, kad bakterijos ir drambliai yra biologiškai panašūs daugeliu atžvilgių. Tačiau kalbant apie smegenis, viskas komplikuojasi. Mokslui sunku tirti žmogaus smegenis. Todėl neurologai dažniausiai remiasi vaizdo gavimo ar gyvūnų magnetinio rezonanso metodais.

 

Didžioji dalis to, ką žinome apie žmogaus smegenis, yra pagrįsta eksperimentais su žiurkėmis ar pelėmis. Tai ypač aktualu, nes lyginamieji smegenų tyrinėtojai atranda vis daugiau savybių, kurios jau buvo būdingos artimiausiems bendriems pelių, žmonių ir dramblių protėviams. Biologai tai taip pat vadina „evoliuciškai išsaugotomis“ savybėmis. Tačiau ar pelių ir žiurkių duomenis galima taip lengvai ekstrapoliuoti žmonėms? Ir jei taip, kuo mes esame išskirtiniai?

 

Neurologas Peteris Jonas iš Austrijos Mokslo ir technologijų instituto (ISTA) Klosterneuburge netoli Vienos atsakė būtent į šį klausimą. Jis norėjo sužinoti, ar žmogaus smegenų unikalumą galima tiksliai paaiškinti dideliu nervinių ląstelių skaičiumi – žmogaus smegenyse yra 16 milijardų (1 000 000 000 yra 1 milijardas) nervinių ląstelių, o pelių – tik 71 milijonas – ar žmogaus nervų ląstelės ir sinapsės turi specifinių savybių, dėl kurių jos yra specifinės ir unikalios.

 

Jo išvados neseniai buvo paskelbtos žurnale „Cell“. Darmštate gimęs Peteris Jonas karjeros pradžioje patobulino elektrofiziologijos metodus. Baigęs daktaro laipsnį, gydytojas dirbo Nobelio medicinos premiją gavusio Berto Sakmanno laboratorijoje už vadinamosios patch-clamp technikos sukūrimą [1]. Metodas, leidžiantis mokslininkams skaityti atskirų ląstelių ar net jų komponentų, tokių kaip sinapsės, elektros sroves. Jie gali jį naudoti, norėdami stebėti, kaip jonai patenka į ląstelę ir iš jos. Ar, pavyzdžiui, kaimyninė ląstelė B taip pat gauna stimulą, kai ląstelė A sužadinama.

 

Jonas taip pat anksti sužinojo apie hipokampą – regioną, atsakingą už prisiminimų perkėlimą iš trumpalaikės į ilgalaikę atmintį. Kitaip tariant, kaip prisiminimai ir vietos yra saugomi ir gaunami hipokampe.

 

Hipokampas šiandien laikomas vienu labiausiai ištirtų smegenų sričių. Joks kitas regionas nebuvo taip ištirtas kaip hipokampas. Juk tai aktualu ir esant senėjimo procesams, tokiems, kaip demencija.

 

Tačiau Petras Jonas studijų pradžioje neturėjo žmogaus audinių ar galimybės patikrinti savo hipotezes. Kurdamas naują Austrijos neurologijos kompetencijos grupę, jis atrado galimybę: Vienos medicinos universitete gydant epilepsiją, kai kuriems pacientams turi būti pašalintas vienos smegenų pusės hipokampas. Tada Peteris Jonas bendradarbiavo su Vienos medicinos universiteto Neurochirurgijos skyriumi. Kai, epilepsija sergančiam, pacientui turėjo būti atlikta operacija, Petras Jonas gavo pranešimą prieš dieną. Jam ir jo tyrimų grupei tai reiškė viską mesti ir dirbti iki nakties. „Stengiamės surinkti kuo daugiau duomenų ir tirti audinį dešimt ar dvylika valandų, kol nebegalime nieko kito“, – sako Jonas. Rezultatas buvo platus fiziologinis ir anatominis hipokampo apibūdinimas. Joną nustebino lyginamieji tyrimai: "Dirbant su žiurkėmis ir pelėmis kartais apima jausmas, kad apie hipokampą jau viskas žinoma. Tačiau kai tik pradėjau dirbti su žmogaus mėginiais, supratau, kiek mažai mes iš tikrųjų žinome."

 

Žmogaus hipokampo neuronai yra mažiau tarpusavyje susiję, nei pelės, tačiau jie bendrauja tarpusavyje tiksliau. Be to, žmogaus neuronai gali saugoti daugiau informacijos, nei pelės.

 

Taigi, jei bandytumėte ekstrapoliuoti iš pelės hipokampo į žmogaus hipokampą, nuvertintumėte kai kurias savybes, o pervertintumėte kitas.

 

Dietmar Schmitz, Charité Neuroscience tyrimų centro direktorius, taip pat dirba hipokampe ir buvo sužavėtas, kai pirmą kartą pamatė Jono rezultatus. „Tiesą sakant, su žmogaus hipokampu dirbama labai mažai, todėl šis tyrimas yra ypač svarbus, nuostabus ir įspūdingas“, – sakė Schmitzas. Viena vertus, naudojama technika yra labai sudėtinga, kita vertus, analizuojamą hipokampo subregioną – vadinamąją CA3 sritį – labai sudėtinga tirti, nes ląstelės lengvai miršta skaidant. Tačiau Schmitzas atkreipia dėmesį į panašų Chriso McBaino 2023 m. tyrimą. Tyrime autoriai padarė išvadą, kad tarp žmonių ir pelių vyrauja evoliuciškai išsaugotos savybės, tačiau Pietų Afrikos smegenų tyrinėtojo Paulo Mangerio akimis, negalima tiesiog ekstrapoliuoti iš pelės smegenų. "Kiekviena rūšis yra savaip unikali. Tai lemia tai, kaip rūšis sąveikauja su natūralia aplinka." Manger dirba Witwatersrand universitete Johanesburge ir yra žinomas dėl savo lyginamųjų smegenų tyrimų, apimančių nuo pelių iki delfinų iki Afrikos dramblių. Delfinas turi kitokią ekologinę specializaciją nei dramblys. Tokie skirtumai atsispindi ir smegenų anatomijoje. Nepaisant to, yra stulbinančių panašumų: „Gyvūnų grupėje yra ryšys tarp neuronų skaičiaus ir smegenų svorio“, - sako Manger. Jam Jono studija taip pat turi didelę vertę gyvūnų tyrimams.

 

Jonas jau planuoja tolesnius tyrimus su žmogaus smegenų audiniu. Jis nori dar daugiau sužinoti apie žmogaus smegenis. Jį motyvuoja iššūkis atlikti eksperimentus, kurie kitiems atrodo neįmanomi. „Su kai kuriais projektais iš pradžių manai, kad tai neįmanoma, bet vis tiek pavyksta. Tačiau kartais tenka palaukti, kol pasitaikys tinkama galimybė eksperimentui“. Kalbėdamas apie tyrimus su gyvūnais, Jonas sako: "Pelės arba žiurkės ir toliau bus auksinis smegenų tyrimų standartas. Mūsų tyrimai buvo įmanomi tik todėl, kad mūsų matavimo metodai gyvūnų modeliuose buvo gerai žinomi, o ankstesnių tyrimų dėka egzistavo aiškios darbo hipotezės." Ateityje jis tikisi, kad neurologiniai tyrimai galės padėti psichikos ligomis sergantiems žmonėms. „Tačiau mes čia dar tik pačioje pradžioje“, – pabrėžia Jonas. [2]

 

1. Patch-clamp technika yra elektrofiziologinis metodas, leidžiantis tyrėjams įrašyti ir išmatuoti jonų srautą per biologines membranas per jonų kanalus visos ląstelės arba vieno kanalo lygiu. Ši technika naudojama, tiriant sužadinamų ląstelių ir jonų kanalų elektrines savybes, suteikiant įžvalgų apie ląstelių funkciją ir reguliavimą molekuliniu lygmeniu. Stiklinė mikropipetė, kurioje yra elektrolito tirpalo, naudojama sandariam, didelio atsparumo sandarikliui (gigaominiam sandarikliui) su ląstelės membranai sudaryti.

 

2.  Von Maus zu Mensch? Frankfurter Allgemeine Zeitung; Frankfurt. 05 Mar 2025: N2.   Von Felix Schmidtner