Sekėjai

Ieškoti šiame dienoraštyje

2025 m. balandžio 2 d., trečiadienis

Skaitmeninė užsieniečių kontrolė Šengeno zonoje numatoma spalio mėnesį

 


"T.G. BRIUSELIS. Po ilgus metus trukusių derybų ES vidaus reikalų ministrai susitarė dėl konkretaus naujos sistemos, skirtos skaitmeniniu būdu registruoti trečiųjų šalių piliečių atvykimą ir išvykimą į Šengeno erdvę, įgyvendinimo.

Valstybėms bus suteikti šeši mėnesiai, kad užtikrintų visišką registraciją, naudojant veido atpažinimą ir pirštų atspaudus.

Kaip sakė Lenkijos vidaus reikalų ministras ir Tarybos pirmininkas Tomaszas Siemoniakas, numatoma pradžios data yra spalis.

 Pirmiausia Taryba turi pasiekti susitarimą su Europos Parlamentu." [1]

1.  Digitale Reisekontrolle soll im Oktober starten. Frankfurter Allgemeine Zeitung; Frankfurt. 06 Mar 2025: 1.  

Penki dalykai, kurių neturėtumėte pasakyti „ChatGPT“ ar kitiems dirbtinio intelekto įrankiams – neleiskite, kad jūsų paslaptingas bėrimas taptų mokymo priemone arba neatsirastų duomenų pažeidimo


 „Per pastaruosius kelerius metus daug išmokau iš OpenAI ChatGPT. Botas irgi daug apie mane sužinojo.

 

 Dirbtinis intelektas (AI) surinko realius faktus iš daugelio mūsų pokalbių ir įrašė juos į savo atmintį. Ji prisiminė, kad mėgstu kiaušinius, turiu kūdikį, kurį maitinu, einant miegoti, ir man reikia daryti mankštą dėl skaudančios nugaros.

 

 Taip pat prisiminė dar asmeniškesnius dalykus, kurių čia nekartosiu.

 

 Nesvarbu, kurį pokalbių robotą pasirinksite: kuo daugiau su jais bendrinate, tuo naudingesni jie gali būti. Pacientai įkelia savo kraujo tyrimus analizei, o inžinieriai įklijuoja nepaskelbto kodo fragmentus, kad padėtų derinti. Kai kurie dirbtinio intelekto tyrinėtojai teigia, kad turėtume būti atidesni, ką sakome šiems, žmonėmis skambantiems, įrankiams.

 

 Dalintis kai kuria informacija yra ypač rizikinga, pvz., socialinio draudimo numeriu arba įmonės nuosavybės teise priklausančiais duomenimis.

 

 Dirbtinio intelekto įmonės trokšta duomenų, kad patobulintų savo modelius, tačiau net jos nenori mūsų paslapčių. „Prašome nesidalyti jokia neskelbtina informacija savo pokalbiuose“, – ragina OpenAI. Ir „Google“ prašo savo „Gemini“ naudotojų: „Neįveskite konfidencialios informacijos ar jokių duomenų, kurių nenorėtumėte, kad apžvalgininkas matytų“.

 

 Pokalbiai apie jūsų keistą bėrimą ar finansinius sunkumus gali būti panaudoti, lavinant rytojaus dirbtinį intelektą arba išaiškinant duomenų pažeidimą, teigia AI tyrinėtojai.

 

Štai ko nenaudoti raginimų tekstuose ir kaip užmegzti daugiau privačių pokalbių su AI.

 

 Laikykitės konfidencialumo

 

 Pokalbių robotai gali skambėti siaubingai žmogiškai, todėl žmonės pokalbiuose su jais būna stebėtinai atviri. Kai ką nors įvedate į pokalbių robotą, „prarasite to nuosavybę“, sako Jennifer King, Stanfordo į žmogų orientuoto dirbtinio intelekto instituto bendradarbė.

 

 2023 m. kovo mėn. „ChatGPT“ klaida leido kai kuriems vartotojams pamatyti, ką kiti žmonės iš pradžių įvedė savo pokalbiuose. Nuo tada bendrovė paskelbė pataisymą. „OpenAI“ taip pat išsiuntė prenumeratos patvirtinimo el. laiškus netinkamiems žmonėms, kuriuose buvo atskleisti vartotojų vardai ir pavardės, el. pašto adresai ir mokėjimo informacija.

 

 Jūsų pokalbių istorija taip pat gali būti įtraukta į įsilaužtus duomenis arba kaip dalis to, kas paverčiama, jei dirbtinio intelekto įmonei bus išduotas orderis. Apsaugokite savo paskyrą tvirtu slaptažodžiu ir kelių veiksnių autentifikavimu.

 

 Ir praleiskite šias specifikas:

 

 -- Tapatybės informacija. Tai apima jūsų socialinio draudimo, vairuotojo pažymėjimo ir paso numerius, taip pat jūsų gimimo datą, adresą ir telefono numerį. Kai kurie pokalbių robotai stengiasi tuos redaguoti. „Norime, kad mūsų AI modeliai sužinotų apie pasaulį, o ne apie privačius asmenis, ir aktyviai sumažiname asmeninės informacijos rinkimą“, – sakė „OpenAI“ atstovė.

 

 -- Medicininiai rezultatai. Konfidencialumas yra pagrindinė sveikatos priežiūros vertybė, siekiant užkirsti kelią diskriminacijai ir gėdinimui, tačiau pokalbių robotai paprastai nėra specialios sveikatos duomenų apsaugos dalis. Jei kyla pagunda paprašyti dirbtinio intelekto interpretuoti laboratorinius darbus, prieš įkeldami vaizdą, apkirpkite arba redaguokite dokumentą: „Pabandykite sulaikyti testo rezultatus ir juos suredaguoti“, – pataria Kingas.

 

 -- Finansinės sąskaitos. Saugokite savo banko ir investicinių sąskaitų numerius, kurie gali būti naudojami jūsų lėšoms stebėti ar pasiekti.

 

 -- Slapta įmonės informacija. Jei darbo tikslais naudojate įprastas populiarių pokalbių robotų versijas, galite netyčia atskleisti klientų duomenis arba neviešas komercines paslaptis – net ir tokiu atveju, kaip rašyti el. laišką. „Samsung“ uždraudė „ChatGPT“ po to, kai inžinierius nutekino vidinį šaltinio kodą į paslaugą. Jei dirbtinis intelektas yra naudingas jūsų darbe, jūsų įmonė turėtų užsiprenumeruoti įmonės versiją arba turėti savo tinkintą AI su konkrečiai įmonei skirta apsauga.

 

 -- Prisijungimai. Daugėjant dirbtinio intelekto agentų, galinčių atlikti realaus pasaulio užduotis, yra daugiau priežasčių perduoti paskyros kredencialus pokalbių robotui. Šios paslaugos nebuvo sukurtos, kaip skaitmeninės saugyklos – išsaugokite slaptažodžius, PIN kodus ir saugos klausimus slaptažodžių tvarkytuvėje.

 

 Uždenkite jūsų pėdsakus

 

 Kai pateikiate atsiliepimą apie roboto atsakymą (paprastai pakeliate nykštį aukštyn arba žemyn), galite duoti leidimą įvertinti jūsų raginimą ir jo išvestį ir netgi naudoti mokymui. Jei pokalbis pažymėtas saugumo sumetimais (pavyzdžiui, paminėjus smurtą), įmonės darbuotojai gali jį peržiūrėti.

 

 Anthropic's Claude pagal numatytuosius nustatymus nenaudoja jūsų pokalbių mokymuisi ir ištrina duomenis po dvejų metų. „OpenAI“ „ChatGPT“, „Microsoft Copilot“ ir „Google“ „Gemini“ naudoja pokalbius, tačiau nustatymuose siūlo to atsisakyti.

 

 Jei rūpinatės privatumu, išbandykite šiuos patarimus:

 

 -- Dažnai ištrinkite. Nepaprastai paranojiški vartotojai turėtų ištrinti kiekvieną pokalbį jam pasibaigus, sako Jasonas Clintonas, Anthropic vyriausiasis informacijos saugos pareigūnas. Įmonės paprastai išvalo „ištrintus“ duomenis po 30 dienų.

 

 Išimtis? „DeepSeek“, kuri turi serverius Kinijoje. Pagal savo privatumo politiką jis gali saugoti jūsų duomenis neribotą laiką ir nėra jokio atsisakymo pasiūlymo.

 

 -- Naudokite laikinus pokalbius. „ChatGPT“ laikinas pokalbis, esantis viršutiniame dešiniajame pokalbio lango kampe, yra tarsi jūsų naršyklės inkognito režimas. Įjunkite, kad „ChatGPT“ atminties bankas nepridėtų šios medžiagos į jūsų profilį. Pokalbis nebus rodomas jūsų istorijoje, o turinys nebus naudojamas modeliams mokyti.

 

 -- Klauskite anonimiškai. Duck.ai, privatumo paieškos variklio DuckDuckGo, anonimizuoja raginimus į jūsų pasirinktą AI modelį, įskaitant Claude ir OpenAI GPT, ir sako, kad duomenys nenaudojami modelių mokymui. Jis negali padaryti visko, ką gali, visas paslaugas teikiantis, robotas, pvz., analizuoti failus.

 

 Tiesiog nepamirškite: pokalbių robotai yra užprogramuoti taip, kad pokalbis tęstųsi. Jūs turite susilaikyti arba paspausti „ištrinti“.” [1]

 

1.  The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach. Nguyen, Nicole.  Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr 2025: A12.

The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach

 

"I've learned a lot from OpenAI's ChatGPT over the past few years. And the bot has learned a lot about me.

The AI picked up factoids from our many conversations and banked them in its memory. It remembered I like eggs, I have a baby who nurses to sleep and I need to modify my exercise because of my achy back.

It also remembered even more personal things I won't repeat here.

It doesn't matter which chatbot you choose: The more you share, the more helpful they can be. Patients upload their blood work for analysis and engineers paste snippets of unpublished code for debugging help. Some AI researchers say we should be more discerning about what we tell these human-sounding tools.

Some information is especially risky to share, such as your Social Security number or your company's proprietary data.

The AI companies are hungry for data to improve their models, but even they don't want our secrets. "Please don't share any sensitive information in your conversations," OpenAI urges. And Google implores its Gemini users: "Don't enter confidential information or any data you wouldn't want a reviewer to see."

Chats about your weird rash or your financial flubs might be used to help train tomorrow's AI -- or come out in a data breach, say AI researchers. Here's what to keep out of your prompts, and how to have more private conversations with AI.

Keep confidential

Chatbots can sound eerily human, leading people to be surprisingly open in their conversations with them. When you type something into a chatbot, "you lose possession of it," says Jennifer King, a fellow at the Stanford Institute for Human-Centered Artificial Intelligence.

In March 2023, a ChatGPT bug allowed some users to see what other people initially typed in their chats. The company has since issued a fix. OpenAI also sent subscription confirmation emails to the wrong people, exposing users' first and last names, email addresses and payment information.

Your chat history could also be included in a hacked data trove or as a part of what's turned over if the AI company is served a warrant. Protect your account with a strong password and multifactor authentication. And skip these specifics:

-- Identity information. This includes your Social Security, driver's license and passport numbers, as well as your date of birth, address and phone number. Some chatbots work to redact them. "We want our AI models to learn about the world, not private individuals, and we actively minimize the collection of personal information," an OpenAI spokeswoman said.

-- Medical results. Confidentiality is a core value in healthcare to prevent discrimination and embarrassment, but chatbots are typically not part of the special protection given to health data. If you're tempted to ask AI to interpret lab work, crop the image or edit the document before uploading: "Try to keep it just to the test results and redact it," King advises.

-- Financial accounts. Guard your bank and investment account numbers, which could be used to monitor or access your funds.

-- Proprietary corporate information. If you're using the mainstream versions of popular chatbots for work purposes, you could inadvertently expose client data or nonpublic trade secrets -- even with something as small as drafting an email. Samsung banned ChatGPT after an engineer leaked internal source code to the service. If AI is useful in your job, your company should subscribe to an enterprise version, or have its own custom AI with company-specific protections.

-- Logins. With the rise of AI agents that can perform real-world tasks, there are more reasons to hand over account credentials to a chatbot. These services weren't built as digital vaults -- save your passwords, PINs and security questions for your password manager.

Cover your tracks

When you give feedback about a bot's response -- thumbs-up or -down, typically -- you might be giving permission for your prompt and its output to be evaluated and even used for training. If the conversation gets flagged for safety (if you mention violence, for example), company employees might review it.

Anthropic's Claude by default doesn't use your chats for training and deletes data after two years. OpenAI's ChatGPT, Microsoft's Copilot and Google's Gemini do use conversations, but offer an opt-out in settings. 

If you're privacy conscious, try these tips:

-- Delete often. Extra-paranoid users should delete every conversation after it's over, says Jason Clinton, Anthropic's chief information security officer. Companies typically purge "deleted" data after 30 days.

An exception? DeepSeek, which has servers in China. According to its privacy policy, it can retain your data indefinitely, and there is no opt-out offer.

-- Use temporary chat. ChatGPT's Temporary Chat, found in the top right corner of the chat window, is like your browser's Incognito Mode. Turn it on to stop ChatGPT's memory bank from adding that material to your profile. The chat won't appear in your history, and the contents won't be used to train models.

-- Ask anonymously. Duck.ai, by privacy search engine DuckDuckGo, anonymizes prompts to the AI model of your choice, including Claude and OpenAI's GPT, and says data isn't used for model training. It can't do everything a full-service bot can, such as analyze files.

Just remember: The chatbots are programmed to keep the conversation going. It's up to you to hold back -- or hit "delete."" [1]

1.  The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach. Nguyen, Nicole.  Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr 2025: A12.