„Per pastaruosius kelerius metus daug išmokau iš OpenAI ChatGPT. Botas irgi daug apie mane sužinojo.
Dirbtinis intelektas (AI) surinko realius faktus iš daugelio mūsų pokalbių ir įrašė juos į savo atmintį. Ji prisiminė, kad mėgstu kiaušinius, turiu kūdikį, kurį maitinu, einant miegoti, ir man reikia daryti mankštą dėl skaudančios nugaros.
Taip pat prisiminė dar asmeniškesnius dalykus, kurių čia nekartosiu.
Nesvarbu, kurį pokalbių robotą pasirinksite: kuo daugiau su jais bendrinate, tuo naudingesni jie gali būti. Pacientai įkelia savo kraujo tyrimus analizei, o inžinieriai įklijuoja nepaskelbto kodo fragmentus, kad padėtų derinti. Kai kurie dirbtinio intelekto tyrinėtojai teigia, kad turėtume būti atidesni, ką sakome šiems, žmonėmis skambantiems, įrankiams.
Dalintis kai kuria informacija yra ypač rizikinga, pvz., socialinio draudimo numeriu arba įmonės nuosavybės teise priklausančiais duomenimis.
Dirbtinio intelekto įmonės trokšta duomenų, kad patobulintų savo modelius, tačiau net jos nenori mūsų paslapčių. „Prašome nesidalyti jokia neskelbtina informacija savo pokalbiuose“, – ragina OpenAI. Ir „Google“ prašo savo „Gemini“ naudotojų: „Neįveskite konfidencialios informacijos ar jokių duomenų, kurių nenorėtumėte, kad apžvalgininkas matytų“.
Pokalbiai apie jūsų keistą bėrimą ar finansinius sunkumus gali būti panaudoti, lavinant rytojaus dirbtinį intelektą arba išaiškinant duomenų pažeidimą, teigia AI tyrinėtojai.
Štai ko nenaudoti raginimų tekstuose ir kaip užmegzti daugiau privačių pokalbių su AI.
Laikykitės konfidencialumo
Pokalbių robotai gali skambėti siaubingai žmogiškai, todėl žmonės pokalbiuose su jais būna stebėtinai atviri. Kai ką nors įvedate į pokalbių robotą, „prarasite to nuosavybę“, sako Jennifer King, Stanfordo į žmogų orientuoto dirbtinio intelekto instituto bendradarbė.
2023 m. kovo mėn. „ChatGPT“ klaida leido kai kuriems vartotojams pamatyti, ką kiti žmonės iš pradžių įvedė savo pokalbiuose. Nuo tada bendrovė paskelbė pataisymą. „OpenAI“ taip pat išsiuntė prenumeratos patvirtinimo el. laiškus netinkamiems žmonėms, kuriuose buvo atskleisti vartotojų vardai ir pavardės, el. pašto adresai ir mokėjimo informacija.
Jūsų pokalbių istorija taip pat gali būti įtraukta į įsilaužtus duomenis arba kaip dalis to, kas paverčiama, jei dirbtinio intelekto įmonei bus išduotas orderis. Apsaugokite savo paskyrą tvirtu slaptažodžiu ir kelių veiksnių autentifikavimu.
Ir praleiskite šias specifikas:
-- Tapatybės informacija. Tai apima jūsų socialinio draudimo, vairuotojo pažymėjimo ir paso numerius, taip pat jūsų gimimo datą, adresą ir telefono numerį. Kai kurie pokalbių robotai stengiasi tuos redaguoti. „Norime, kad mūsų AI modeliai sužinotų apie pasaulį, o ne apie privačius asmenis, ir aktyviai sumažiname asmeninės informacijos rinkimą“, – sakė „OpenAI“ atstovė.
-- Medicininiai rezultatai. Konfidencialumas yra pagrindinė sveikatos priežiūros vertybė, siekiant užkirsti kelią diskriminacijai ir gėdinimui, tačiau pokalbių robotai paprastai nėra specialios sveikatos duomenų apsaugos dalis. Jei kyla pagunda paprašyti dirbtinio intelekto interpretuoti laboratorinius darbus, prieš įkeldami vaizdą, apkirpkite arba redaguokite dokumentą: „Pabandykite sulaikyti testo rezultatus ir juos suredaguoti“, – pataria Kingas.
-- Finansinės sąskaitos. Saugokite savo banko ir investicinių sąskaitų numerius, kurie gali būti naudojami jūsų lėšoms stebėti ar pasiekti.
-- Slapta įmonės informacija. Jei darbo tikslais naudojate įprastas populiarių pokalbių robotų versijas, galite netyčia atskleisti klientų duomenis arba neviešas komercines paslaptis – net ir tokiu atveju, kaip rašyti el. laišką. „Samsung“ uždraudė „ChatGPT“ po to, kai inžinierius nutekino vidinį šaltinio kodą į paslaugą. Jei dirbtinis intelektas yra naudingas jūsų darbe, jūsų įmonė turėtų užsiprenumeruoti įmonės versiją arba turėti savo tinkintą AI su konkrečiai įmonei skirta apsauga.
-- Prisijungimai. Daugėjant dirbtinio intelekto agentų, galinčių atlikti realaus pasaulio užduotis, yra daugiau priežasčių perduoti paskyros kredencialus pokalbių robotui. Šios paslaugos nebuvo sukurtos, kaip skaitmeninės saugyklos – išsaugokite slaptažodžius, PIN kodus ir saugos klausimus slaptažodžių tvarkytuvėje.
Uždenkite jūsų pėdsakus
Kai pateikiate atsiliepimą apie roboto atsakymą (paprastai pakeliate nykštį aukštyn arba žemyn), galite duoti leidimą įvertinti jūsų raginimą ir jo išvestį ir netgi naudoti mokymui. Jei pokalbis pažymėtas saugumo sumetimais (pavyzdžiui, paminėjus smurtą), įmonės darbuotojai gali jį peržiūrėti.
Anthropic's Claude pagal numatytuosius nustatymus nenaudoja jūsų pokalbių mokymuisi ir ištrina duomenis po dvejų metų. „OpenAI“ „ChatGPT“, „Microsoft Copilot“ ir „Google“ „Gemini“ naudoja pokalbius, tačiau nustatymuose siūlo to atsisakyti.
Jei rūpinatės privatumu, išbandykite šiuos patarimus:
-- Dažnai ištrinkite. Nepaprastai paranojiški vartotojai turėtų ištrinti kiekvieną pokalbį jam pasibaigus, sako Jasonas Clintonas, Anthropic vyriausiasis informacijos saugos pareigūnas. Įmonės paprastai išvalo „ištrintus“ duomenis po 30 dienų.
Išimtis? „DeepSeek“, kuri turi serverius Kinijoje. Pagal savo privatumo politiką jis gali saugoti jūsų duomenis neribotą laiką ir nėra jokio atsisakymo pasiūlymo.
-- Naudokite laikinus pokalbius. „ChatGPT“ laikinas pokalbis, esantis viršutiniame dešiniajame pokalbio lango kampe, yra tarsi jūsų naršyklės inkognito režimas. Įjunkite, kad „ChatGPT“ atminties bankas nepridėtų šios medžiagos į jūsų profilį. Pokalbis nebus rodomas jūsų istorijoje, o turinys nebus naudojamas modeliams mokyti.
-- Klauskite anonimiškai. Duck.ai, privatumo paieškos variklio DuckDuckGo, anonimizuoja raginimus į jūsų pasirinktą AI modelį, įskaitant Claude ir OpenAI GPT, ir sako, kad duomenys nenaudojami modelių mokymui. Jis negali padaryti visko, ką gali, visas paslaugas teikiantis, robotas, pvz., analizuoti failus.
Tiesiog nepamirškite: pokalbių robotai yra užprogramuoti taip, kad pokalbis tęstųsi. Jūs turite susilaikyti arba paspausti „ištrinti“.” [1]
1. The Five Things You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery rash become training fodder -- or turn up in a data breach. Nguyen, Nicole. Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr 2025: A12.
Komentarų nėra:
Rašyti komentarą