„Per pastaruosius
kelerius metus daug išmokau iš OpenAI ChatGPT. Botas irgi daug apie mane
sužinojo.
Dirbtinis intelektas
(AI) surinko realius faktus iš daugelio mūsų pokalbių ir įrašė juos į savo
atmintį. Ji prisiminė, kad mėgstu kiaušinius, turiu kūdikį, kurį maitinu,
einant miegoti, ir man reikia daryti mankštą dėl skaudančios nugaros.
Taip pat prisiminė
dar asmeniškesnius dalykus, kurių čia nekartosiu.
Nesvarbu, kurį
pokalbių robotą pasirinksite: kuo daugiau su jais bendrinate, tuo naudingesni
jie gali būti. Pacientai įkelia savo kraujo tyrimus analizei, o inžinieriai
įklijuoja nepaskelbto kodo fragmentus, kad padėtų derinti. Kai kurie dirbtinio
intelekto tyrinėtojai teigia, kad turėtume būti atidesni, ką sakome šiems,
žmonėmis skambantiems, įrankiams.
Dalintis kai kuria
informacija yra ypač rizikinga, pvz., socialinio draudimo numeriu arba įmonės
nuosavybės teise priklausančiais duomenimis.
Dirbtinio intelekto
įmonės trokšta duomenų, kad patobulintų savo modelius, tačiau net jos nenori
mūsų paslapčių. „Prašome nesidalyti jokia neskelbtina informacija savo
pokalbiuose“, – ragina OpenAI. Ir „Google“ prašo savo „Gemini“ naudotojų:
„Neįveskite konfidencialios informacijos ar jokių duomenų, kurių nenorėtumėte,
kad apžvalgininkas matytų“.
Pokalbiai apie jūsų
keistą bėrimą ar finansinius sunkumus gali būti panaudoti, lavinant rytojaus
dirbtinį intelektą arba išaiškinant duomenų pažeidimą, teigia AI tyrinėtojai.
Štai ko nenaudoti raginimų tekstuose ir kaip užmegzti
daugiau privačių pokalbių su AI.
Laikykitės
konfidencialumo
Pokalbių robotai gali
skambėti siaubingai žmogiškai, todėl žmonės pokalbiuose su jais būna stebėtinai
atviri. Kai ką nors įvedate į pokalbių robotą, „prarasite to nuosavybę“, sako
Jennifer King, Stanfordo į žmogų orientuoto dirbtinio intelekto instituto
bendradarbė.
2023 m. kovo mėn.
„ChatGPT“ klaida leido kai kuriems vartotojams pamatyti, ką kiti žmonės iš
pradžių įvedė savo pokalbiuose. Nuo tada bendrovė paskelbė pataisymą. „OpenAI“
taip pat išsiuntė prenumeratos patvirtinimo el. laiškus netinkamiems žmonėms,
kuriuose buvo atskleisti vartotojų vardai ir pavardės, el. pašto adresai ir
mokėjimo informacija.
Jūsų pokalbių
istorija taip pat gali būti įtraukta į įsilaužtus duomenis arba kaip dalis to,
kas paverčiama, jei dirbtinio intelekto įmonei bus išduotas orderis.
Apsaugokite savo paskyrą tvirtu slaptažodžiu ir kelių veiksnių autentifikavimu.
Ir praleiskite šias specifikas:
-- Tapatybės informacija. Tai apima jūsų
socialinio draudimo, vairuotojo pažymėjimo ir paso numerius, taip pat jūsų
gimimo datą, adresą ir telefono numerį. Kai kurie pokalbių robotai stengiasi tuos
redaguoti. „Norime, kad mūsų AI modeliai sužinotų apie pasaulį, o ne apie
privačius asmenis, ir aktyviai sumažiname asmeninės informacijos rinkimą“, –
sakė „OpenAI“ atstovė.
-- Medicininiai rezultatai. Konfidencialumas
yra pagrindinė sveikatos priežiūros vertybė, siekiant užkirsti kelią
diskriminacijai ir gėdinimui, tačiau pokalbių robotai paprastai nėra specialios
sveikatos duomenų apsaugos dalis. Jei kyla pagunda paprašyti dirbtinio
intelekto interpretuoti laboratorinius darbus, prieš įkeldami vaizdą,
apkirpkite arba redaguokite dokumentą: „Pabandykite sulaikyti testo rezultatus
ir juos suredaguoti“, – pataria Kingas.
-- Finansinės sąskaitos. Saugokite savo banko
ir investicinių sąskaitų numerius, kurie gali būti naudojami jūsų lėšoms
stebėti ar pasiekti.
-- Slapta įmonės informacija. Jei darbo
tikslais naudojate įprastas populiarių pokalbių robotų versijas, galite netyčia
atskleisti klientų duomenis arba neviešas komercines paslaptis – net ir tokiu
atveju, kaip rašyti el. laišką. „Samsung“ uždraudė „ChatGPT“ po to, kai
inžinierius nutekino vidinį šaltinio kodą į paslaugą. Jei dirbtinis intelektas
yra naudingas jūsų darbe, jūsų įmonė turėtų užsiprenumeruoti įmonės versiją
arba turėti savo tinkintą AI su konkrečiai įmonei skirta apsauga.
-- Prisijungimai. Daugėjant dirbtinio
intelekto agentų, galinčių atlikti realaus pasaulio užduotis, yra daugiau
priežasčių perduoti paskyros kredencialus pokalbių robotui. Šios paslaugos
nebuvo sukurtos, kaip skaitmeninės saugyklos – išsaugokite slaptažodžius, PIN
kodus ir saugos klausimus slaptažodžių tvarkytuvėje.
Uždenkite jūsų
pėdsakus
Kai pateikiate
atsiliepimą apie roboto atsakymą (paprastai pakeliate nykštį aukštyn arba
žemyn), galite duoti leidimą įvertinti jūsų raginimą ir jo išvestį ir netgi
naudoti mokymui. Jei pokalbis pažymėtas saugumo sumetimais (pavyzdžiui,
paminėjus smurtą), įmonės darbuotojai gali jį peržiūrėti.
Anthropic's Claude
pagal numatytuosius nustatymus nenaudoja jūsų pokalbių mokymuisi ir ištrina
duomenis po dvejų metų. „OpenAI“ „ChatGPT“, „Microsoft Copilot“ ir „Google“
„Gemini“ naudoja pokalbius, tačiau nustatymuose siūlo to atsisakyti.
Jei rūpinatės privatumu, išbandykite šiuos
patarimus:
-- Dažnai ištrinkite. Nepaprastai paranojiški
vartotojai turėtų ištrinti kiekvieną pokalbį jam pasibaigus, sako Jasonas
Clintonas, Anthropic vyriausiasis informacijos saugos pareigūnas. Įmonės
paprastai išvalo „ištrintus“ duomenis po 30 dienų.
Išimtis? „DeepSeek“, kuri turi serverius
Kinijoje. Pagal savo privatumo politiką jis gali saugoti jūsų duomenis neribotą
laiką ir nėra jokio atsisakymo pasiūlymo.
-- Naudokite laikinus pokalbius. „ChatGPT“
laikinas pokalbis, esantis viršutiniame dešiniajame pokalbio lango kampe, yra
tarsi jūsų naršyklės inkognito režimas. Įjunkite, kad „ChatGPT“ atminties
bankas nepridėtų šios medžiagos į jūsų profilį. Pokalbis nebus rodomas jūsų
istorijoje, o turinys nebus naudojamas modeliams mokyti.
-- Klauskite anonimiškai. Duck.ai, privatumo
paieškos variklio DuckDuckGo, anonimizuoja raginimus į jūsų pasirinktą AI
modelį, įskaitant Claude ir OpenAI GPT, ir sako, kad duomenys nenaudojami
modelių mokymui. Jis negali padaryti visko, ką gali, visas paslaugas teikiantis,
robotas, pvz., analizuoti failus.
Tiesiog nepamirškite: pokalbių robotai yra
užprogramuoti taip, kad pokalbis tęstųsi. Jūs turite susilaikyti arba paspausti
„ištrinti“.” [1]
1. The Five Things
You Shouldn't Tell ChatGPT or Other AI Tools --- Don't let your mystery
rash become training fodder -- or turn up in a data breach. Nguyen,
Nicole. Wall Street Journal, Eastern edition; New York, N.Y.. 02 Apr
2025: A12.