"Įsivaizduokite, kad įklijavote savo užrašus iš susitikimo su radiologu į dirbtinio intelekto (AI) pokalbių robotą ir paprašėte juos apibendrinti. Nepažįstamasis vėliau paragina tą patį generatyvinio AI pokalbių robotą, kad paaiškintų jiems apie jų susirūpinimą vėžiu ir kai kuriuos jūsų ištariamus klausimus. Privatus jūsų pokalbis išsiunčiamas tam vartotojui, kaip atsakymo dalis.
Susirūpinimas dėl tokių galimų privatumo pažeidimų šiais laikais yra labai svarbus daugeliui žmonių. Didelis klausimas yra toks: ar saugu dalytis asmenine informacija su šiais pokalbių robotais?
Trumpas atsakymas yra toks, kad visada yra rizika, kad informacija, kuria dalinsitės, bus kokiu nors būdu atskleista. Tačiau yra būdų, kaip apriboti šią riziką.
Norint suprasti susirūpinimą, reikia pagalvoti apie tai, kaip tos priemonės yra „apmokomos“ – kaip iš pradžių joms tiekiamas didžiulis kiekis informacijos iš interneto ir kitų šaltinių ir gali toliau rinkti informaciją iš bendravimo su vartotojais, kad galėtų tapti protingesnėmis ir tikslesnėmis.
Dėl to, kai užduodate AI pokalbių robotui klausimą, jo atsakymas iš dalies grindžiamas informacija, apimančia medžiagą, datuojama dar gerokai anksčiau, nei galiojo interneto duomenų naudojimo ir privatumo taisyklės. Ir dar naujesnėje šaltinio medžiagoje gausu žmonių asmeninės informacijos, kuri yra išsklaidyta visame žiniatinklyje. Tai palieka daug galimybių privačiai informacijai būti įtrauktai į įvairią generatyvaus AI pokalbių robotų mokymo medžiagą – informaciją, kuri gali netyčia atsirasti kažkieno pokalbyje su pokalbių robotu arba būti tyčia įsilaužta arba atskleista blogų veikėjų per gudrius raginimus arba klausimus.
„Mes žinome, kad jie buvo apmokyti naudotis daugybe informacijos, kurioje gali būti ir, tikriausiai yra, neskelbtinos informacijos“, – sako Ramayya Krishnan, Block Center for Technology and Society fakulteto direktorė ir Heinzo informacinių sistemų ir visuomenės koledžo dekanė. Carnegie Mellon universiteto politika. Viena iš pagrindinių problemų, sako Krishnanas, yra ta, kad niekas neatliko nepriklausomo audito, kad pamatytų, kokie mokymo duomenys naudojami.
„Daug įrodymų gaunama iš akademikų, kurie įsilaužė pro apsauginius turėklus ir rodo, kad mokymo duomenyse yra asmeninė informacija“, – sako jis. „Aš tikrai žinau atakų, kurios įrodo, kad mokymo modeliuose yra slaptų duomenų."
Be to, jis priduria, kad įdiegus dirbtinio intelekto įrankį, jis paprastai ir toliau mokosi, kaip naudotojai sąveikauja su juo, įsisavindamas ir saugodamas bet kokią informaciją, kurią jie teikia.
Be to, kai kuriais atvejais darbuotojai skaito kai kuriuos vartotojų pokalbius su pokalbių robotais. Tai iš dalies daroma, siekiant sugauti ir užkirsti kelią netinkamam elgesiui bei padėti užtikrinti modelių tikslumą ir kokybę, sako ekspertai, taip pat siekiant nuspręsti, kurį pokalbių pogrupį įmonės nori naudoti AI mokymui.
Susirūpinimas dėl privatumo nėra teorinis. Buvo pranešta apie atvejus, kai konfidenciali informacija buvo netyčia atskleista vartotojams. Praėjusį kovą „OpenAI“ atskleidė pažeidžiamumą, dėl kurio kai kurie „ChatGPT“ naudotojai galėjo matyti kitų naudotojų pokalbių pavadinimus, naudojant įrankį ir taip pat galėjo trumpam atskleisti kai kurių vartotojų su mokėjimu susijusius duomenis, įskaitant el. pašto adresus ir paskutinius keturis kredito kortelės skaitmenis, kortelių numerius, taip pat kredito kortelių galiojimo datas. Taip buvo dėl tam tikros atvirojo kodo programinės įrangos klaidos (tai reiškia, kad ją visi gali nemokamai peržiūrėti, modifikuoti ir įdiegti), kuri buvo naudojama įrankio mokymuose.
Pokalbių robotai taip pat yra pažeidžiami tyčinių atakų. Pavyzdžiui, kai kurie mokslininkai neseniai rado lengvų būdų apeiti apsauginius turėklus ir atskleisti asmeninę informaciją, surinktą, naudojant didelius kalbos modelius, įskaitant el. pašto adresus.
„ChatGPT“ pažeidžiamumas „buvo greitai pataisytas“, pažymi Krishnanas. „Tačiau esmė ta, kad šios AI programinės įrangos sistemos yra sudėtingos ir sukurtos ant kitų programinės įrangos komponentų, iš kurių kai kurie yra atvirojo kodo, ir jose yra pažeidžiamumų, kuriuos galima išnaudoti. Panašūs pažeidžiamumai būdingi dideliems kalbos modeliams, sako Irina Raicu, Santa Klaros universiteto Markkulos taikomosios etikos centro interneto etikos programos direktorė.
Susirūpinimas dėl privatumo yra pakankamai didelis, kad kelios įmonės apribojo arba uždraudė savo darbuotojams darbe naudoti AI pokalbių robotus. „Jei didžiosios įmonės nerimauja dėl savo privatumo, jei jos nėra tikros, kas vyksta su jų duomenimis, tai mums sako, kad turėtume būti atsargūs, dalindamiesi bet kuo asmeniniu“, – sako Raicu.
Raicu sako, kad nėra daug ką nuveikti dėl to, kas jau yra pokalbių robotų modeliuose, bet kodėl jūs rizikuojate, kad jūsų asmeninė informacija pateks ten, įvesdami tokius naujus duomenis į modelį?
„Plepėjimo botų“ kūrėjai ėmėsi tam tikrų veiksmų, kad apsaugotų vartotojų privatumą. Pavyzdžiui, vartotojai gali išjungti ChatGPT galimybę neribotą laiką saugoti jų pokalbių istoriją per labai matomą perjungiklį pagrindiniame puslapyje. Tai nėra patikima apsauga nuo įsilaužėlių – svetainė teigia, kad nauji šią parinktį pasirinkusių vartotojų pokalbiai vis tiek saugomi 30 dienų, tačiau aiškiai nurodoma, kad pokalbiai nebus naudojami modeliui apmokyti.
Bard reikalauja, kad vartotojai prisijungtų prie Bard.Google.com, tada atliktų kelis veiksmus, kad ištrinti visą pokalbių veiklą, kaip numatytąjį variantą. „Microsoft“ atstovas teigia, kad „Bing“ vartotojai gali atidaryti pokalbių roboto tinklalapį, peržiūrėti jų paieškos istoriją, tada ištrinti atskirus pokalbius, kuriuos nori pašalinti. „Tačiau šiuo metu vartotojai negali išjungti pokalbių istorijos“, – sako jis.
Tačiau geriausias būdas vartotojams apsisaugoti, pasak ekspertų, yra nesidalyti asmenine informacija naudojant generatyvų AI įrankį ir ieškoti tam tikrų raudonų vėliavėlių, kai kalbama su bet kuriuo AI.
Kai kurios raudonos vėliavėlės apima pokalbių roboto naudojimą, kuriame nėra privatumo pranešimo. „Tai rodo, kad reikalingas valdymas nėra toks brandus, koks turėtų būti“, – sako Dominique'as Sheltonas Leipzigas, advokatų kontoros Mayer Brown privatumo ir kibernetinio saugumo partneris.
Kitas dalykas, kai pokalbių robotas prašo daugiau asmeninės informacijos, nei pagrįstai reikia. „Kartais norint patekti į paskyrą, reikia pasidalinti savo sąskaitos numeriu arba slaptažodžiu ir atsakyti į kai kuriuos asmeninius klausimus, ir tai nėra neįprasta“, – sako Sheltonas Leipcigas. „Prašymas pasidalyti socialinio draudimo numeriu JAV ar asmens kodu Lietuvoje yra visai kas kita. Ji taip pat sako, kad neprotinga diskutuoti apie ką nors asmeniško su pokalbių robotu, apie kurį niekada negirdėjote.
Santa Klaros universiteto Raicu įspėja, kad į bendro naudojimo pokalbių robotą nereikėtų įvesti konkrečių sveikatos būklių ar finansinės informacijos, nes dauguma pokalbių robotų įmonių paslaugų sąlygose aiškiai nurodo, kad darbuotojai gali skaityti kai kuriuos pokalbius. "Ar verta rizikuoti, kad jūsų informacija pateks ten, kai generatyvaus AI atsakymas vis tiek gali būti netikslus? Tikriausiai, ne", - sako Raicu.
Carnegie Mellon Krishnan, nurodydamas įsilaužėlių pavojų, įspėja žmones gerai pagalvoti, prieš naudojant „Google Bard“ funkciją, kuri leidžia įrankiui skaityti ir apdoroti visus jūsų el. laiškus, kad suprastų jūsų rašymo stilių ir toną.
Galiausiai, ką įvedate į pokalbių robotą, reikia apskaičiuoti riziką ir atlygį. Tačiau ekspertai teigia, kad turėtumėte bent du kartus patikrinti pokalbių roboto paslaugų teikimo sąlygas ir privatumo politiką, kad suprastumėte, kaip bus naudojami jūsų duomenys.
„Laimei, šiuo metu nesame paskutinėje, katastrofiškoje, dienoje pokalbių roboto aplinkoje“, – sako Sheltonas Leipcigas. "Gerbiamos generatyvinės AI įmonės imasi veiksmų, kad apsaugotų vartotojus." Vis dėlto, jo teigimu, visada būkite atidūs prieš dalindamiesi jautria informacija.
---
Heidi Mitchell yra rašytoja iš Čikagos ir Londono. Su ja galite susisiekti adresu reports@wsj.com.“ [1]
1. Artificial Intelligence (A Special Report) --- Is It Safe to Share Personal Information With a Chatbot? Users may find it tempting to reveal health and financial information in conversations with AI chatbots. There are plenty of reasons to be cautious. Mitchell, Heidi. Wall Street Journal, Eastern edition; New York, N.Y.. 22 Jan 2024: R.9.
Komentarų nėra:
Rašyti komentarą