Sekėjai

Ieškoti šiame dienoraštyje

2024 m. birželio 5 d., trečiadienis

Dirbtinį intelektą kuriantys, darbuotojai bijo pareikšti susirūpinimą --- Grupė teigia, kad OpenAI, kitos firmos turi sukurti ataskaitų teikimo kanalus darbuotojams

„Dirbtinio intelekto (AI) pramonės darbuotojų grupė teigė negalintys išreikšti susirūpinimo dėl AI grėsmės žmonijai dėl konfidencialumo susitarimų, informatorių apsaugos trūkumo ir baimių dėl keršto.

 

 Antradienį paskelbtame laiške daugiau, nei tuzinas, esamų ir buvusių OpenAI, Google DeepMind ir Anthropic darbuotojų teigė, kad dirbtinio intelekto įmonės turi sukurti ataskaitų teikimo kanalus, kad darbuotojai galėtų saugiai pareikšti savo įmonėse ir visuomenei rūpimus klausimus. Jie teigė, kad konfidencialumo susitarimai neleidžia jiems viešai aptarti klausimų.

 

 „Žmonės, labiausiai išmanantys, kaip veikia AI sistemos ir su jų diegimu susijusi rizika, nėra visiškai laisvi kalbėti“, – sakė, laišką pasirašęs, buvęs OpenAI darbuotojas, Williamas Saundersas.

 

 Be Saunderso, laišką pasirašė dar šeši buvę OpenAI darbuotojai. Keturi dabartiniai „OpenAI“ darbuotojai ir vienas buvęs ir vienas dabartinis „Google“ AI tyrimų laboratorijos „DeepMind“ darbuotojas taip pat pasirašė savo vardus. Šeši iš pasirašiusiųjų buvo anonimiški.

 

 Trys pagrindiniai dirbtinio intelekto ekspertai parėmė laišką: AI mokslininkas Stuartas Russellas ir Yoshua Bengio bei Geoffrey Hintonas, kurie yra vadinamieji AI krikštatėviai dėl savo ankstyvų proveržio tyrimų. Hintonas paliko „Google“ praėjusiais metais, kad galėtų laisviau aptarti technologijos riziką.

 

 Hintonas ir kiti pastaraisiais metais skambino pavojaus varpais dėl būdų, kaip dirbtinis intelektas gali pakenkti žmonijai. Kai kurie dirbtinio intelekto tyrinėtojai mano, kad ši technologija gali tapti nekontroliuojama ir tapti tokia pat pavojinga, kaip pandemijos ir branduolinis karas. Kiti nerimauja, tačiau mano, kad dirbtinis intelektas turėtų būti labiau reguliuojamas.

 

 OpenAI antradienį atsakė į laišką, kad sutinka, kad turėtų būti vyriausybės reguliavimas.

 

 „Didžiuojamės savo pasiekimais, teikiančiais pačias pajėgiausias ir saugiausias AI sistemas, ir tikime savo moksliniu požiūriu į rizikos mažinimą“, – sakė „OpenAI“ atstovė. „Sutinkame, kad griežtos diskusijos yra labai svarbios, atsižvelgiant į šios technologijos reikšmę, ir toliau bendradarbiausime su vyriausybėmis, pilietine visuomene ir kitomis bendruomenėmis visame pasaulyje."

 

 „DeepMind“ ir „Anthropic“, kurią remia Amazon.com, antradienį iš karto nepateikė reakcijos dėl prašymų komentuoti.

 

 2015 m. įkurtas startuolis „OpenAI“ 2022 m. išleido „ChatGPT“ visuomenei. Pokalbių robotas tapo vienu iš labiausiai virusinių dirbtinio intelekto produktų, padėdamas „OpenAI“ perkelti į milijardus dolerių kainuojančią įmonę. Samas Altmanas, OpenAI vadovas ir vienas iš AI revoliucijos architektų, pareiškė norintis, kad ši technologija būtų kuriama saugiai.

 

 „News Corp“, „The Wall Street Journal“ savininkas, bendradarbiauja su „OpenAI“ turinio licencijavimo srityje.

 

 Antradienį pasirašytuose laiškuose teigiama, kad esami ir buvę darbuotojai yra vieni iš nedaugelio žmonių, galinčių patraukti korporacijas tapti atskaitingomis, nes vyriausybinės institucijos dirbtinio intelekto kompanijoms nevykdo plačios priežiūros.

 

 Jie teigė, kad jų susirūpinimą kelia tai, kad žmonės gali prarasti autonominių AI sistemų kontrolę, o tai savo ruožtu gali priversti žmones išnykti.

 

 Pasirašiusieji taip pat prašo įmonių leisti darbuotojams anonimiškai pranešti apie susirūpinimą, nekeršyti informatoriams ir neversti jų pasirašyti susitarimų, kurie galėtų juos nutildyti. Jie nori, kad dirbtinio intelekto įmonės būtų skaidresnės ir daugiau dėmesio skirtų apsaugos priemonėms.

 

 „OpenAI“ antradienį pranešė, kad turi anoniminę vientisumo karštąją liniją ir neišleidžia technologijų, kol nesukuria būtinų apsaugos priemonių.

 

 Buvęs „OpenAI“ darbuotojas Danielis Kokotajlo, pasirašęs laišką, teigė, kad įmonės neatsižvelgia į AI riziką, lenktyniaujant, kuriant šią technologiją.

 

 „Nusprendžiau palikti OpenAI, nes praradau viltį, kad jie elgsis atsakingai, ypač siekdami dirbtinio bendro intelekto“, – sakė jis.

 

 „Jie ir kiti pasirinko „greitai judėk ir sulaužyk dalykus“ metodą, o tai yra priešinga tam, ko reikia tokiai galingai ir menkai suprantamai technologijai.“ [1]

 

1. AI Workers Fear Voicing Concerns --- Group says OpenAI, others need to create reporting channels for employees. Lukpat, Alyssa.  Wall Street Journal, Eastern edition; New York, N.Y.. 05 June 2024: B.1.

Komentarų nėra: