Sekėjai

Ieškoti šiame dienoraštyje

2023 m. spalio 20 d., penktadienis

Pagrindžiant būtinybę, kad generatyvusis dirbtinis intelektas būtų atviro šaltinio projektas

  „Pelno nesiekiantis Alleno dirbtinio intelekro (AI) institutas, kuriam vadovauja gerbiamas kompiuterių mokslininkas, pardavęs jo įmonę Apple, bando demokratizuoti pažangiausius tyrimus.

 

     Ali Farhadi nėra technologijų maištininkas.

 

     42 metų informatikas yra labai gerbiamas mokslininkas, Vašingtono universiteto profesorius ir startuolio, kurį įsigijo Apple, įkūrėjas, kuriame dirbo prieš keturis mėnesius.

 

     Tačiau J. Farhadi, kuris liepą tapo Alleno dirbtinio intelekto instituto vadovu, ragina „radikaliai atvirai“ demokratizuoti mokslinius tyrimus ir plėtrą naujoje dirbtinio intelekto bangoje, kuri, daugelio nuomone, yra svarbiausia technologijų pažanga per dešimtmečius.

 

     Alleno institutas pradėjo ambicingą iniciatyvą sukurti laisvai prieinamą A.I. alternatyva technologijų milžinams, tokiems, kaip „Google“, ir naujoms įmonėms, tokioms, kaip „OpenAI“. 

 

Pramonės procese, vadinamame atviruoju šaltiniu, kitiems tyrėjams bus leista atidžiai išnagrinėti ir naudoti šią naują sistemą bei į ją įvestus duomenis.

 

     Alleno instituto, įtakingo ne pelno siekiančio tyrimų centro Sietle, pozicija yra viena aršių diskusijų apie tai, kaip atviras ar uždarytas naujas A.I. turėtų būti. Ar atidarius vadinamąjį generatyvųjį A.I., kuris veikia tokius pokalbių robotus, kaip OpenAI ChatGPT ir Google Bard, atsiras daugiau naujovių ir galimybių? O gal tai atvertų skaitmeninės žalos Pandoros skrynią?

 

     Apibrėžimai, ką reiškia „atviras“ generatyvinio A.I. kontekste, skiriasi. Tradiciškai programinės įrangos projektai atvėrė pagrindinį „šaltinio“ kodą programoms. Tada kiekvienas gali peržiūrėti kodą, pastebėti klaidas ir teikti pasiūlymus. Yra taisyklės, reglamentuojančios, ar bus atlikti pakeitimai.

 

     Taip veikia populiarūs atvirojo kodo projektai už plačiai naudojamos Linux operacinės sistemos, Apache žiniatinklio serverio ir Firefox naršyklės.

 

     Tačiau generatyvus A.I. technologija apima daugiau, nei kodą. A.I. modeliai yra mokomi ir tikslinami kiekvieną kartą, kai gaunamas didžiulis duomenų kiekis.

 

     Ekspertai įspėja, kad ir kaip geri ketinimai, Alleno instituto pasirinktas, kelias iš esmės yra rizikingas.

 

     „Sprendimai dėl AI sistemų atvirumo yra negrįžtami ir, greičiausiai, bus vieni svarbiausių mūsų laikų“, – sakė Harvardo Berkmano Kleino interneto ir visuomenės centro tyrėjas Avivas Ovadya. Jis mano, kad, norint nustatyti, kokios technologijos neturėtų būti viešai skelbiamos, reikia tarptautinių susitarimų.

 

     Generatyvus A.I. yra galingas, bet dažnai nenuspėjamas. Jis gali akimirksniu rašyti el. laiškus, eilėraščius ir kursinius darbus bei žmogiškai sklandžiai atsakyti į bet kokį įsivaizduojamą klausimą. Tačiau ji taip pat turi nerimą keliančią tendenciją sugalvoti dalykus, kuriuos mokslininkai vadina „haliucinacijomis“.

 

     Žymiausi pokalbių robotų gamintojai – „Microsoft“ palaikoma „OpenAI“ ir „Google“ – savo naujesnę technologiją uždarė ir neatskleidė, kaip jų A.I. modeliai mokomi ir derinami. Visų pirma „Google“ turėjo ilgą istoriją skelbdama savo tyrimus ir dalindama savo A.I. programinę įrangą, tačiau ji vis labiau pasiliko savo technologiją sau, kurdama „Bard“.

 

     Bendrovės teigia, kad toks požiūris sumažina riziką, kad nusikaltėliai užgrobs technologiją, kad dar labiau užtvindytų internetą dezinformacija ir sukčiavimu arba imtųsi pavojingesnio elgesio.

 

     Atvirų sistemų šalininkai pripažįsta riziką, tačiau teigia, kad geresnis sprendimas yra turėti daugiau protingų žmonių, kurie kovotų su jomis.

 

     Kai Meta išleido A.I. modelis, pavadintas LLaMA (Large Language Model Meta AI), šiemet sukėlė ažiotažą. M. Farhadi gyrė Metos žingsnį, bet nemano, kad tai pakankamai toli.

 

     "Jų požiūris iš esmės yra toks: aš padariau šiek tiek magijos. Aš jums nesakysiu, kas tai yra", - sakė jis.

 

     M. Farhadi siūlo atskleisti techninius A.I. modelių duomenis, kuriais jie buvo mokomi, atliktas koregavimas ir priemonės, naudojamos jų elgesiui įvertinti.

 

     Alleno institutas žengė pirmąjį žingsnį, išleisdamas didžiulį duomenų rinkinį, skirtą A.I. modeliams. Jis sudarytas iš viešai prieinamų duomenų iš interneto, knygų, akademinių žurnalų ir kompiuterio kodo. Duomenų rinkinys kuruojamas taip, kad būtų pašalinta, asmenį identifikuojanti, informacija ir toksiška kalba, pvz., rasistinės ir nešvankios frazės.

 

     Redaguojant priimami teismo sprendimai. Ar pašalinus kai kurias kalbas, kurios laikomos nuodingomis, sumažės modelio gebėjimas aptikti neapykantą kurstančią kalbą?

 

     Alleno instituto duomenų rinkinys yra didžiausias šiuo metu turimas atvirų duomenų rinkinys, sakė P. Farhadi. Nuo tada, kai jis buvo išleistas rugpjūtį, jis buvo atsisiųstas daugiau, nei 500 000 kartų iš Hugging Face, atvirojo kodo A.I. išteklių ir bendradarbiavimo.

 

     Alleno institute duomenų rinkinys bus naudojamas apmokyti ir tiksliai suderinti didelę generatyvaus A.I. programą OLMo (Open Language Model), kuri bus išleista šiais metais arba kitų pradžioje.

 

     Didžiųjų A.I. modeliai, sakė M. Farhadi, yra „juodosios dėžės“ technologija. „Stumiame stiklinę dėžę“, – sakė jis. „Atverk viską, tada galėsime pasikalbėti apie elgesį ir iš dalies paaiškinti, kas“tai vyksta viduje“.

 

     Tik keletas pagrindinių generatyvinių A.I. yra atvirai prieinami tokio dydžio modeliai, kokius turi Allen institutas. Tarp jų yra „Meta's LLAMA“ ir „Falcon“ – projektas, remiamas Abu Dabio vyriausybės.

 

     Alleno institutas atrodo kaip logiški namai dideliam A.I. projektą. „Jis yra gerai finansuojamas, bet veikia su akademinėmis vertybėmis ir padeda plėtoti atvirą mokslą ir AI technologijas“, - sakė Zachary Lipton, Carnegie Mellon universiteto kompiuterių mokslininkas.

 

     Alleno institutas bendradarbiauja su kitais, siekdamas įgyvendinti savo atvirą viziją. Šiais metais pelno nesiekianti organizacija „Mozilla Foundation“ skyrė 30 mln. sktinti variklius, tokius, kaip Allen Institute, kad juos būtų lengviau naudoti, stebėti ir įdiegti.

 

     „Mozilla Foundation“, kuris buvo įkurtas 2003 m., siekiant skatinti, kad internetas būtų pasaulinis išteklius, atviras visiems, nerimauja dėl tolesnės technologijų ir ekonominės galios koncentracijos.

 

     „Nedidelis žaidėjų rinkinys, esantis vakarinėje JAV pakrantėje, bando užrakinti generatyviąją A.I. erdvę, dar prieš jai išėjus iš vartų“, – sakė fondo prezidentas Markas Surmanas.

 

     P. Farhadi ir jo komanda praleido daug laiko, bandydami suvaldyti savo atvirumo strategijos riziką. Pavyzdžiui, jie ieško būdų, kaip įvertinti modelio elgesį mokymo etape ir užkirsti kelią tam tikriems veiksmams, pavyzdžiui, rasinei diskriminacijai ir biologinių ginklų gamybai.

 

     P. Farhadi didžiųjų pokalbių robotų modelių apsauginius turėklus laiko juostinėmis priemonėmis, kurias sumanūs įsilaužėliai gali lengvai nuplėšti. „Mano argumentas yra toks, kad neturėtume leisti, kad tokios žinios būtų užkoduotos šiuose modeliuose“, – sakė jis.

 

     Žmonės darys blogus dalykus, naudodami šią technologiją, sakė M. Farhadi, kaip ir su visomis galingomis technologijomis. Jis pridūrė, kad visuomenės užduotis yra geriau suprasti ir valdyti riziką. Jis teigia, kad atvirumas yra geriausias būdas rasti saugumą ir dalytis ekonominėmis galimybėmis.

 

     „Reguliavimas savaime to neišspręs“, – sakė M. Farhadi.

 

     Alleno instituto pastangos susiduria su didžiulėmis kliūtimis. Svarbiausia yra tai, kad, norint sukurti ir tobulinti didelį generacinį modelį, reikia daug skaičiavimo jėgos.

 

     M. Farhadi ir jo kolegos teigia, kad naujos programinės įrangos technologijos yra efektyvesnės. Vis dėlto jis apskaičiavo, kad Alleno instituto iniciatyvai per ateinančius porą metų reikės 1 milijardo dolerių vertės kompiuterių. Jis pradėjo bandyti surinkti paramą iš vyriausybinių agentūrų, privačių įmonių ir technologijų filantropų. Tačiau jis atsisakė pasakyti, ar iškėlė rėmėjus, ar įvardijo juos.

 

     Jei jam pasiseks, didesnis išbandymas bus sukurti ilgalaikę bendruomenę, kuri paremtų projektą.

 

     „Reikia atvirų žaidėjų ekosistemos, kad iš tikrųjų atsitrenktų į didelius žaidėjus“, – sakė p. Surmanas iš „Mozilla Foundation“. "Ir iššūkis tokio pobūdžio žaidime yra tik kantrybė ir atkaklumas." [1]

 

1. Making Case For A.I. to Be Open Source: [Business/Financial Desk]. Lohr, Steve.  New York Times, Late Edition (East Coast); New York, N.Y.. 20 Oct 2023: B.1.

Making Case For A.I. to Be Open Source


"The nonprofit Allen Institute for AI, led by a respected computer scientist who sold his company to Apple, is trying to democratize cutting-edge research.

Ali Farhadi is no tech rebel.

The 42-year-old computer scientist is a highly respected researcher, a professor at the University of Washington and the founder of a start-up that was acquired by Apple, where he worked until four months ago.

But Mr. Farhadi, who in July became chief executive of the Allen Institute for AI, is calling for "radical openness" to democratize research and development in a new wave of artificial intelligence that many believe is the most important technology advance in decades.

The Allen Institute has begun an ambitious initiative to build a freely available A.I. alternative to tech giants like Google and start-ups like OpenAI. In an industry process called open source, other researchers will be allowed to scrutinize and use this new system and the data fed into it.

The stance adopted by the Allen Institute, an influential nonprofit research center in Seattle, puts it squarely on one side of a fierce debate over how open or closed new A.I. should be. Would opening up so-called generative A.I., which powers chatbots like OpenAI's ChatGPT and Google's Bard, lead to more innovation and opportunity? Or would it open a Pandora's box of digital harm?

Definitions of what "open" means in the context of the generative A.I. vary. Traditionally, software projects have opened up the underlying "source" code for programs. Anyone can then look at the code, spot bugs and make suggestions. There are rules governing whether changes get made.

That is how popular open-source projects behind the widely used Linux operating system, the Apache web server and the Firefox browser operate.

But generative A.I. technology involves more than code. The A.I. models are trained and fine-tuned on round after round of enormous amounts of data.

However well intentioned, experts warn, the path the Allen Institute is taking is inherently risky.

"Decisions about the openness of A.I. systems are irreversible, and will likely be among the most consequential of our time," said Aviv Ovadya, a researcher at the Berkman Klein Center for Internet & Society at Harvard. He believes international agreements are needed to determine what technology should not be publicly released.

Generative A.I. is powerful but often unpredictable. It can instantly write emails, poetry and term papers, and reply to any imaginable question with humanlike fluency. But it also has an unnerving tendency to make things up in what researchers call "hallucinations."

The leading chatbots makers -- Microsoft-backed OpenAI and Google -- have kept their newer technology closed, not revealing how their A.I. models are trained and tuned. Google, in particular, had a long history of publishing its research and sharing its A.I. software, but it has increasingly kept its technology to itself as it has developed Bard.

That approach, the companies say, reduces the risk that criminals hijack the technology to further flood the internet with misinformation and scams or engage in more dangerous behavior.

Supporters of open systems acknowledge the risks but say having more smart people working to combat them is the better solution.

When Meta released an A.I. model called LLaMA (Large Language Model Meta AI) this year, it created a stir. Mr. Farhadi praised Meta's move, but does not think it goes far enough.

"Their approach is basically: I've done some magic. I'm not going to tell you what it is," he said.

Mr. Farhadi proposes disclosing the technical details of A.I. models, the data they were trained on, the fine-tuning that was done and the tools used to evaluate their behavior.

The Allen Institute has taken a first step by releasing a huge data set for training A.I. models. It is made of publicly available data from the web, books, academic journals and computer code. The data set is curated to remove personally identifiable information and toxic language like racist and obscene phrases.

In the editing, judgment calls are made. Will removing some language deemed toxic decrease the ability of a model to detect hate speech?

The Allen Institute data trove is the largest open data set currently available, Mr. Farhadi said. Since it was released in August, it has been downloaded more than 500,000 times on Hugging Face, a site for open-source A.I. resources and collaboration.

At the Allen Institute, the data set will be used to train and fine-tune a large generative A.I. program, OLMo (Open Language Model), which will be released this year or early next.

The big commercial A.I. models, Mr. Farhadi said, are "black box" technology. "We're pushing for a glass box," he said. "Open up the whole thing, and then we can talk about the behavior and explain partly what's happening inside."

Only a handful of core generative A.I. models of the size that the Allen Institute has in mind are openly available. They include Meta's LLaMA and Falcon, a project backed by the Abu Dhabi government.

The Allen Institute seems like a logical home for a big A.I. project. "It's well funded but operates with academic values, and has a history of helping to advance open science and A.I. technology," said Zachary Lipton, a computer scientist at Carnegie Mellon University.

The Allen Institute is working with others to push its open vision. This year, the nonprofit Mozilla Foundation put $30 million into a start-up, Mozilla.ai, to build open-source software that will initially focus on developing tools that surround open A.I. engines, like the Allen Institute's, to make them easier to use, monitor and deploy.

The Mozilla Foundation, which was founded in 2003 to promote keeping the internet a global resource open to all, worries about a further concentration of technology and economic power.

"A tiny set of players, all on the West Coast of the U.S., is trying to lock down the generative A.I. space even before it really gets out the gate," said Mark Surman, the foundation's president.

Mr. Farhadi and his team have spent time trying to control the risks of their openness strategy. For example, they are working on ways to evaluate a model's behavior in the training stage and then prevent certain actions like racial discrimination and the making of bioweapons.

Mr. Farhadi considers the guardrails in the big chatbot models as Band-Aids that clever hackers can easily tear off. "My argument is that we should not let that kind of knowledge be encoded in these models," he said.

People will do bad things with this technology, Mr. Farhadi said, as they have with all powerful technologies. The task for society, he added, is to better understand and manage the risks. Openness, he contends, is the best bet to find safety and share economic opportunity.

"Regulation won't solve this by itself," Mr. Farhadi said.

The Allen Institute effort faces some formidable hurdles. A major one is that building and improving a big generative model requires lots of computing firepower.

Mr. Farhadi and his colleagues say emerging software techniques are more efficient. Still, he estimates that the Allen Institute initiative will require $1 billion worth of computing over the next couple of years. He has begun trying to assemble support from government agencies, private companies and tech philanthropists. But he declined to say whether he had lined up backers or name them.

If he succeeds, the larger test will be nurturing a lasting community to support the project.

"It takes an ecosystem of open players to really make a dent in the big players," said Mr. Surman of the Mozilla Foundation. "And the challenge in that kind of play is just patience and tenacity."" [1]

1. Making Case For A.I. to Be Open Source: [Business/Financial Desk]. Lohr, Steve.  New York Times, Late Edition (East Coast); New York, N.Y.. 20 Oct 2023: B.1.

 

Kaip „Hamas“ užklupo visiškai neinformuotą JAV ir Izraelio žvalgybą

  „Hamas ataka prieš Izraelį turėtų būti pavojaus signalas JAV žvalgybos tarnyboms. Tai, kad tokio masto teroristinis išpuolis, turintis seisminių pasekmių pasauliniam saugumui, daugeliui Vašingtone buvo netikėtas, rodo, kad turime iš naujo įvertinti savo pajėgumus, kad būtų imtasi ryžtingų operacijų, siekiant užtikrinti, kad Amerika turėtų visapusišką grėsmės vaizdą, galintį iš anksto įspėti ir užkirsti kelią nacionalinio saugumo tragedijoms.

 

     Izraeliečiai, be jokios abejonės, nuodugniai išnagrinės šią klaidą. Į galvą ateina kelios galimos priežastys, kodėl Izraelis ir jo sąjungininkai, įskaitant JAV, nepranešė apie tikslų atakos pobūdį, laiką ir mastą.

 

     Dezinformacija galėjo turėti įtakos Izraelio žvalgybos susilpnėjimui. „Hamas“ turi ilgametę patirtį, susijusią su Izraelio žvalgybos metodais ir strateginiais prioritetais, suteikiant teroristams žinių, kaip tiekti Izraelio pareigūnams melaginga informacija. Per pastaruosius dvejus metus Izraelis, regis, užmezgė darbo santykius su „Hamas“ tokiais klausimais, kaip humanitarinės pagalbos pristatymas ir darbo leidimai Gazos Ruožo gyventojams. Tai būtų suteikę „Hamas“ operatyvininkams galimybę reguliariai bendrauti su izraeliečiais ir, galbūt, įgyti izraeliečių pasitikėjimą, pasidalijant tikslia informacija apie kitas Gazos ruožo grėsmes – tai suteiktų patikimumo „Hamas“ apgaulei dėl jos planų.

 

     Tačiau, vykdant tokio masto teroristinę operaciją, turėjo būti prieinama kompensacinė informacija. „Hamas“ planavo ir treniravosi išpuoliui mažiausiai kelis mėnesius ir, kaip pranešama, prisidėjo iš išorės rėmėjų, ypač Irano. Sunku įsivaizduoti, kad ne vienas žvalgybos šaltinis neperspėjo apie artėjančią šimtų „Hamas“ narių ir jų rėmėjų puolimą tiek Gazoje, tiek už jos ribų.

 

     Atrodo, kad tai taip pat buvo politikų ir žvalgybos pareigūnų analizės nesėkmė. Įprasta išmintis galėjo juos suklaidinti. Kai dirbau Centrinėje žvalgybos valdyboje, prielaidos, kurios tapo vadinamąja įprastine išmintimi, dažniausiai buvo analitinių nesėkmių priežastis. Izraelio darbiniai santykiai su „Hamas“ galėjo lemti klaidingą įsitikinimą, kad Gazos ruožo grėsmė yra kontroliuojama. Toks įsitikinimas galėjo paskatinti Izraelį nuvertinti arba klaidingai suprasti žvalgybos informaciją, leidžiančią manyti, kad „Hamas“ planavo ar net galėjo atlikti tokią ataką.

 

     Kai kurie žiniasklaidos pranešimai jau skelbė, kad izraeliečiai gavo užsienio žvalgybos įspėjimus apie galimą išpuolį, bet atmetė juos dėl „vaizduotės nesėkmės“. 

 

Tačiau gerai įsitaisęs šnipas vaizduotę daro nereikalinga. 

 

Ypač Vašingtonas turėtų paklausti, kodėl mūsų šnipai neparodė grėsmės tiek, kad jos nebūtų galima ignoruoti. Tikėtina, kad atsakymas turi blaivių padarinių ir Amerikos žvalgybai.

 

     Realybė tokia, kad žmogaus žvalgybos duomenų rinkimas, kitaip tariant, šnipų verbavimas ir panaudojimas, sustojo. JAV ir jos sąjungininkės padidino išteklius technologiniams žvalgybos sprendimams, tokiems, kaip signalų žvalgyba ir skaitmeninis stebėjimas, todėl šnipinėjimo tinklai liko nepakankamai finansuojami. Bendras operatyvininkų, kurie šiandien tvarko JAV, Šiaurės Atlanto sutarties organizacijos sąjungininkų ir Izraelio šnipus, skaičius yra mažesnis, nei jūreivių, dirbančių viename lėktuvnešyje. Žaidėjai, kurie rungtyniauja Super Bowl, per metus gauna daugiau atlyginimo, nei visi šnipai visame pasaulyje kartu paėmus.

 

     JAV žmogaus žvalgybos programos dydžio ir finansavimo išplėtimas yra pirmas žingsnis, tačiau taip pat turime pritaikyti savo metodiką. Dėl precedento neturinčių aukštųjų technologijų kontržvalgybos galimybių, tokių, kaip dronų ir elektroninis stebėjimas, biometrinis identifikavimas ir dirbtinis intelektas, Amerikos pareigūnams praktiškai neįmanoma likti nepastebėtiems užsienyje. Skubiai reikia daug daugiau šnipų meistrų, kurie galėtų dirbti su natūralia, neoficialia priedanga tikrose įmonėse, atliekančiose teisėtą darbą. Vašingtonas negali pasikliauti tik keliais aukšto lygio šaltiniais, bet turėtų įdarbinti keliais lygiais ir mesti daug platesnį tinklą. Šaltiniai, kurie gali organiškai pakilti per gretas, galiausiai, turės prieigą prie jautresnės ir vertingesnės informacijos.

 

     Mūsų taktinėse programose taip pat gali būti padaryta tam tikrų pakeitimų. Dėl išvykimo iš Afganistano ir Irako JAV kinetinio taikymo programos, kurios buvo būtinos, kai buvome vietoje, tampa daug mažiau svarbios. Personalas ir ištekliai, skirti šioms programoms, turėtų būti sutelkti į strateginės informacijos apie tai, kaip mūsų priešų lyderiai priima svarbiausius operatyvinius sprendimus, rinkimui.

 

     JAV turi iš naujo pažvelgti į ilgalaikes grėsmes, kurios galėjo nuslysti į mūsų nacionalinio saugumo prioritetų dugną, ir atnaujinti savo žvalgybos programas. Negalime vėl būti užkluptais netikėtai.

     ---

     P. Devine'as yra buvęs laikinai einantis CŽV operacijų direktoriaus pavaduotojo pareigas ir Niujorke įsikūrusios tarptautinės žvalgybos ir tyrimų bendrovės „Arkin Group“ prezidentas. Jis yra autorius „Spymasters' Prism“, kuri bus išleista lapkritį minkštais viršeliais.” [1]

 

1. How Hamas Caught U.S. and Israeli Intelligence Unaware. Devine, Jack.  Wall Street Journal, Eastern edition; New York, N.Y.. 20 Oct 2023: A.17.

How Hamas Caught U.S. and Israeli Intelligence Unaware.


"Hamas's attack on Israel should be a wake-up call to U.S. intelligence services. That a terrorist attack of this magnitude -- with seismic implications for global security -- came as a surprise to many in Washington shows that we need to reassess our own operations sharply to ensure that America has a comprehensive threat picture that can provide early warnings and prevent national-security tragedies.

The Israelis will no doubt examine this lapse thoroughly. Several possible reasons come to mind for why Israel and its allies, including the U.S., failed to report on the exact nature, timing and scale of the attack.

Disinformation could have played a role in diluting Israeli intelligence. Hamas has years of experience with Israel's intelligence methods and strategic priorities, giving the terrorists the know-how to feed Israeli operatives false information. Over the past two years, Israel had seemingly developed a working relationship with Hamas on issues like humanitarian-aid deliveries and work permits for Gaza residents. That would have given Hamas operatives opportunities to communicate regularly with Israelis and perhaps gain the Israelis' trust by sharing accurate information on other threats from Gaza -- lending credibility to Hamas's deceptions about its own plans.

Yet with a terrorist operation of this scope, there had to be countervailing information available. Hamas planned and trained for the attack for at least several months and reportedly had input from outside supporters, especially Iran. It's hard to imagine that not a single intelligence source warned of the coming onslaught among hundreds of Hamas members and their supporters both inside and outside Gaza.

This then also looks to have been a failure of politicians' and intelligence officials' analysis. Conventional wisdom might have led them astray. During my tenure at the Central Intelligence Agency, assumptions that became so-called conventional wisdom were the root of analytical failures more often than not. The Israelis' working relationship with Hamas might have led to an incorrect belief that the threat from Gaza was under control. That belief could have led Israel to undervalue or misread intelligence suggesting that Hamas was planning, or even capable of, such an attack.

Some media reports have already posited that the Israelis received foreign intelligence warnings about the potential attack but dismissed them because of a "failure of imagination." But a well-placed spy makes imagination unnecessary. Washington in particular should ask why our spies didn't surface the threat to the extent that it couldn't be ignored. The answer is likely one that has sobering ramifications for American intelligence, too.

The reality is that human-intelligence collection -- in other words, the recruitment and use of spies -- has stagnated. The U.S. and its allies have ramped up resources for technological intelligence solutions such as signals intelligence and digital surveillance, leaving spy networks underfunded. The total number of field operatives who handle spies today for the U.S., its North Atlantic Treaty Organization allies and Israel is less than the number of sailors who staff a single aircraft carrier. And the players who compete in the Super Bowl get paid more a year than all the spies worldwide combined.

Expanding the size and funding of the U.S. human-intelligence program is the first step, but we also need to adapt our methodology. Unprecedented high-tech counterintelligence capabilities like drone and electronic surveillance, biometric identification and artificial intelligence make it virtually impossible for American officials to go undetected abroad. There's an urgent need for a much larger number of spy masters who can work with natural, unofficial cover in real businesses doing legitimate work. Washington can't rely only on a handful of high-level sources but should recruit at multiple levels and cast a much wider net. Sources who can organically rise through the ranks will eventually have access to more sensitive and valuable information.

Our tactical programs could also do with some changes. The departure from Afghanistan and Iraq makes U.S. kinetic targeting programs, which were essential when we had a presence on the ground, far less relevant. The staff and resources devoted to these programs should be refocused on collecting strategic information on how our adversaries' leaders are making key operational decisions.

The U.S. needs to take a fresh look at longstanding threats that might have slipped to the bottom of our national-security priorities and reinvigorate its intelligence programs. We can't be caught unaware again.

---

Mr. Devine is a former acting CIA deputy director of operations and president of the Arkin Group, a New York-based international intelligence and investigative company. He is author of "Spymasters' Prism," which will be released in paperback in November." [1]

1. How Hamas Caught U.S. and Israeli Intelligence Unaware. Devine, Jack.  Wall Street Journal, Eastern edition; New York, N.Y.. 20 Oct 2023: A.17.