Sekėjai

Ieškoti šiame dienoraštyje

2024 m. liepos 1 d., pirmadienis

Kaip rašyti mokslinius tekstus, naudojant generatyvųjį dirbtinį intelektą

„Tikrai, čia yra galimas įvadas į jūsų temą...“ – pradėjo neseniai paskelbtas straipsnis moksliniame žurnale „Surfaces and Interfaces“. Dėmesingi skaitytojai galėjo susimąstyti, kam tiksliai buvo skirta ta keista įžanginė eilutė. Jie taip pat galėjo susimąstyti, ar paskesnį straipsnį baterijų technologijos tema parašė žmogus arba mašina.

 

 Šį klausimą užduoda vis daugiau mokslinių straipsnių skaitytojų. 

 

Dideli kalbų modeliai (LLM) dabar yra daugiau, nei pakankamai geri, kad padėtų parašyti mokslinį darbą. Jie gali įkvėpti gyvybės tankiai mokslinei prozai ir pagreitinti rengimo procesą, ypač tiems, kuriems anglų kalba nėra gimtoji.

 

 Toks naudojimas taip pat susijęs su rizika: pavyzdžiui, LLM yra ypač jautrūs šališkumui ir gali išmesti daugybę tikėtinų nesąmonių.

 

 Vis dėlto neaišku, kiek tai buvo plačiai paplitusi problema.

 

 Neseniai „arXiv“ paskelbtame išankstiniame spaudinyje mokslininkai iš Tiubingeno universiteto Vokietijoje ir Šiaurės Vakarų universiteto Amerikoje pateikia šiek tiek aiškumo. Jų tyrimai, kurie dar nebuvo recenzuoti, rodo, kad mažiausiai viename iš dešimties naujų mokslinių straipsnių yra medžiaga, kurią sukūrė LLM. Tai reiškia, kad vien šiais metais bus paskelbta daugiau, nei 100 000 tokių straipsnių. Ir tai yra apatinė riba. Apskaičiuota, kad kai kuriose srityse, pavyzdžiui, kompiuterių mokslo, daugiau nei 20 % tyrimų santraukų yra LLM sukurto teksto. Tarp Kinijos kompiuterių mokslininkų darbų šis skaičius yra vienas iš trijų.

 

 Aptikti LLM sukurtą tekstą nėra lengva. Tyrėjai paprastai rėmėsi vienu iš dviejų metodų: aptikimo algoritmais, išmoktais atpažinti signalinius žmonių prozos ritmus, ir paprastesnę LLM neproporcingai mėgstamų įtartinų žodžių, tokių, kaip „pagrindinis“ ar „sfera“, medžioklę. Abu metodai remiasi „pagrindinės tiesos“ duomenimis: viena krūva tekstų, parašytų žmonių, o kita – mašinų. Juos surinkti stebėtinai sunku: laikui bėgant, keičiasi ir žmonių, ir mašinų sukurtas tekstas, vystantis kalboms ir atnaujinant modelius. Be to, šios problemos tyrėjai paprastai renka LLM tekstą, patys ragindami šiuos modelius, ir tai, kaip jie tai daro, gali skirtis nuo to, kaip elgiasi mokslininkai.

 

 Naujausias Dmitrijaus Kobako iš Tiubingeno universiteto ir jo kolegų tyrimas rodo trečią būdą, visiškai apeinant pagrindines tiesos duomenų poreikį. Grupės metodas įkvėptas demografinio darbo dėl perteklinių mirčių, leidžiančių nustatyti mirtingumą, susijusį su įvykiu, atsižvelgiant į numatomų ir stebimų mirčių skaičiaus skirtumus. Lygiai taip pat, kaip perteklinio mirtingumo metodas ieško nenormalaus mirtingumo, jų perteklinio žodyno metodas ieško nenormalaus žodžių vartojimo. Konkrečiai, tyrėjai ieškojo žodžių, kurie mokslinėse santraukose pasirodė žymiai dažniau, nei prognozuojama esamoje literatūroje. Korpusą, kurį jie pasirinko analizuoti, sudarė beveik visų straipsnių anglų kalba, kuriuos galima rasti biomedicininių tyrimų paieškos sistemoje PubMed, paskelbtų nuo 2010 m. sausio mėn. iki 2024 m. kovo mėn., santraukos, iš viso apie 14,2 mln.

 

 Tyrėjai nustatė, kad daugeliu metų žodžių vartojimas buvo gana stabilus: 2013–2019 m. jokiais metais žodžių dažnis nepadidėjo daugiau, nei 1%. Tai pasikeitė 2020 m., kai sprogo „SARS“, „koronavirusas“, „pandemija“, „liga“, „pacientai“ ir „sunkūs“. (Su „Covid“ susiję žodžiai ir toliau nusipelnė neįprastai daug vartojimo iki 2022 m.)

 

 2024 m. pradžioje, praėjus maždaug metams po to, kai LLM, pvz., ChatGPT, tapo plačiai prieinami, atsirado kitokių žodžių. Iš 774 žodžių, kurių vartojimas labai išaugo 2013–2024 m., 329 išaugo per pirmuosius tris 2024 m. mėnesius. Iš viso 280 iš jų buvo susiję su stiliumi, o ne su tema. Įspūdingi pavyzdžiai: „įsigilinimai“, „potencialūs“, „sudėtingi“, „skrupulingai“, „svarbūs“, „reikšmingi“ ir „įžvalgos“.

 

 Labiausiai tikėtina tokio padidėjimo priežastis, pasak mokslininkų, yra LLM pagalba. Kai jie įvertino santraukų, kuriose buvo naudojamas bent vienas perteklinis žodis (praleidžiant žodžius, kurie vis tiek plačiai vartojami), dalį, jie nustatė, kad mažiausiai 10%, tikriausiai, turėjo LLM įvestį. Kadangi PubMed kasmet indeksuoja apie 1,5 mln. straipsnių, tai reikštų, kad šiuo metu su LLM pagalba per metus parašoma daugiau, nei 150 000 straipsnių.

 

 Atrodo, kad kai kuriose srityse tai yra labiau paplitusi praktika, nei kitose. Tyrėjai nustatė, kad kompiuterių moksle buvo naudojama daugiausiai – daugiau, nei 20 %, o ekologijoje – mažiausiai, o apatinė riba buvo mažesnė, nei 5 %. Taip pat buvo skirtumų pagal geografiją: Taivano, Pietų Korėjos, Indonezijos ir Kinijos mokslininkai dažniausiai jais naudojosi, o iš Didžiosios Britanijos ir Naujosios Zelandijos – mažiausiai. (Tyrėjai iš kitų angliškai kalbančių šalių taip pat retai diegė LLM.) Skirtingi žurnalai taip pat davė skirtingus rezultatus. Nature šeimoje priklausančiose, taip pat kitose prestižinėse  tokiose, kaip „Science“ ir „Cell“, atrodo, kad LLM pagalbos lygis yra žemas (mažiau, nei 10 %), o „Sensors“ (žurnalas apie jutiklius) viršijo 24 proc.

 

 Perteklinio žodyno metodo rezultatai apytiksliai atitinka rezultatus, gautus, naudojant senesnius aptikimo algoritmus, kurie nagrinėjo mažesnius pavyzdžius iš ribotesnių šaltinių. Pavyzdžiui, 2024 m. balandžio mėn. išleistame išankstiniame leidinyje Stanfordo komanda nustatė, kad 17,5 % kompiuterių mokslo santraukų sakinių, greičiausiai, buvo sukurti LLM. Jie taip pat nustatė mažesnį paplitimą gamtos leidiniuose ir matematikos darbuose (LLM yra baisūs matematikoje). Nustatytas perteklinis žodynas taip pat atitinka esamus įtartinų žodžių sąrašus.

 

 Tokie rezultatai neturėtų pernelyg stebinti. Tyrėjai nuolat pripažįsta LLM naudojimą, rašant dokumentus. Vienoje 2023 m. rugsėjį apklausoje, kurioje dalyvavo 1 600 tyrėjų, daugiau, nei 25 % mokslininkų Nature teigė, kad, rankraščius rašydami, naudojo LLM. 

 

Didžiausia nauda, ​​kurią nurodė pašnekovai, kurių daugelis mokėsi arba naudojo dirbtinį intelektą savo darbe, buvo padėti redaguoti ir versti tiems, kuriems anglų kalba nebuvo gimtoji. Greitesnis ir lengvesnis kodavimas buvo antras, kartu su administracinių užduočių supaprastinimu; mokslinės literatūros apibendrinimas arba tralavimas; ir, iškalbingai, pagreitina tyrimų rankraščių rašymą.

 

 Nepaisant visų šių privalumų, LLM naudojimas rankraščiams rašyti nėra be rizikos. Pavyzdžiui, moksliniai darbai remiasi tiksliu neapibrėžtumo perdavimu, o tai yra sritis, kurioje LLM galimybės išlieka miglotos. Haliucinacijos, kai LLM užtikrintai teigia savo fantazijas, išlieka dažnos, kaip ir polinkis perkalbėti kitų žmonių žodžius, pažodžiui ir be priskyrimo.

 

 Tyrimai taip pat rodo, kad LLM pirmenybę teikia kitiems straipsniams, kurie tam tikroje srityje yra labai cituojami, o tai gali sustiprinti esamą šališkumą ir apriboti kūrybiškumą. Kaip algoritmai, jie taip pat negali būti išvardyti kaip autoriai popieriuje arba atsakyti už padarytas klaidas. Turbūt, labiausiai nerimą kelia tai, kad greitis, kuriuo LLM gali leisti prozą, gali užtvindyti mokslo pasaulį žemos kokybės publikacijomis.

 

 LLM naudojimo akademinė politika keičiasi. Kai kurie žurnalai tai visiškai draudžia. Kiti persigalvojo. Iki 2023 m. lapkričio mėn. „Science“ visą LLM tekstą vadino plagiatu, sakydama: „Galiausiai produktas turi kilti iš nuostabių kompiuterių mūsų galvose ir būti išreikštas jais“. Nuo tada jie pakeitė savo politiką: LLM tekstas dabar leidžiamas, jei dokumentų metodų skyriuje ir lydimuosiuose laiškuose pateikiamos išsamios pastabos apie tai, kaip jie buvo naudojami. Nature ir Cell taip pat leidžia jį naudoti, jei tai aiškiai pripažįstama.

 

 Neaišku, ar tokia politika bus įgyvendinama. Kol kas nėra jokio patikimo metodo, kaip išplauti LLM prozą. 

 

Net žodyno pertekliaus metodas, nors ir naudingas nustatant didelio masto tendencijas, negali pasakyti, ar konkreti santrauka turėjo LLM įvestį. 

 

Ir mokslininkams tereikia vengti tam tikrų žodžių, kad visiškai išvengtų aptikimo. 

 

Kaip sakoma naujajame išankstiniame spaudinyje, tai yra iššūkiai, į kuriuos reikia kruopščiai įsigilinti.“ [1]

 

1. Scientists, et ai. The Economist; London Vol. 451, Iss. 9403,  (Jun 29, 2024): 70, 71.

How to write scientific texts with help from generative artificial intelligence


"“CERTAINLY, HERE is a possible introduction for your topic...” began a recent article in Surfaces and Interfaces, a scientific journal. Attentive readers might have wondered who exactly that bizarre opening line was addressing. They might also have wondered whether the ensuing article, on the topic of battery technology, was written by a human or a machine.

It is a question ever more readers of scientific papers are asking. Large language models (LLMs) are now more than good enough to help write a scientific paper. They can breathe life into dense scientific prose and speed up the drafting process, especially for non-native English speakers. 

Such use also comes with risks: LLMs are particularly susceptible to reproducing biases, for example, and can churn out vast amounts of plausible nonsense. 

Just how widespread an issue this was, though, has been unclear.

In a preprint posted recently on arXiv, researchers based at the University of Tübingen in Germany and Northwestern University in America provide some clarity. Their research, which has not yet been peer-reviewed, suggests that at least one in ten new scientific papers contains material produced by an LLM. That means over 100,000 such papers will be published this year alone. And that is a lower bound. In some fields, such as computer science, over 20% of research abstracts are estimated to contain LLM-generated text. Among papers from Chinese computer scientists, the figure is one in three.

Spotting LLM-generated text is not easy. Researchers have typically relied on one of two methods: detection algorithms trained to identify the tell-tale rhythms of human prose, and a more straightforward hunt for suspicious words disproportionately favoured by LLMs, such as “pivotal” or “realm”. Both approaches rely on “ground truth” data: one pile of texts written by humans and one written by machines. These are surprisingly hard to collect: both human- and machine-generated text change over time, as languages evolve and models update. Moreover, researchers typically collect LLM text by prompting these models themselves, and the way they do so may be different from how scientists behave.

The latest research by Dmitry Kobak, at the University of Tübingen, and his colleagues, shows a third way, bypassing the need for ground-truth data altogether. The team’s method is inspired by demographic work on excess deaths, which allows mortality associated with an event to be ascertained by looking at differences between expected and observed death counts. Just as the excess-deaths method looks for abnormal death rates, their excess-vocabulary method looks for abnormal word use. Specifically, the researchers were looking for words that appeared in scientific abstracts with a significantly greater frequency than predicted by that in the existing literature (see chart 1). The corpus which they chose to analyse consisted of the abstracts of virtually all English-language papers available on PubMed, a search engine for biomedical research, published between January 2010 and March 2024, some 14.2m in all.

The researchers found that in most years, word usage was relatively stable: in no year from 2013-19 did a word increase in frequency beyond expectation by more than 1%. That changed in 2020, when “SARS”, “coronavirus”, “pandemic”, “disease”, “patients” and “severe” all exploded. (Covid-related words continued to merit abnormally high usage until 2022.)

By early 2024, about a year after LLMs like ChatGPT had become widely available, a different set of words took off. Of the 774 words whose use increased significantly between 2013 and 2024, 329 took off in the first three months of 2024. Fully 280 of these were related to style, rather than subject matter. Notable examples include: “delves”, “potential”, “intricate”, “meticulously”, “crucial”, “significant”, and “insights”.

The most likely reason for such increases, say the researchers, is help from LLMs. When they estimated the share of abstracts which used at least one of the excess words (omitting words which are widely used anyway), they found that at least 10% probably had LLM input. As PubMed indexes about 1.5m papers annually, that would mean that more than 150,000 papers per year are currently written with LLM assistance.

This seems to be more widespread in some fields than others. The researchers’ found that computer science had the most use, at over 20%, whereas ecology had the least, with a lower bound below 5%. There was also variation by geography: scientists from Taiwan, South Korea, Indonesia and China were the most frequent users, and those from Britain and New Zealand used them least. (Researchers from other English-speaking countries also deployed LLMs infrequently.) Different journals also yielded different results. Those in the Nature family, as well as other prestigious publications like Science and Cell, appear to have a low LLM-assistance rate (below 10%), while Sensors (a journal about, unimaginatively, sensors), exceeded 24%.

The excess-vocabulary method’s results are roughly consistent with those from older detection algorithms, which looked at smaller samples from more limited sources. For instance, in a preprint released in April 2024, a team at Stanford found that 17.5% of sentences in computer-science abstracts were likely to be LLM-generated. They also found a lower prevalence in Nature publications and mathematics papers (LLMs are terrible at maths). The excess vocabulary identified also fits with existing lists of suspicious words.

Such results should not be overly surprising. Researchers routinely acknowledge the use of LLMs to write papers. In one survey of 1,600 researchers conducted in September 2023, over 25% told Nature they used LLMs to write manuscripts. The largest benefit identified by the interviewees, many of whom studied or used AI in their own work, was to help with editing and translation for those who did not have English as their first language. Faster and easier coding came joint second, together with the simplification of administrative tasks; summarising or trawling the scientific literature; and, tellingly, speeding up the writing of research manuscripts.

For all these benefits, using LLMs to write manuscripts is not without risks. Scientific papers rely on the precise communication of uncertainty, for example, which is an area where the capabilities of LLMs remain murky. Hallucination—whereby LLMs confidently assert fantasies—remains common, as does a tendency to regurgitate other people’s words, verbatim and without attribution.

Studies also indicate that LLMs preferentially cite other papers that are highly cited in a field, potentially reinforcing existing biases and limiting creativity. As algorithms, they can also not be listed as authors on a paper or held accountable for the errors they introduce. Perhaps most worrying, the speed at which LLMs can churn out prose risks flooding the scientific world with low-quality publications.

Academic policies on LLM use are in flux. Some journals ban it outright. Others have changed their minds. Up until November 2023, Science labelled all LLM text as plagiarism, saying: “Ultimately the product must come from—and be expressed by—the wonderful computers in our heads.” They have since amended their policy: LLM text is now permitted if detailed notes on how they were used are provided in the method section of papers, as well as in accompanying cover letters. Nature and Cell also allow its use, as long as it is acknowledged clearly.

How enforceable such policies will be is not clear. For now, no reliable method exists to flush out LLM prose. Even the excess-vocabulary method, though useful at spotting large-scale trends, cannot tell if a specific abstract had LLM input. And researchers need only avoid certain words to evade detection altogether. As the new preprint puts it, these are challenges that must be meticulously delved into." [1]

1. Scientists, et ai. The Economist; London Vol. 451, Iss. 9403,  (Jun 29, 2024): 70, 71.

Kodėl turėtumėte galvoti, kaip teisininkas

„TEISININKAI dažnai laikomi didžiausiais vargšais tarp profesionalų. Ir labiausiai išjuokiami („Ką žinai, kai randi advokatą iki kaklo betone? Kažkam pritrūko betono“). Tačiau ta smerkianti reputacija yra nepelnyta: teisininkai. iš tikrųjų yra sektinas pavyzdys teisiniame mąstymo stiliuje įsitvirtinusio metodo ir kruopštumo ir jie turi ko išmokyti kitus žinių darbuotojus ir jų vadovus.

 

 Knygoje „One L“, pasakojančioje apie pirmuosius Harvardo teisės mokykloje metus, Scottas Turowas apibūdina lėtą ir varginantį pirmosios bylos nagrinėjimo progresą, kaip „betono maišymą blakstienomis“. 

 

Tačiau teisinis išsilavinimas nėra susijęs su konkrečiomis bylomis ar įstatais. Tai, kaip vėliau suprato ponas Turowas, yra informacijos kalno apdorojimas ir sprendimo priėmimas. Mokoma, kaip iš schemų daryti išvadas apie taisykles, naudoti analogijas, numatyti, kas gali nutikti toliau, priimti dviprasmiškumą ir būti pasiruošus viską kvestionuoti.

 

 Blaivus būdas tai daryti yra laikytis faktų. Svarbu, ką tu gali įrodyti. Paskutiniais teisės studijų metais ši viešnia rašytoja Bartleby savo ilgametei kirpėjai patarė, ar kito kliento elgesys prilygsta sutarties pažeidimui. Tai neprilygo – įstatymai nepasiūlė veiksmingo šios problemos sprendimo. Dėl to salono savininkas buvo dėkingas, kad neišleido išteklių prarastam tikslui. (Jis pradėjo atlyginti jūsų apžvalgininkei nemokamu kirpimu.)

 

 Verslo pasaulyje, kuriame vis labiau dominuoja amorfiškos, nuolat kintančios rinkos, vadovams ir daugeliui jų pavaldinių sąveika gali atrodyti pažįstama. Galų gale, „baltos apykaklės“ taip pat turi išlikti racionalios netikėtose situacijose ir nepasibaidyti pradinio nesupratimo. Nė vienas teisininkas nežino visų įstatymų, bet kai baigsis mokymai, jie yra ramūs nežinomybės akivaizdoje ir žino, kaip ir kur ką nors ieškoti. Taip pat kiekvienas, vadovaujantis įmonei, niekada neturės visų atsakymų. Jiems reikia santūrumo ir metodo, leidžiančio greitai padaryti išvadas, kurios labiau tikėtina, kad bus teisingos.

 

 Vadovai taip pat turi ko pasimokyti iš rungimosi teisinės sistemos, kuri yra pagrindinė bendrosios teisės jurisdikcijose, tokiose, kaip Amerika ir Didžioji Britanija, kur advokatai atstovauja savo pusėms prieš nešališką arbitrą (dažniausiai teisėją ir prisiekusiųjų komisiją). Ruošdamiesi teisminiam procesui, advokatai bando nustatyti ir pakartoti abi bylinėjimosi puses. Atsidūrę oponentų vietoje, jie yra priversti įsitraukti į samprotavimus, su kuriais gali nesutikti.

 

 Jei darbuotojų valdymas, kaip ir ginčas teisme, susijęs su įtikinėjimu, vadovams būtų protinga taikyti tokią pačią taktiką. Tai reiškia, kad reikia vengti emocinių reakcijų (advokatai gali bandyti apeliuoti į prisiekusiųjų jausmus, bet jie niekada neleis, kad jiems jų pačių jausmai trukdytų). Tai taip pat reiškia, kad reikia atsižvelgti į didžiausią savo samprotavimų kritiką. Tai ne tik padaro jų pačių argumentus neperšaunamus, bet ir gali atrodyti sąžininga darbuotojų ir kolegų vadovų akyse. (Be to, draugiška, bet išsami veiklos apžvalga iš esmės yra netikra kryžminė jūsų liudininkų apklausa.)

 

 Juk teisė yra būdas susidoroti su socialiniu stresu. Jei advokatai mokomi dėl vieno dalyko, tai kaip išlaikyti susikaupimą, tikslumą ir aiškų strateginį planą krizės įkarštyje. Kai komanda mano, kad klaida turi būti ištaisyta, vadovas turėtų ieškoti taisyklės, reglamentuojančios atitinkamą elgesį, kaip ši taisyklė buvo taikoma praeityje ir elgtis taip, kaip atrodo moraliai. Jei krizė yra išorinė, vadovas taip pat turėtų vadovautis precedentu, kuris yra bendrosios teisės ir daugumos teisininkų veiksmų teisme pagrindas. Tikslingumas ir svaiginantis ryžtas, būdingas daugumai teisininkų, yra savybės, kurias turėtų lavinti ir vadovai. Nelieka vietos pasyvumui, kai kas nors nepavyksta, tik veiksmui.

 

 Bene vertingiausia teisininkų pamoka yra ir pati akivaizdžiausia, ir labiausiai paniekinama. Priešnuodis darbiniam nerimui yra nenukrypti nuo darbo į meditacija ar „Netflix“. Tai disciplinuotas pasiruošimas. Yra atlygis, jei nepaliksite nė vieno akmens neapversto. Skirdami valandas, net jei už jas nereikia gauti užmokestį, vadovai gali užtikrinti, kad yra kuo geriau pasiruošę laukiantiems netikrumams. Kaip papildoma premija, sunkus įskiepis pelno jiems kolegų ir pavaldinių pagarbą.

 

 Jūsų apžvalgininkė nesiekė teisės karjeros. Tačiau ji niekada nesigailėjo, kad įgijo teisininkės išsilavinimą – ir ne tik dėl nemokamo kirpimo“ [1]

 

1.  Why you should think like a lawyer. The Economist; London Vol. 451, Iss. 9403,  (Jun 29, 2024): 57.

Why you should think like a lawyer


"LAWYERS ARE often seen as the most tedious of professionals. And the most derided (“What do you know when you find a lawyer up to his neck in concrete? Someone ran out of concrete”). Yet that damning reputation is undeserved: lawyers are in fact role models. The method and meticulousness entrenched in the legal style of thought has something to teach other knowledge workers and their managers.

In “One L”, a book about his first year at Harvard Law School, Scott Turow describes the slow, arduous progress of going over his first case as “stirring concrete with his eyelashes”. But legal education is not about specific cases or statutes. It is, as Mr Turow later understands, about processing a mountain of information and exercising judgment. It teaches how to infer rules from patterns, use analogies, anticipate what might happen next, accept ambiguity and be ready to question everything.

The sober way of going about this is by sticking to the facts. What matters is what you can prove. In her final year of law school, this guest Bartleby gave her hairdresser of many years advice on whether another client’s behaviour amounted to breach of contract. It did not—the law did not offer an effective remedy for that problem. This left the salon owner grateful not to be spending resources on a lost cause. (She proceeded to remunerate your columnist with a free haircut.)

In a world of business that is increasingly dominated by amorphous, ever-changing markets, the interaction might sound familiar to managers, and many of their subordinates. White-collar workers, after all, also need to remain rational in the face of unexpected situations and undeterred by initial incomprehension. No lawyer knows every law, but by the time their training is over they are calm in the face of the unknown and know how and where to look anything up. Likewise, anyone running a company will never have all the answers. What they need is equanimity and a method of quickly arriving at conclusions that are likelier than not to be the correct ones.

Managers also have something to learn from the adversarial legal system, central to common-law jurisdictions like America’s and Britain’s, where advocates represent their parties before an impartial arbiter (usually a judge and a jury). In preparing for trial, lawyers attempt to identify and rehearse both sides of litigation. By putting themselves in their opponents’ shoes they are forced to engage with a line of reasoning with which they may disagree.

In so far as managing employees is, like arguing a case before a court, about persuasion, managers would be wise to adopt some of the same tactics. That means avoiding emotional reactions (lawyers may try to appeal to jurors’ feelings but they never let their own get in the way). It also means considering the strongest criticism of their own reasoning. This not only makes their own arguments bulletproof but is liable to look fair in the eyes of employees and fellow managers. (Plus, a friendly but thorough performance review is essentially a mock cross-examination of your witnesses.)

Law, after all, is a way of dealing with social stress. If attorneys are trained for one thing, it is on how to maintain focus, precision and a clear strategic plan in the midst of a crisis. When a team feels a wrong should be redressed, a manager should look for the rule that governs the conduct in question, how that rule was applied in the past and act in a way that seems morally defensible. If the crisis is external, a manager should also follow precedent, which is the basis of common law and much of what lawyers do in court. The purposefulness and heady resolve that characterise most lawyers are attributes that executives, too, should cultivate. There is no room for passivity when something goes wrong, only for action.

Perhaps the most valuable lesson from lawyers is both the most obvious and the most scorned. The antidote to work anxiety is not taking your mind off work with meditation or Netflix. It is disciplined preparation. There are rewards in leaving no stone unturned. By putting in the hours, even if these are not billable, managers can ensure they are as ready as they can be for the uncertainties that lie ahead. As an added bonus, hard graft wins them the respect of colleagues and subordinates.

Your columnist ended up not pursuing a career in law. But she never regretted her training as a lawyer—and not just because of the free haircut." [1]

1.  Why you should think like a lawyer. The Economist; London Vol. 451, Iss. 9403,  (Jun 29, 2024): 57.