Sekėjai

Ieškoti šiame dienoraštyje

2026 m. balandžio 13 d., pirmadienis

Dirbtinis intelektas keičia ekonomiką – norint suprasti jo poveikį, reikia ir duomenų, ir vaizduotės.


„Kontroliuojami tyrimai užfiksuoja tik dalį dirbtinio intelekto poveikio. Ekonomistai turėtų bendradarbiauti su socialinių mokslų atstovais, kad rastų novatoriškų būdų, kaip visapusiškai suvokti šią sparčiai besivystančią sritį.

 

Kaip dirbtinis intelektas pakeis pasaulio ekonomiką? Kai kurie ekonomistai prognozuoja tik nedidelį postūmį – apie 0,9 % bendrojo vidaus produkto padidėjimą per ateinančius dešimt metų1.

 

Kiti numato revoliuciją, kuri iki 2045 m. gali padidinti pasaulinės ekonomikos metinę produkciją nuo 17 iki 26 trilijonų JAV dolerių ir automatizuoti iki pusės dabartinių darbo vietų.

 

Tačiau dar prieš pasireiškiant visam poveikiui, įsitikinimai apie mūsų dirbtinio intelekto ateitį daro įtaką ekonomikai šiandien – lemia jaunų žmonių karjeros pasirinkimą, vyriausybės politiką ir skatina didžiulius investicijų srautus į puslaidininkius ir kitus duomenų centrų komponentus.

 

Kodėl dirbtinio intelekto poveikio vertinimas turi prasidėti dabar?

 

Atsižvelgiant į didelę riziką, daugelis tyrėjų ir politikos formuotojų vis dažniau bando tiksliai kiekybiškai įvertinti dirbtinio intelekto priežastinį poveikį, atlikdami natūralius eksperimentus ir atsitiktinius kontroliuojamus tyrimus. Tokiuose tyrimuose viena grupė gauna prieigą prie dirbtinio intelekto įrankio, o kita tęsia jį su... normaliomis sąlygomis; kiti veiksniai yra fiksuoti. Tyrėjai gali analizuoti tokius rezultatus kaip produktyvumas, pasitenkinimas ir mokymasis.

 

Vis dėlto, taikant šį įrodymą dirbtiniam intelektui, jis susiduria su dviem iššūkiais. Pirma, iki jų paskelbimo priežastiniai dirbtinio intelekto poveikio įverčiai gali būti pasenę. Pavyzdžiui, viename tyrime nustatyta, kad skambučių centro darbuotojai, naudodami 2020 m. dirbtinio intelekto įrankius, užklausas tvarkydavo 15 % greičiau3. Kitas tyrimas parodė, kad programinės įrangos kūrėjai, turėję prieigą prie kodavimo asistentų 2022–2023 m., atliko 26 % daugiau užduočių nei tie, kurie tokių įrankių neturėjo4. Tačiau dirbtinio intelekto galimybės tobulėja stulbinančiu greičiu. Pavyzdžiui, nuo „ChatGPT“ išleidimo 2022 m. dirbtinio intelekto įrankiai dabar gali patys teisingai tvarkyti tris kartus daugiau imituojamų klientų aptarnavimo pokalbių nei anksčiau5. Geresnis ir pigesnis rytojaus dirbtinis intelektas sukels skirtingą ekonominį poveikį.

 

Antra, kruopščiai kontroliuojami tyrimai neapima platesnio masto poveikio, kuris lydi dirbtinio intelekto diegimą. Pavyzdžiui, tyrimai, kuriuose dalyvavo skambučių centro darbuotojai3 ir programinės įrangos kūrėjai4, parodė, kad kai organizacinė struktūra išliko fiksuota, mažiau patyrę darbuotojai daugiausia naudos iš dirbtinio intelekto pagalbos gavo. Tačiau Realiame pasaulyje vadovai gali reaguoti reorganizuodami darbą arba net pakeisdami kai kuriuos mažiau patyrusius darbuotojus dirbtinio intelekto sistemomis. Jei taip atsitiks, poveikis šiems asmenims gali būti priešingas, nei apskaičiuota kontroliuojamuose tyrimuose. Iš tiesų, darbo užmokesčio duomenys rodo, kad jaunesnių darbuotojų užimtumas nuo 2022 m. sumažėjo, ypač profesijose, kuriose atliekamos užduotys, kuriose dirbtinis intelektas pasižymi geriausiais rezultatais, pavyzdžiui, klientų aptarnavimas ir programinės įrangos kūrimas6. Tačiau tyrėjai vis dar bando suprasti, kiek šio modelio galima priskirti dirbtinio intelekto technologijoms.

 

Kruopščiai kontroliuojami tyrimai yra tarsi ryškus, siauras prožektorius: jie yra tik dalis apšvietimo, reikalingo norint suprasti, kaip visuomenė prisitaiko prie dirbtinio intelekto. Kadangi dar tiek daug nežinoma apie platesnį jo ekonominį ir socialinį poveikį, populiarios diskusijos dažnai nuslysta į spekuliatyvius, mokslinės fantastikos pasakojimus apie mašininio intelekto dominuojamą pasaulį.

 

Socialiniai mokslai galėtų padėti įveikti šiuos neaiškumus, tačiau tam reikėtų ir vaizduotės, ir pagrindimo. Čia aprašau tris vienas kitą papildančius metodus, kurie gali padėti tyrėjams, dirbantiems šioje sparčiai besivystančioje srityje.

 

Socialinė mokslinė fantastika

 

Vienas iš būdų – kurti tai, ką ekonomistas Jeanas Tirole'as vadina socialine moksline fantastika7 – spekuliacijas apie ateitį, kurios lieka pagrįstos pagrindiniais ekonomikos principais. ir elgsenos teorijas. Užuot pasiremę vien vaizduote, tokio pobūdžio analizė naudoja modelius, kad ištirtų, kaip technologijos gali sąveikauti su rinkos jėgomis.

 

Pavyzdžiui, 2019 m. tyrėjai modeliavo, kaip savaeigiai automobiliai gali pakeisti miestus, ir nustatė, kad šios transporto priemonės gali pabloginti eismą8. Kadangi savaeigių automobilių keleiviai gali atsipalaiduoti, skaityti ar žiūrėti vaizdo įrašus, asmeninės išlaidos, praleistos eisme, mažėja. Tačiau vis daugiau žmonių renkasi keliauti automobiliu, jie sukelia didesnes spūstis kitiems. Ar tai sukels neefektyvumą, priklausys nuo to, ar vyriausybės įgyvendins tokią politiką kaip spūsčių kainodara, kad ištaisytų „išorinį poveikį“.

 

Kitas vaizduotės kupino, tačiau pagrįsto socialinio mokslo pavyzdys yra tyrimai, kaip rinkos jėgos gali apriboti dirbtinio intelekto ardomąjį potencialą. Tyrimai9,10 rodo, kad automatizavimui didinant kai kurių užduočių produktyvumą, kitos veiklos, kurių negalima lengvai automatizuoti, pavyzdžiui, kūrybinis vadovavimas ar galutinių rezultatų tikrinimas, santykinė vertė augs. Tai gali padidinti darbo jėgos paklausą, taigi ir atlyginimus tokiuose darbuose. Šios galimybės galėtų sušvelninti kai kuriuos ardomuosius automatizavimo padarinius. Tačiau tai taip pat gali padidinti nelygybę tarp žmonių, kurie klesti šiuose vaidmenyse, ir tų, kurie to nedaro. Daugiau tokių minties eksperimentų gali padėti politikos formuotojams įsivaizduoti, kaip ekonomika galėtų drausmingiau keistis. Tokie eksperimentai gali nustatyti, kuriuos rodiklius stebėti, ir padėti pradėti planuoti reikalingą politiką. Kitos neišspręstos problemos apima paskatų kurti žinias dirbtinio intelekto sistemoms supratimą ir tai, kaip gali būti paveiktos inovacijos ir ekonomikos augimas, jei dirbtinio intelekto laboratorijos išliks konkurencingos tarpusavyje arba jei viena iš jų išsiveržs į priekį kaip aiški rinkos lyderė.

 

 

Į ateitį orientuoti duomenys

 

 

Be teorijos, politikos formuotojams taip pat reikės įrodymų, kad suprastų, kaip keisis ekonomika. Norint susidaryti išsamesnį vaizdą, reikia derinti skirtingų tipų informaciją.

 

 

Vienas iš įprastų būdų vertinti dirbtinio intelekto galimybes yra lyginamoji analizė – sistemų testavimas atliekant standartizuotas užduotis, panašiai kaip tai daroma su egzaminais. Lyginamieji standartai gali įvertinti dirbtinio intelekto sistemos gebėjimą spręsti matematikos problemas, reaguoti į klientų aptarnavimo užklausas arba diagnozuoti ligas. Tačiau lyginamosios analizės balai dažnai skiriasi nuo rezultatų realiomis sąlygomis, kai užduotys yra triukšmingesnės, sudėtingesnės ir priklausomos nuo konteksto. Pavyzdžiui, medicininė dirbtinio intelekto sistema gali gerai atlikti vadovėlinio stiliaus klinikinius klausimus, tačiau gali neteisingai interpretuoti pacientų pranešimus, jei praleis svarbias detales. Reikia daugiau tyrimų, kad būtų sukurti lyginamieji rodikliai, kurie geriau atspindėtų realaus pasaulio našumą.

 

Jei dirbtinis intelektas bus bent kiek toks transformuojantis, kaip daugelis tikisi, jo poveikis atsispindės daugelyje rodiklių, kuriuos galima stebėti realiuoju laiku, pavyzdžiui, stebint, kokioms užduotims žmonės naudoja dirbtinį intelektą. Šie naudojimo duomenys rodo, pavyzdžiui, kad dirbtinio intelekto pokalbių robotai dažnai naudojami programinės įrangos kūrimui, o tai rodo, kad šis sektorius gali pajusti ankstyviausią dirbtinio intelekto diegimo poveikį11,12. Kiti rodikliai apima užimtumą, laisvas darbo vietas ir tai, ar įmonės, integruojančios dirbtinį intelektą, gauna didesnį pelną ir plečiasi. Tačiau bus klausimų, į kuriuos vien tokie aprašomieji rodikliai negali atsakyti. Dėl šios priežasties tyrėjai vis tiek gali bandyti išmatuoti priežastinį dirbtinio intelekto poveikį: tai yra, ar dirbtinis intelektas sukelia patobulinimų, o ne tik tai, kad jį diegia aukšto lygio darbuotojai, kurie taip pat labiau linkę išbandyti naujas technologijas.

 

Dirbtinis intelektas gali padidinti nelygybę – nebent visuomenė išmoks ją kontroliuoti

 

Įvertinti dirbtinio intelekto priežastinį poveikį yra sunku, nes technologijos vystosi, o organizacijos prisitaiko. Tačiau šis iššūkis būdingas ne tik dirbtiniam intelektui. Panašūs klausimai kyla vertinant, kaip bet kuri bandomoji programa – verslo, švietimo ar visuomenės sveikatos srityje – veiks, kai bus išplėsta. Išplėtus programas, jos dažnai susiduria su naujais apribojimais arba sukelia platesnio masto ekonominius padarinius. Ekonomistai sukūrė metodus, kaip numatyti šiuos mastelio keitimo efektus projektuojant eksperimentus, pavyzdžiui, atkartoti galutinio įgyvendintojo – pavyzdžiui, vyriausybinės agentūros – sąlygas, o ne lankstesnių, geriau aprūpintų organizacijų, kurios paprastai vykdo bandomuosius projektus, sąlygas13–15. Dirbtinį intelektą tyrinėjantys tyrėjai, projektuodami eksperimentus, gali panašiai bandyti numatyti būsimus pokyčius.

 

Vienas svarbus parametras yra dirbtinio intelekto modelių vykdymo kaina, kuri mažėja. Tyrėjai gali modeliuoti, kaip kainų mažėjimas gali paveikti skirtingų programų gyvybingumą. Pavyzdžiui, viename tyrime16 buvo nagrinėjamas Siera Leonės mokytojų, kurie už interneto prieigą moka megabaitais, dirbtinio intelekto naudojimas. 2022 m. pradžioje užklausos pateikimas dirbtinio intelekto pokalbių robotui buvo 12 kartų brangesnis nei standartinio tinklalapio įkėlimas; iki 2025 m., dėl mažėjančių skaičiavimo sąnaudų ir dirbtinio intelekto pralaidumo efektyvumo, technologijos naudojimas tapo 98 % pigesnis nei tinklalapio pasiekimas. Šis sąnaudų pranašumas rodo, kad DI gali išplėsti prieigą prie informacijos mažai išteklių turinčiose aplinkose, kur internetas yra brangus.

 

DI galimybės yra dar vienas svarbus jo poveikio veiksnys. Sunku numatyti, kaip jos vystysis, tačiau tyrėjai gali pabandyti numatyti, kaip žmonės gali reaguoti į galingesnes sistemas. Net ir technologijoms tobulėjant, žmonių elgesys paprastai laikosi stabilių modelių – kalbant apie tai, kaip žmonės ugdo pasitikėjimą, kaip jie reaguoja į paskatas ir kaip jie prisitaiko prie automatizavimo.

 

Vienas iš būdų numatyti būsimų sistemų poveikį yra modeliuoti šį elgesį, derinant duomenis su teorija. Pavyzdžiui, radiologų ir diagnostinio DI tyrimas parodė, kad gydytojai dažnai pasikliauja DI sprendimu, net kai pati sistema signalizuoja apie neapibrėžtumą. Tai rodo, kad dalinis pasitikėjimas DI sistemomis, kuriose žmonės turėtų prižiūrėti algoritmus, kartais gali būti mažiau veiksmingas nei aiškios atsakomybės priskyrimas žmogui arba mašinai. Taikant šį metodą sukurti ekonominiai modeliai gali imituoti, kaip DI galėtų pakeisti skirtingas rinkas ir institucijas.

 

Ekonomistai taip pat gali kurti eksperimentus, kuriais siekiama aplenkti dabartinius pajėgumus. Tais atvejais, kai žmonės vis dar pranoksta dirbtinį intelektą, tyrėjai gali tirti, kaip žmonės galėtų sąveikauti su būsima dirbtinio intelekto sistema, naudodami „Ozo šalies burtininko“ bandymą. Šioje sistemoje dalyviai mano, kad jie sąveikauja su DI sistema, tačiau užduotį slapta atlieka patyręs žmogus. Tai leidžia tyrėjams stebėti, kaip vartotojai reaguoja į DI tipo sąveikas dar prieš tai, kai technologija gali atlikti užduotį pati. Iš tiesų, net kai kurios komercinės DI sistemos iš dalies remiasi žmogaus įtaka: pavyzdžiui, savaeigiai automobiliai pasitelkia nuotolinius žmones, kad šie išeitų iš keblių situacijų, tačiau to daro mažiau, tobulėjant savaeigiams automobiliams. Tyrimai, imituojantys ateities DI naudojant žmones, gali rodyti, kad tam tikri ateities DI sistemų integravimo būdai sukeltų problemų, o tai būtų vertinga politikos formuotojams.

 

Vienas iš iššūkių, su kuriuo susiduria visi šie metodai, yra tai, kad žmonės jau diegia DI savo kasdieniame gyvenime, o tai reiškia, kad nebėra „švarios“ kontrolinės grupės, kurios technologija nebūtų paliesta. Daugeliu atvejų daugiausia, ką galime išmatuoti, yra prieigos prie konkretaus DI įrankio suteikimo poveikis, palyginti su tuo, koks DI naudojimo lygis tuo metu atitinka įprastas sąlygas. Kad tokie įrodymai būtų interpretuojami, kartu su pagrindiniais rezultatais tyrėjai turėtų pateikti ne tik numatomą poveikį, bet ir tai, kaip DI buvo naudojamas kontrolinėje grupėje, kuri technologijos versija buvo išbandyta ir kaip buvo struktūrizuota žmonių ir sistemos sąveika.

 

Bandomosios ekonomikos

 

Užuot stebėję tik tai, kaip DI keičia ekonominę veiklą, tyrėjai turėtų išbandyti ir išbandyti rinkų, įmonių ir institucijų struktūrizavimo būdus. DI jau keičia įmonių darbo ieškančiųjų vertinimo būdą. Tuo tarpu mokyklos turi nuspręsti, kaip DI turėtų būti naudojamas mokymesi, kokie įgūdžiai bus svarbūs DI turtingoje darbo rinkoje ir kaip studentai gali įtikinamai pademonstruoti šiuos gebėjimus darbdaviams.

 

Politikos formuotojai gali iš anksto pasimokyti iš sektorių, kurie yra DI diegimo priešakyje, pavyzdžiui, programinės įrangos kūrimo, tačiau jie taip pat turėtų pradėti bandomuosius projektus tokiose srityse kaip švietimas ir sveikatos apsauga. Jos galėtų veikti kaip „specialios ekonominės zonos“ DI – paskirtos erdvės, kuriose technologiją būtų galima saugiai išbandyti. Jos galėtų apimti paskatas privačioms organizacijoms greičiau diegti DI įrankius, taip pat reguliavimo „smėlio dėžes“, kurios suteikia laikinas išimtis iš pasirinktų taisyklių, tačiau apima griežtą priežiūrą, panašią į tas, kurios naudojamos finansų srityje. Toks ankstyvas diegimas leistų numatyti, kaip galėtų atrodyti DI integruota ateitis.

 

Šiose zonose tyrėjai, pedagogai, gydytojai ir platesnės bendruomenės turės proaktyviai kurti sistemas, o ne tiesiog reaguoti į sutrikimus. Pavyzdžių jau yra. JAV interneto paslaugų įmonė „Cloudflare“ eksperimentuoja su mechanizmais, leidžiančiais interneto svetainių kūrėjams imti mokestį iš dirbtinio intelekto sistemų už prieigą prie jų turinio, o kelios mokyklos testuoja būdus, kaip struktūrizuoti dieną naudojant dirbtinį intelektą savarankiškam mokymuisi paremti. Šių bandomųjų projektų išplėtimas padės mums suprasti skirtingų technologinės pažangos integravimo būdų privalumus ir trūkumus.

 

Kelias į priekį

 

DI įgalins – ir galbūt pareikalaus – naujų visuomenės organizavimo būdų. Kaip įmonės, institucijos ir bendruomenės galėtų vystytis reaguodamos į tai? Kokius kompromisus reikš skirtingi keliai? Norint atsakyti į šiuos klausimus, reikia vaizduotės apie tai, kaip galėtų pasikeisti pasaulis, taip pat pagrįstų įrodymų, gautų taikant elgesio modelius, ateities eksperimentus ir naujų bendradarbiavimo formų bandomuosius projektus.

 

Šio darbo negalima atlikti atskirai. Tam reikalingas glaudus technologų, pilietinių novatorių ir socialinių mokslų bendradarbiavimas. Pavyzdžiui, pilietinis verslininkas gali sukurti institucinę struktūrą, skirtą apdovanoti asmenis už mokymo duomenų pateikimą dirbtinio intelekto modeliams; teoretikas gali išsiaiškinti skirtingų mokėjimo schemų pasekmes; o empirinis tyrėjas gali praktiškai stebėti, ar atlygis skiriamas naudingiausiam turiniui.

 

„DI visuomeninių pasekmių supratimas turi tapti bendru projektu – projektu, kuris tyrinėja įvairias galimas ateities perspektyvas ir padeda mums sąmoningai rinktis, kokią visuomenę norime kurti.“ [1]

 

1. Nature 648, 535-537 (2025) By Daniel Björkegren

 

 

 

 

AI is transforming the economy — understanding its impact requires both data and imagination

“Controlled studies capture only a fraction of the effects of artificial intelligence. Economists should work with social scientists to find innovative ways to fully grasp this fast-moving field.

 

How will artificial intelligence reshape the global economy? Some economists predict only a small boost — around a 0.9% increase in gross domestic product over the next ten years1.

 

Others foresee a revolution that might add between US$17 trillion and $26 trillion to annual global economic output and automate up to half of today’s jobs by 2045.

 

But even before the full impacts materialize, beliefs about our AI future affect the economy today — steering young people’s career choices, guiding government policy and driving vast investment flows into semiconductors and other components of data centres.

 

Why evaluating the impact of AI needs to start now

 

Given the high stakes, many researchers and policymakers are increasingly attempting to precisely quantify the causal impact of AI through natural experiments and randomized controlled trials. In such studies, one group gains access to an AI tool while another continues under normal conditions; other factors are held fixed. Researchers can then analyse outcomes such as productivity, satisfaction and learning.

 

Yet, when applied to AI, this type of evidence faces two challenges. First, by the time they are published, causal estimates of AI’s effects can be outdated. For instance, one study found that call-centre workers handled queries 15% faster when using 2020 AI tools3. Another showed that software developers with access to coding assistants in 2022–23 completed 26% more tasks than did those without such tools4. But AI capabilities are advancing at an astounding pace. For example, since ChatGPT’s release in 2022, AI tools can now correctly handle three times as many simulated customer-support chats on their own as they could before5. The better, cheaper AI of tomorrow will produce different economic effects.

 

Second, carefully controlled studies do not capture the wider ripple effects that accompany AI adoption. For example, the studies involving call-centre workers3 and software developers4 found that when organizational structure remained fixed, the less-experienced workers benefited most from AI assistance. But in the real world, managers might respond by reorganizing work or even replacing some of the less-experienced workers with AI systems. If they do, the effect on those individuals could be the opposite of that estimated in controlled studies. Indeed, payroll data suggest that employment of younger workers has declined since 2022, particularly in occupations that include tasks that AI excels at, such as customer service and software development6. However, researchers are still trying to understand how much of the pattern is attributable to AI technology.

 

Carefully controlled studies are like flashing a bright, narrow spotlight: they are only part of the illumination needed to understand how society is adapting to AI. With so much still unknown about its broader economic and social effects, popular debate often slips into speculative, science-fiction narratives of a world dominated by machine intelligence.

 

Social science could help to navigate these uncertainties, but it would require both imagination and grounding. Here, I describe three complementary approaches that can guide researchers working in this rapidly evolving field.

Social science fiction

 

One approach is to create what economist Jean Tirole calls social science fiction7 — speculation about the future that remains rooted in fundamental economic principles and behavioural theories. Rather than relying on imagination alone, this kind of analysis uses models to explore how technologies might interact with market forces.

 

For example, in 2019, researchers modelled how self-driving cars might reshape cities and found that the vehicles could make traffic worse8. Because passengers in self-driving cars can relax, read or watch videos, the personal cost of time spent in traffic falls. But as more people choose to travel by car, they impose greater congestion on others. Whether that leads to inefficiency will depend on whether governments implement policies such as congestion pricing to correct the ‘externality’.

 

Another illustration of imaginative, yet grounded, social science comes from research on how market forces might limit AI’s disruptive potential. Studies9,10 suggest that, as automation boosts productivity in some tasks, other activities that cannot easily be automated — such as creative direction or vetting final outputs — will grow in relative value. That might raise demand for labour, and therefore wages, in such jobs. These opportunities could cushion some of the disruptive effects of automation. But it might also deepen inequalities between people who thrive in these roles and those who do not.

 

More thought experiments like these can help policymakers to imagine how the economy might shift in a more disciplined manner. Such experiments can identify which indicators to monitor and provide a head start on planning the policies that might be needed. Other open problems include understanding the incentives to create knowledge for AI systems, and how innovation and economic growth might be affected if AI labs remain competitive with each other, or if one pulls ahead as a clear market leader.

 

Forward-looking data

 

As well as theory, policymakers will also need evidence to understand how the economy will change. Different types of information need to combine to form a more complete picture.

 

One common approach to assessing AI capabilities is benchmarking — testing the systems on standardized tasks, much as exams do. Benchmarks can assess an AI system’s ability to solve mathematics problems, respond to customer-support requests or diagnose medical conditions. However, benchmark scores often diverge from performance in real-world settings, where tasks are noisier, more complex and context-dependent. For example, a medical AI system might perform well on textbook-style clinical questions, but could misinterpret communications from patients if they omit key details. More research is needed to design benchmarks that better capture real-world performance.

 

If AI is anywhere near as transformative as many expect, its effects will show up in numerous indicators that can be monitored in real time, such as tracking which tasks people use AI for. These usage data show, for instance, that AI chatbots are often used for software development, suggesting that this sector might feel the earliest effects of AI adoption11,12. Other indicators include employment, job openings and whether firms that integrate AI earn higher profits and expand. However, there will be questions that such descriptive indicators alone cannot answer. For that reason, researchers might still attempt to measure the causal impact of AI: that is, whether AI causes improvements, rather than merely being adopted by high performers who also happen to be more willing to try new technologies.

 

AI can supercharge inequality — unless the public learns to control it

 

Estimating AI’s causal effects is difficult because the technology is evolving and organizations are adapting. But this challenge is not unique to AI. Similar issues arise when evaluating how any pilot programme — whether in business, education or public health — will perform once it is expanded. When scaled up, programmes often encounter fresh constraints or trigger wider economic fallouts. Economists have developed methods to anticipate these scaling effects when designing experiments, such as replicating the conditions of the eventual implementer — for example, a government agency — rather than those of the more agile, well-resourced organizations that typically run pilots13–15. Researchers studying AI can similarly attempt to anticipate future changes when designing experiments.

 

One important parameter is the cost of running AI models, which has been falling. Researchers can model how cost declines might affect the viability of different applications. For example, one study16 examined AI usage by teachers in Sierra Leone who pay for Internet access by the megabyte. In early 2022, querying an AI chatbot was 12 times more expensive than loading a standard web page; by 2025, thanks to falling compute costs and the bandwidth efficiency of AI, using the technology had become 98% cheaper than accessing a web page. This cost advantage suggests that AI might expand access to information in low-resource settings where the Internet is expensive.

 

The capabilities of AI are another crucial determinant of its impact. It is hard to predict how these will evolve, but researchers can try to anticipate how humans might respond to more-powerful systems. Even as technology advances, human behaviour tends to follow stable patterns — in terms of how people develop trust, how they respond to incentives and how they adapt to automation.

 

One approach to anticipating the impacts of future systems is to model these behaviours, combining data with theory. For example, a study of radiologists and diagnostic AI found that doctors often defer to the AI’s judgement, even when the system itself signals uncertainty. This suggests that partial reliance on AI systems in which humans are meant to oversee algorithms might sometimes be less effective than assigning clear responsibility to either the human or the machine. Economic models built using this approach can then simulate how AI could alter different markets and institutions.

 

Economists can also design experiments that attempt to get ahead of current capabilities. In cases in which humans still outperform AI, researchers can study how people might interact with a future AI system using a ‘Wizard of Oz’ trial. In this set-up, participants think that they are interacting with an AI system, but an expert human secretly performs the task behind the scenes. This allows researchers to observe how users respond to AI-like interactions even before the technology can perform the task on its own. Indeed, even some commercial AI systems rely partly on human input: for example, self-driving cars call on remote human operators to manoeuvre out of tricky situations, but do so less as self-driving improves. Studies that mimic future AI by using humans might indicate that certain ways of integrating future AI systems would cause problems, which would be valuable for policymakers.

 

One challenge facing all of these approaches is that people are already adopting AI in their daily lives, which means there is no longer a ‘clean’ control group untouched by the technology. In many cases, the most we can measure is the effect of giving someone access to a specific AI tool relative to whatever level of AI use represents normal conditions at the time. To make such evidence interpretable, alongside headline results, researchers should report not only the estimated effects but also how AI was used in the control group, which version of the technology was tested and how the interaction between people and the system was structured.

 

Pilot economies

 

Instead of observing only how AI changes economic activity, researchers should test and pilot ways of structuring markets, firms and institutions. AI is already reshaping how firms evaluate job applicants. Schools, meanwhile, must decide on how AI should be used in learning, which skills will matter in an AI-rich labour market and how students can credibly demonstrate those abilities to employers.

 

Policymakers can draw early lessons from sectors at the frontier of AI adoption, such as software development, but they should also launch pilots in areas such as education and health. These could function as ‘special economic zones’ for AI — designated spaces in which the technology can be safely put to the test. They might include incentives for private organizations to adopt AI tools more quickly, as well as regulatory ‘sandboxes’ that provide temporary exemptions from selected rules but include close supervision, similar to those used in finance. Such early adoption would offer a preview of what an AI-integrated future might look like.

 

Within these zones, researchers, educators, clinicians and broader communities will need to design systems proactively rather than simply respond to disruption. There are already examples. The US Internet-services firm Cloudflare is experimenting with mechanisms that enable web creators to charge AI systems for accessing their content, and several schools are testing ways of structuring the day using AI to support self-directed learning. Expanding these kinds of pilot will help us to understand the benefits and drawbacks of different ways of integrating technological advances.

 

The path forwards

 

AI will enable — and perhaps demand — new ways of organizing society. How might firms, institutions and communities evolve in response? What trade-offs will different paths entail? Addressing these questions requires imagination about how the world could change, as well as grounded evidence — obtained through behavioural models, forward-looking experiments and pilots of new forms of collaboration.

 

This work cannot be done in isolation. It calls for close collaboration among technologists, civic innovators and social scientists. For instance, a civic entrepreneur might develop an institutional structure to reward individuals for contributing training data to AI models; a theorist might clarify the implications of different payment schemes; and an empirical researcher might observe in practice whether rewards are being allocated to the most useful content.

 

Understanding AI’s societal consequences must become a shared project — one that explores multiple possible futures and helps us to make deliberate choices about the kind of society we want to build.” [1]

 

1. Nature 648, 535-537 (2025) By Daniel Björkegren

 

 

 

AI is saving time and money in research — but at what cost?


“Artificial-intelligence tools are boosting researchers’ productivity, but some worry about the effect of a growing reliance on them.

 

Scientists are increasingly using artificial intelligence (AI) to do their work. Many say the tools are saving them time and money, but others have seen the negative effects that such tools can have on research.

 

In a survey of more than 2,400 researchers released in October by the publishing company Wiley, 62% of respondents said they used AI for tasks related to research or publication — up from 45% in 2024, when there were 1,043 respondents.

 

Early-career scientists and researchers in physical sciences were the most likely to use AI tools in their work, and were more likely to be early adopters of AI than were later-career researchers or those working in humanities, mathematics or statistics.

 

Researchers are using AI tools to help with writing, editing and translating.

 

They are also using them to detect errors or bias in their writing, and to summarize large volumes of studies.

 

In a sample of 2,059 respondents, 85% said that AI helped with efficiency, 77% that it helped to increase the quantity of work completed, and 73% that it improved the quality of their work.

 

Matthew Bailes, an astrophysicist at Swinburne University of Technology in Melbourne, Australia, says AI tools are popular among astronomers, helping them to process massive data sets. His team has been using AI for about a decade to identify neutron-star signatures in their data. “When you’ve got 10,000 candidates, it’s handy to just be able to whip through it in a few seconds, rather than manually looking at everything.”

 

His team is also developing a virtual simulation of the Universe. The project uses a plug-in version of the generative AI model Claude, developed by Anthropic in San Francisco, California, to display data alongside visualizations. Bailes hopes to use it as a ‘co-teacher’. It could show a simulation of a globular cluster — a collection of thousands to millions of stars — against graphs showing how many black holes or neutron stars develop over time. “The opportunities for education there are phenomenal,” he adds.

 

Productivity boost

 

AI is also having an impact on scientists’ outputs and their careers. A 2024 preprint1 published on arXiv reports that scientists who used AI published more papers, had more citations and became team leaders four years earlier than those who did not use AI.

 

The researchers used a large language model to identify more than one million AI-assisted papers among 67.9 million studies published in six fields between 1980 and 2024. The authors note that “AI accelerates work in established, data-rich domains”. That suggests that, although AI might enhance the productivity of individual scientists, it could reduce scientific diversity, they say.

 

Many researchers worry about other detrimental effects of AI on research. The survey by Wiley, based in Hoboken, New Jersey, found that 87% of people were concerned about AI making errors, called hallucinations, and about data security, ethics and a lack of transparency around training. In last year’s survey, the figure was 81%.

 

Nigel Hitchin, a mathematician at the University of Oxford, UK, thinks the biggest danger of AI use in research is that people assume that AI models are correct. “It could also induce laziness in the community,” he adds, because the technology does not help people to understand why an answer is right or wrong.

 

Bailes has seen students and other researchers use large language models, such as ChatGPT, to write code for their software without understanding how the code works. In one instance, a paper his team had submitted for publication contained an error, caused by code that a student had asked ChatGPT to write and had not tested themselves.

 

Bailes says it is important to teach students how to verify answers by helping them to develop an intuition for what the answer could be. “We need to enthusiastically embrace it but treat results with the sort of scepticism that we should treat all scientific results when they’re presented,” he adds.” [1]

 

1. Nature 649, 272-273 (2026) By Rachel Fieldhouse

 

Dirbtinis intelektas taupo laiką ir pinigus tyrimams – bet kokia kaina?


„Dirbtinio intelekto įrankiai didina tyrėjų produktyvumą, tačiau kai kurie nerimauja dėl didėjančio pasitikėjimo jais poveikio.

 

Mokslininkai vis dažniau savo darbe naudoja dirbtinį intelektą (DI). Daugelis teigia, kad šie įrankiai taupo jiems laiką ir pinigus, tačiau kiti pastebėjo neigiamą tokių įrankių poveikį tyrimams.

 

Leidyklos „Wiley“ spalio mėnesį paskelbtoje daugiau nei 2400 tyrėjų apklausoje 62 % respondentų teigė, kad naudoja DI su tyrimais ar publikavimu susijusioms užduotims atlikti – 2024 m., kai apklausoje dalyvavo 1043 respondentai, tokių respondentų buvo 45 %.

 

Jaunosios karjeros mokslininkai ir fizinių mokslų tyrėjai dažniausiai savo darbe naudojo DI įrankius ir buvo labiau linkę anksčiau naudoti DI nei vėlesnės karjeros tyrėjai arba humanitarinių mokslų, matematikos ar statistikos srityse dirbantys tyrėjai.

 

Tyrėjai naudoja DI įrankius, kad padėtų rašyti, redaguoti ir versti.

 

Jie taip pat naudoja juos klaidoms ar šališkumui savo raštuose aptikti ir dideliems tyrimų kiekiams apibendrinti.

 

Imtyje Iš 2059 respondentų 85 % teigė, kad dirbtinis intelektas padėjo padidinti efektyvumą, 77 % – kad padėjo padidinti atliekamų darbų kiekį, o 73 % – kad pagerino jų darbo kokybę.

 

 

Matthew Bailes, astrofizikas iš Swinburne technologijos universiteto Melburne, Australijoje, teigia, kad dirbtinio intelekto įrankiai yra populiarūs tarp astronomų, nes padeda jiems apdoroti didžiulius duomenų rinkinius. Jo komanda jau maždaug dešimtmetį naudoja dirbtinį intelektą neutroninių žvaigždžių parašams savo duomenyse identifikuoti. „Kai turi 10 000 kandidatų, patogu tiesiog viską peržiūrėti per kelias sekundes, o ne rankiniu būdu viską peržiūrėti.“

 

 

Jo komanda taip pat kuria virtualią Visatos simuliaciją. Projekte naudojama generatyvinio dirbtinio intelekto modelio „Claude“, kurį sukūrė „Anthropic“ San Franciske, Kalifornijoje, papildinio versija, skirta duomenims rodyti kartu su vizualizacijomis. Bailesas tikisi jį naudoti kaip „bendradarbį mokytoją“. Jis galėtų parodyti kamuolinio spiečiaus – tūkstančių ar milijonų žvaigždžių kolekcijos – simuliaciją grafikų fone, rodančių, kiek juodųjų skylių ar neutroninių žvaigždžių išsivysto laikui bėgant. „Švietimo galimybės ten yra fenomenalios“, – priduria jis.

 

 

Produktyvumo didinimas

 

 

DI taip pat daro įtaką mokslininkų rezultatams ir jų karjerai. 2024 m. „arXiv“ paskelbtame išankstiniame leidinyje1 teigiama, kad mokslininkai, kurie naudojo DI, paskelbė daugiau straipsnių, turėjo daugiau citavimų ir tapo komandos vadovais ketveriais metais anksčiau nei tie, kurie nenaudojo DI.

 

 

Tyrėjai naudojo didelį kalbos modelį, kad nustatytų daugiau nei milijoną DI paremtų straipsnių tarp 67,9 mln. tyrimų, paskelbtų šešiose srityse nuo 1980 iki 2024 m. Autoriai pažymi, kad „DI pagreitina darbą nusistovėjusiose, duomenimis turtingose ​​srityse“. Tai rodo, kad nors DI gali padidinti produktyvumą atskirų mokslininkų, tai gali sumažinti mokslinę įvairovę, sako jie.

 

Daugelis tyrėjų nerimauja dėl kitokio žalingo DI poveikio moksliniams tyrimams. Hobokene, Naujajame Džersyje, įsikūrusios „Wiley“ atlikta apklausa parodė, kad 87 % žmonių nerimavo dėl DI klaidų, vadinamų haliucinacijomis, taip pat dėl ​​duomenų saugumo, etikos ir skaidrumo stokos mokymo srityje. Praėjusių metų apklausoje šis skaičius siekė 81 %.

 

Nigelis Hitchinas, matematikas iš Oksfordo universiteto (Jungtinė Karalystė), mano, kad didžiausias DI naudojimo tyrimuose pavojus yra tas, kad žmonės mano, jog DI modeliai yra teisingi. „Tai taip pat gali sukelti tinginystę bendruomenėje“, – priduria jis, nes technologija nepadeda žmonėms suprasti, kodėl atsakymas yra teisingas ar neteisingas.

 

Bailesas matė, kaip studentai ir kiti tyrėjai naudoja didelius kalbos modelius, tokius kaip „ChatGPT“, norėdami rašyti kodą savo programinei įrangai, nesuprasdami, kaip kodas veikia. Vienu atveju jo komandos pateiktame publikavimui straipsnyje buvo klaida, kurią sukėlė kodas, kurį studentas paprašė parašyti „ChatGPT“ ir pats neišbandė.

 

Bailesas teigia, kad svarbu išmokyti studentus patikrinti atsakymus, padedant jiems tai padaryti. išsiugdyti intuiciją, koks galėtų būti atsakymas. „Turime entuziastingai jį priimti, bet į rezultatus žiūrėti su tokiu skepticizmu, su kokiu turėtume žiūrėti į visus mokslinius rezultatus, kai jie pateikiami“, – priduria jis.“ [1]

 

1. Nature 649, 272-273 (2026) By Rachel Fieldhouse

 

Bendra genetinė rizika psichikos sutrikimuose


„Mokslininkai apibūdino plačius genetinius modelius, būdingus 14 psichikos sutrikimų. Ar tai galėtų pakeisti psichikos sveikatos sutrikimų diagnostikos būdą?

 

Psichikos sutrikimai sutrikdo pagrindines žmogaus proto funkcijas – nuo ​​suvokimo ir pažinimo iki emocijų ir motyvacijos. Dešimtmečius trukę dvynių ir šeimos tyrimai parodė, kad psichikos sutrikimai turi didelę paveldimumo dalį1, tačiau jie vis dar yra vienos iš mažiausiai suprantamų ligų medicinoje. Žurnale „Nature“ Grotzinger ir kt.2 praneša apie daugiau nei milijono žmonių genetinių duomenų analizę, kurioje nagrinėjami genetinių variantų ir 14 psichikos sutrikimų ryšiai. Jie atskleidžia, kad šias ligas lemianti genetinė variacija suskirstyta į penkias plačias kategorijas, kurios peržengia dabartines diagnostikos ribas.

 

Požymio „genetinė architektūra“ reiškia jį pagrindžiančių genetinių variantų rinkinį, šių variantų dažnumą populiacijoje ir jų poveikio dydžius bei modelius. Psichikos sutrikimų genetinės architektūros tyrimas yra natūralus atspirties taškas tiriant, kaip jie atsiranda. Genetiniai veiksniai, turintys įtakos žmogaus jautrumui tam tikriems požymiams, yra biologinių kaskadų, kurios kulminuoja liga, pradžioje ir gali nurodyti molekulinius kelius, ląstelių tipus ir neuronų grandines, kurios prisideda prie rizikos. Be to, kadangi genetinių variantų poveikis pasireiškia aplinkos kontekste, jie gali padėti atskleisti esminius aplinkos veiksnius (pvz., trauminius įvykius) ir raidos laikotarpius (pavyzdžiui, ankstyvąją vaikystę), kurie pažeidžiamumą paverčia liga. Net nežinant, kaip kiekvienas genas veikia biologiškai, jų poveikio sujungimas į bendrus rizikos balus jau padeda tyrėjams tirti pažeidžiamumo ir atsparumo modelius. Tai galiausiai galėtų padėti numatyti klinikinę riziką.

 

 

Didelė ir tarptautinė mokslininkų grupė, žinoma kaip Psichiatrinės genomikos konsorciumas (PGC), atliko svarbų vaidmenį kuriant išsamius duomenų rinkinius, reikalingus tokiems tyrimams3. Jos atvirojo mokslo modelis leidžia tyrėjams derinti rezultatus ir taikyti novatoriškus metodus. Naudodami šiuos duomenis, Grotzinger ir kolegos sumodeliavo genetinius rizikos variantus, kurie yra skirtingi ir bendri 14 sutrikimų atveju. Jei du bruožai ar ligos turi daug bendrų rizikos variantų, sakoma, kad jie yra labai genetiškai koreliuojami. Remdamiesi tokiais dideliais genetiniais koreliacijomis, autoriai nustatė, kad sutrikimus galima suskirstyti į penkis „genominius veiksnius“, kuriems būdingas didelis bendros rizikos laipsnis. Kartu šie veiksniai lėmė apie dviejų trečdalių sutrikimų paveldimumo galima priskirti dažniems genetiniams variantams.

 

1 pav. | Genetinės koreliacijos tarp 14 psichikos sutrikimų. Grotzinger ir kt.2 apibūdino genetinės variacijos modelius, susijusius su 14 psichikos sutrikimų: nervine anoreksija (AN), obsesiniu-kompulsiniu sutrikimu (OKS), Tourette sindromu (TS), šizofrenija (SCZ), bipoliniu sutrikimu (BD), autizmo spektro sutrikimu (ASD), dėmesio deficito ir hiperaktyvumo sutrikimu (ADHD), potrauminio streso sutrikimu (PTSS), didžiuoju depresijos sutrikimu (MDD), nerimo sutrikimais (AD), kanapių vartojimo sutrikimu (CUD), alkoholio vartojimo sutrikimu (AUD), nikotino priklausomybe (ND) ir opioidų vartojimo sutrikimu (OUD). Genetinė koreliacija apibūdina laipsnį, kuriuo du požymiai turi tą pačią pagrindinę genetinę riziką; didesnė vertė reiškia, kad daugelis rizikos variantų yra bendri. Autoriai nustatė, kad psichikos būklės susitelkia į penkis „genominius veiksnius“, turinčius didelį bendros genetinės variacijos laipsnį, o tai rodo, kad dabartinės diagnostinės ribos nebūtinai atspindi biologiją.

 

Genetinė psichikos sutrikimų rizika ne visada neigiamai koreliuoja su kitais požymiais, tokiais kaip išsilavinimo lygis (EA), kognityviniai gebėjimai (KPG) ir nekognityviniai įgūdžiai, prisidedantys prie EA, pavyzdžiui, motyvacija ir kūrybiškumas (KKP).

 

Tai rodo, kad genetinė variacija, susijusi su psichikos sveikatos sutrikimais, taip pat yra vertingos neuroįvairovės šaltinis.

 

„Kompulsinis veiksnys“ apima nervinę anoreksiją, obsesinį-kompulsinį sutrikimą, Tourette sindromą ir tam tikrą sutapimą su nerimu. „Šizofrenijos-bipolinis veiksnys“ apima šizofreniją ir bipolinį sutrikimą. „Neurologinės raidos veiksnys“ apima autizmo spektro sutrikimą ir dėmesio deficito ir hiperaktyvumo sutrikimą (ADHD). „Internalizuojantis veiksnys“ apima didžiąją depresiją, potrauminio streso sutrikimą ir nerimo sutrikimus. Galiausiai, „medžiagų vartojimo veiksnys“ apima priklausomybę nuo alkoholio, kanapių, nikotino ir opioidų, tam tikrus sutapimus su ADHD. Nedaug genetinių variantų yra būdingi vienai diagnozei, o tai rodo, kad Diagnostikos ir statistikos vadovo (DSM; įprasta psichikos sutrikimų diagnostikos priemonė) kategorijos gali būti naudingos kliniškai, tačiau biologiniu lygmeniu jos atrodo savavališkos.

 

Kiekvienas iš šių veiksnių pasižymi savo biologiniu parašu.

 

Pavyzdžiui, šizofrenijos-bipolinio faktoriaus genai yra labai ekspresuojami sužadinamuosiuose neuronuose ir smegenų srityse, dalyvaujančiose realybės apdorojime.

 

Neurovystymosi faktorius sutampa su kompulsyviniu ir šizofrenijos-bipoliniu faktoriais, atspindėdamas bendrus vystymosi kelius. Internalizuojančio faktoriaus genai yra susiję su neneuroninėmis pagalbinėmis ląstelėmis, vadinamomis glia, o tai rodo, kad nuotaikos ir nerimo sutrikimai yra labiau susiję su smegenų laidų infrastruktūra nei su ląstelėmis, perduodančiomis signalus.

 

Medžiagų vartojimo faktorius parodė su medžiaga susijusius signalus, tokius kaip genų, koduojančių alkoholį skaidantį fermentą, ir receptorių, reaguojančių į nikotiną, variantai. Autoriai nustatė stiprius ryšius tarp šio genetinio faktoriaus ir socialinių bei ekonominių rodiklių, tokių kaip pajamos ir pažinimas, o tai rodo, kad jo genetinis signalas gali būti labiau susijęs su socialiniais ir aplinkos keliais nei kitų veiksnių signalai.

 

Visuose veiksniuose susiję genai pasižymi didžiausia raiška vaisiaus vystymosi metu, o tai pabrėžia ankstyvųjų vystymosi procesų svarbą psichiatrinei rizikai.

 

Didelė dalis genetinės variacijos, susijusios su klinikiniais sutrikimais, taip pat sutampa su normaliomis savybėmis, tokiomis kaip pažinimas, miegas, asmenybė, socialinis elgesys ir socialiniai bei ekonominiai rezultatai. Ne visi šie ryšiai yra neigiami.

 

Pavyzdžiui, šizofrenijos ir bipolinio sutrikimo faktorius rodo teigiamą ryšį su nekognityviniu išsilavinimo komponentu4, o tai reiškia, kad genetiniai variantai, susiję su padidėjusia psichozės rizika, taip pat gali prisidėti prie kūrybiškumo, atkaklumo ir kitų savybių, skatinančių akademinę sėkmę5.

 

Sąsajos su normaliomis savybėmis, įskaitant teigiamas, neturėtų stebinti, nes Grotzingerio ir kolegų tyrimas daugiausia dėmesio skyrė populiacijoje paplitusiems genetiniams variantams, o ne retoms, ligas sukeliančioms mutacijoms.

 

Todėl psichikos sutrikimai, atrodo, dažniau atsiranda šio genetinės variacijos kontinuumo kraštutiniuose galuose, kai tam tikri genų ir gyvenimo patirties deriniai susijungia nepalankiai. Tai turėtų psichikos ligas laikyti ne ydinga biologija, o nesėkmingu natūralios variacijos ir aplinkos streso susikirtimu.

 

Toks požiūris turi tiesioginių pasekmių. Įmonės, siūlančios embrionų patikrą kaip apvaisinimo mėgintuvėlyje dalį, įvertina genetinę psichikos sutrikimų riziką ir atrenka embrionus, kurių rizikos balas yra didesnis6. Tačiau jei Grotzingerio ir kolegų aprašyti genetiniai veiksniai atspindi normalų kintamumą, kuris gali suteikti ir stipriųjų, ir pažeidžiamųjų pusių, tokia atranka gali netyčia sumažinti vertingą neuroįvairovę kartu su ligų rizika. Šių veiksnių pripažinimas kaip natūralaus kintamumo dalies taip pat galėtų paskatinti kurti kiekybinius matavimus, kurie tiesiogiai fiksuoja šių veiksnių įtaką, o ne vien remtis įprastais apibrėžimais, pagrįstais atvejų ir kontrolinių grupių palyginimu.

 

Dabartiniai imčių dydžiai, kad ir kokie įspūdingi jie būtų, vis dar gerokai mažesni nei būtų reikalinga norint nustatyti visą įprastų genetinių variantų, prisidedančių prie psichikos sutrikimų, rinkinį. Autorių atlikta statistinės galios analizė rodo, kad imčių dydžiai turėtų būti dešimtis ar šimtus kartų didesni nei dabartiniai. Tai reikštų, kad reikalingų tyrimo dalyvių skaičius turėtų svyruoti nuo maždaug 12 milijonų šizofrenijos atveju iki daugiau nei 80 milijonų didžiosios depresijos sutrikimo atveju. Iki šiol toks statistinės galios lygis buvo pasiektas tik ūgio, visoje populiacijoje esančio bruožo, atveju7. Kadangi psichiatrinės diagnozės yra palyginti retos, norint pasiekti panašų statistikos lygį, reikėtų nepraktiškai didelio diagnozuotų atvejų skaičiaus.

 

Tačiau kiekybiniai matavimai, apimantys pagrindinius tęstinius genetinius veiksnius, galėtų sudaryti sąlygas daugiau dalyvių pateikti informaciją per populiacijos kohortas, o tai suteiktų aiškesnį vaizdą apie tai, kaip kaupiasi rizika. Vienas iš būdų tai padaryti galėtų būti sudėtiniai matavimai, apimantys simptomus, pažinimą, asmenybę ir elgesį. Viso pasiskirstymo, o ne tik klinikinių kraštutinumų, tyrimas galėtų padėti psichiatrinę genetiką nukreipti link didesnių imčių, reikalingų psichikos ligų genetinei architektūrai apibūdinti. Tai taip pat paskatintų pripažinti, kad polinkis į tokias ligas yra natūralaus tęstinumo dalis, o ne biologinis defektas.“ [1]

 

1. Nature 649, 295-296 (2026) By Abdel Abdellaoui

Shared genetic risk in psychiatric disorders

“Scientists have characterized the broad genetic patterns that are shared across 14 psychiatric disorders. Could it reframe how mental-health conditions are diagnosed?

 

Psychiatric disorders disrupt the core functions of the human mind, from perception and cognition to emotion and motivation. Decades of twin and family studies have shown that psychiatric disorders have a large heritable component1, but they are still among the least understood conditions in medicine. Writing in Nature, Grotzinger et al.2 report the analysis of genetic data from more than one million people, examining associations between genetic variants and 14 psychiatric disorders. They reveal that the genetic variation underpinning these conditions clusters into five broad categories, which cut across current diagnostic boundaries.

 

The ‘genetic architecture’ of a trait refers to the collection of genetic variants that underlie it, how frequently those variants occur in a population, and the sizes and patterns of their effects. Studying the genetic architecture of psychiatric disorders is a natural starting point for investigating how they originate. Genetic factors that affect a person’s susceptibility to certain traits lie at the beginning of the biological cascades that culminate in disease, and can point to molecular pathways, cell types and neural circuits that contribute to risk. Moreover, because the effects of genetic variants are expressed in the context of an environment, they can help to reveal crucial environmental factors (such as traumatic events) and developmental periods (early childhood, for example) that transform vulnerability into illness. Even without knowing how each gene acts biologically, combining their effects into overall risk scores is already helping researchers to study patterns of vulnerability and resilience. This could eventually inform clinical risk prediction.

 

A large and international group of scientists known as the Psychiatric Genomics Consortium (PGC) has been instrumental in building the extensive data sets required for such studies3. Its open-science model enables researchers to combine results and apply innovative methods. Using these data, Grotzinger and colleagues modelled the genetic risk variants that are distinct, and those that are shared, across 14 disorders. If two traits or diseases share many risk variants, they are said to be highly genetically correlated. On the basis of such high genetic correlations, the authors found that the disorders could be clustered into five ‘genomic factors’ characterized by a high degree of shared risk. Together, these factors accounted for about two-thirds of the disorders’ heritability that is attributable to common genetic variants.

 

Figure 1 | Genetic correlations between 14 psychiatric disorders. Grotzinger et al.2 characterized the patterns of genetic variation associated with 14 psychiatric disorders: anorexia nervosa (AN), obsessive–compulsive disorder (OCD), Tourette’s syndrome (TS), schizophrenia (SCZ), bipolar disorder (BD), autism spectrum disorder (ASD), attention deficit hyperactivity disorder (ADHD), post-traumatic stress disorder (PTSD), major depressive disorder (MDD), anxiety disorders (AD), cannabis-use disorder (CUD), alcohol-use disorder (AUD), nicotine dependence (ND) and opioid-use disorder (OUD). Genetic correlation describes the degree to which two traits share the same underlying genetic risk; a higher value means that many risk variants are shared. The authors found that psychiatric conditions cluster into five ‘genomic factors’ with a high degree of shared genetic variation, suggesting that current diagnostic boundaries might not necessarily reflect biology.

 

Genetic risk for psychiatric disorders does not always correlate negatively with other traits, such as level of educational attainment (EA), cognitive ability (COG), and the non-cognitive skills that contribute to EA, such as motivation and creativity (NCOG).

 

This suggests that the genetic variation that is associated with mental-health conditions is also a source of valuable neurodiversity.

 

The ‘compulsive factor’ includes anorexia nervosa, obsessive–compulsive disorder, Tourette’s syndrome and some overlap with anxiety. The ‘schizophrenia–bipolar factor’ includes schizophrenia and bipolar disorder. The ‘neurodevelopmental factor’ includes autism spectrum disorder and attention deficit hyperactivity disorder (ADHD). The ‘internalizing factor’ includes major depressive disorder, post-traumatic stress disorder and anxiety disorders. Finally, the ‘substance-use factor’ includes alcohol, cannabis, nicotine and opioid dependence, with some overlap with ADHD. Few genetic variants are unique to a single diagnosis, suggesting that the categories in the Diagnostic and Statistical Manual (DSM; the conventional tool for diagnosing psychiatric conditions) might be useful clinically but are seemingly arbitrary at a biological level.

 

Each of these factors is characterized by its own biological signature.

 

For example, genes in the schizophrenia–bipolar factor are highly expressed in excitatory neurons and brain regions involved in processing reality.

 

The neurodevelopmental factor overlaps with both the compulsive and the schizophrenia–bipolar factors, reflecting shared developmental pathways. Genes in the internalizing factor are associated with non-neuronal supporting cells called glia, suggesting that mood and anxiety disorders are linked more closely to the brain’s wiring infrastructure than to the cells that transmit signals.

 

The substance-use factor showed substance-specific signals, such as variants in the genes that encode the enzyme that breaks down alcohol and the receptors that respond to nicotine. The authors found strong associations between this genetic factor and socioeconomic indicators such as income and cognition, suggesting that its genetic signal might be more intertwined with socioenvironmental pathways than are the signals of other factors.

 

Across all factors, associated genes show peak expression during fetal development, highlighting the importance of early developmental processes in psychiatric risk.

 

Much of the genetic variation associated with clinical disorders also overlaps with normal-range traits such as cognition, sleep, personality, social behaviour and socioeconomic outcomes. Not all of these relationships are negative.

 

For example, the schizophrenia–bipolar factor shows a positive association with the non-cognitive component4 of educational attainment, implying that genetic variants that are associated with an increased risk of psychosis might also contribute to creativity, persistence and other traits that promote academic success5.

 

Associations with normal-range traits — including positive ones — should not be a surprise, because Grotzinger and colleagues’ study focused on genetic variants that are common in the population rather than on rare, disease-causing mutations.

 

Psychiatric disorders therefore seem to arise more often at the extreme ends of this continuum of genetic variation, when certain combinations of genes and life experiences come together in unfavourable ways. This should reframe mental illness not as defective biology, but as the unfortunate intersection of natural variation and environmental stress.

 

Such a view has immediate implications. Companies that offer embryo screening as part of in vitro fertilization assess genetic risk for psychiatric disorders, and select against embryos that have a higher risk score6. But if the genetic factors described by Grotzinger and colleagues reflect normal variability that can confer both strengths and vulnerabilities, such selection could inadvertently reduce valuable neurodiversity alongside disease risk. Recognizing these factors as part of natural variation could also motivate the development of quantitative measures that capture the influences of these factors more directly, rather than relying solely on conventional definitions that are based on comparisons of cases and control groups.

 

Current sample sizes, impressive as they are, remain far below what would be necessary to identify the full set of common genetic variants that contribute to psychiatric disorders. The authors’ analyses of statistical power show that sample sizes would need to be tens to hundreds of times larger than those now available. That would mean the number of study participants required would need to vary from about 12 million for schizophrenia to more than 80 million for major depressive disorder. So far, this level of statistical power has been achieved only for height, a population-wide trait7. Because psychiatric diagnoses are rare by comparison, achieving a similar level of power would require impractically large numbers of diagnosed cases.

 

However, quantitative measurements that capture the underlying continuous genetic factors could enable more participants to contribute information through population cohorts, which would provide a clearer view of how risk accumulates. Composite measures that combine symptoms, cognition, personality and behaviour could be one way to do this. Studying the full distribution, rather than only clinical extremes, could help to move psychiatric genetics towards the larger sample sizes that are needed to characterize the genetic architecture of mental illness. It would also encourage the recognition that susceptibility to such conditions is part of a natural continuum, rather than a biological defect.” [1]

 

1. Nature 649, 295-296 (2026) By Abdel Abdellaoui

 

 

 

SR Robotics (Lenkija) – Povandeniniai ir pramoniniai sprendimai


Ši Katovicuose, Lenkijoje, įsikūrusi įmonė specializuojasi nuotoliniu būdu valdomų povandeninių ir paviršinių transporto priemonių projektavime ir gamyboje. Jų technologijos siekia pagerinti specializuotų užduočių vandens aplinkoje saugą ir efektyvumą, dažnai pakeisdamos žmonių narų poreikį.

 

Pagrindiniai produktai: Jų asortimentą sudaro ROV OCTOPUS – nuotoliniu būdu valdoma povandeninė transporto priemonė, galinti atlikti tokias užduotis, kaip vandens srovės pjovimas ir rezervuarų skenavimas. Jie taip pat kuria sistemas nesprogusiems sprogmenims (UXO) aptikti, jūros dugno kartografavimui ir laivų korpusų valymui.

 

Verslo modelis: Jie naudoja roboto, kaip paslaugos (RaaS) modelį, leidžiantį įmonėms nuomotis įrenginius konkretiems projektams, o ne juos pirkti iš karto.

 

Pastarojo meto sėkmė: 2025 m. liepos mėn. jie gavo 8,4 mln. eurų finansavimą savo veiklai plėsti ir gamybos pajėgumams didinti.