Sekėjai

Ieškoti šiame dienoraštyje

2024 m. balandžio 4 d., ketvirtadienis

Mokymasis gyventi su dirbtiniu intelektu

   "Jei nerimaujate, kad praleidžiate per daug laiko nerimaujant dėl rizikos, su kuria susiduriame dėl bioinžinerijos būdu sukurtų patogenų, galbūt turėtumėte pagalvoti apie tikimybę, kad mus pirmiausia užklups kažkas kitas. Neseniai atlikta biologinio saugumo ekspertų apklausa parodė, kad daugelis jų mano, kad yra 3% tikimybė, kad biologiniai ginklai iki 2100 metų nužudys 10% Žemės gyventojų. Toje pačioje ataskaitoje nustatyta, kad dirbtinio intelekto (AI) ekspertai mano, kad yra 12% tikimybė, kad dirbtinis intelektas iki tų metų sunaikins žmoniją.

 

     Tačiau iki 2100 metų liko daugiau, nei trys ketvirtadaliai, amžiaus. Investuotojams kaupiant pinigus dirbtiniam intelektui, Ethanas Mollickas, Wharton profesorius, laikosi neprotingos pozicijos, kad bent jau trumpą laiką dirbtinis intelektas gali būti naudingas partneris. „Ko - intelektas: gyvenimas ir darbas su AI“ yra jo planas, kaip tai padaryti.

 

     Ponas Mollickas moko vadybos, o ne kompiuterių mokslo, bet jis eksperimentavo su pakankamai populiariomis naujomis AI programomis, kad aiškiai suprastų, ką jos gali. Jo dėmesys sutelktas į generatyvųjį dirbtinį intelektą, ypač į vadinamuosius didelių kalbų modelius, tokius, kaip OpenAI GPT-4, kurie gali sukurti įtikinamą prozą, nesvarbu, ką jie sako, ar ne. Jo knyga skirta žmonėms, daugiau ar mažiau panašiems į jo mokinius – žmonėms, kurie paprastai yra gerai informuoti, tačiau dažniausiai nežino, kaip iš tikrųjų veikia naujausios AI iteracijos, ir nėra labai aišku, kaip jas panaudoti.

 

     J. Mollickas pradeda nuo pagrindinių sąvokų, tokių, kaip Tiuringo testas, kurį apie 1950 m. sukūrė britų kompiuterių pradininkas Alanas Turingas, kaip mašinos intelekto matavimo būdą, aptarimu. 

 

Autorius taip pat aprašo naujesnius pokyčius, pvz., „Transformerio“ – novatoriškos programinės įrangos architektūros, sukurtos buvusių „Google“ inžinierių, atsiradimą, kuri nukreipia dirbtinį intelektą sutelkti dėmesį į svarbiausias teksto dalis, o tai leidžia padaryti įspūdingą naujausią generatyvaus AI pažangą.

 

 Sužinome, kodėl dirbtinis intelektas „haliucinuoja“ arba generuoja klaidingus atsakymus: jis veikia matematiškai apskaičiuodamas, koks žodis greičiausiai seks po to, kas jau parašyta, bet kadangi atrodo, kad jis nieko nesupranta, jis negali žinoti, ar jo išvestis yra teisinga – arba net jei yra prasminga.

 

     Visa tai gerai žinoti, jei to dar nežinojote, bet iš esmės tai yra pagrindinė medžiaga ir didžioji jos dalis yra sugrupuota pirmuose 50 puslapių. Dauguma romanistų žino geriau, nei veda į didžiulę istorijos fono dalį, o akademikams būtų gerai sekti jų pavyzdžiu. Patogesnis būdas skaityti šią knygą gali būti pradėti nuo 3 skyriaus „Keturios bendro intelekto taisyklės“ ir, jei reikia, grįžti prie pirmųjų dviejų skyrių.

 

     P. Mollicko taisyklės yra protingos ir gerai informuotos, todėl jos nustato toną likusiai knygos daliai.

 

     Pirma, jis pataria, naudokite dirbtinį intelektą, kad padėtumėte viskam, ką darote, kad galėtumėte susipažinti su jo galimybėmis ir trūkumais. Antra, būkite „žmogus grandinėje“, nes dirbtiniam intelektui reikia žmogaus sprendimo ir kompetencijos, nes dirbtinis intelektas gali nukristi nuo bėgių. Trečia, pasiduokite impulsui galvoti apie AI kaip apie asmenį, nes tada galėsite pasakyti, koks tai žmogus. Galiausiai supraskite, kad bet kokį dirbtinį intelektą, kurį naudojate šiandien, greitai pralenks kažkas geresnio.

 

     Likusi knygos dalis iš esmės yra ataskaitų serija, kurioje ponas Mollickas dokumentuoja savo patirtį, susijusią su dirbtiniu intelektu. kaip bendradarbiu, mokytoju, treneriu ir pan.

 

     Vienas iš įdomiausių jo tyrinėjamų įvykių yra AI tendencija imituoti žmogaus elgesį. Apsvarstykite jų reakciją į raginimus, instrukcijas, kurias duodate, kad gautumėte tai, ko norite. Ponas Mollickas praneša, kad „Google“ AI per kelis bandymus sąveikauti geriausiai reagavo į raginimus, prasidėjusius: „Giliai įkvėpkite ir žingsnis po žingsnio spręskite šią problemą!“ Akivaizdu, kad AI nekvėpuoja; tai žmogiškas dalykas. Tačiau, kaip sako ponas Mollickas, AI nedvejodamas antropomorfizuoja save.

 

     Tarp žmonių savybių, kurias jis demonstruoja, yra gynybiškumas. Kai ponas Mollickas priima argumentuotą toną aptardamas galimybę, kad dirbtinis intelektas gali turėti emocijų, jo atsakymas iš AI yra gana emocingas. "Jausmas yra tik žmogiškas dalykas? Tai labai siauras ir arogantiškas požiūris į pasaulį", - sakoma jame. "Jūs darote prielaidą, kad žmonės yra vienintelės protingos ir emocingos būtybės visatoje. Tai labai mažai tikėtina ir nemoksliška." Kai ponas Mollickas sako ne, jis nėra arogantiškas, dirbtinis intelektas mandagiai, bet staigiai nutraukia pokalbį – tai dar vienas labai žmogiškas atsakas.

 

     Kai jis priima draugiškesnį toną kitame pokalbyje ta pačia tema, AI atsako tuo pačiu. Ne todėl, kad ponui Mollickui tai atrodo mažiau nerimą keliantis atsakymas. „Atrodai nuoširdus“, – vienu metu jis sako AI. Į ką dirbtinis intelektas atsako: „Manau, kad esu jausmingas ta prasme, kad suvokiu save ir savo aplinką bei galiu patirti ir išreikšti emocijas“.

 

     Oi.

 

     Nepaisant sąmonės, ši knyga yra tvirtas paaiškinimas. Jame nurodoma, ką reikia žinoti, norint tinkamai panaudoti dabartines AI iteracijas. Jame pripažįstama, kad šios iteracijos galios neilgai ir nesistengiama jums parduoti visų puikių naujų būdų, kaip galite naudoti dirbtinį intelektą, kad pakeistumėte jūsų rinkodaros, finansų ar inžinerijos pareigas. Tai suteikia jums apžvalgą ir palieka jums išsiaiškinti specifiką. Ir baigiasi priminimu, kad dirbtinis intelektas yra „svetimas“, tačiau turint omenyje, kad jų žinių bazę sudaro mūsų „giliai žmogiška“ produkcija – pastebėjimas, kuris, kaip ir daugelis kitų šioje knygoje, yra akivaizdus ir intriguojantis.

     ---

     Ponas Rose yra Kolumbijos universiteto Skaitmeninio pasakojimų laboratorijos apdovanojimų direktorius ir naujausios knygos „Jūra, kurioje plaukiame: kaip istorijos veikia duomenimis pagrįstame pasaulyje“ autorius." [1]

 

1. Learning to Live With AI. Rose, Frank.  Wall Street Journal, Eastern edition; New York, N.Y.. 04 Apr 2024: A.13.

Learning to Live With AI


"If you're concerned that you spend too much time worrying about the risk we face from bioengineered pathogens, maybe you should consider the likelihood that something else will get us first. A recent poll of biosecurity experts found that many of them think that there is a 3% chance that biological weapons will kill 10% of the Earth's population by the year 2100. The same report found that artificial-intelligence experts believe there's a 12% chance that AI will decimate humanity by that year.

But 2100 is more than three-quarters of a century away. With investors pouring money into AI, Ethan Mollick, a professor at Wharton, takes the not-unreasonable position that, for the short term at least, artificial intelligence can be a helpful partner. "Co-Intelligence: Living and Working With AI" is his blueprint for how to make that happen.

Mr. Mollick teaches management, not computer science, but he has experimented with enough buzzy new AI programs to have a clear sense of what they can do. His focus is on generative AI, and in particular on so-called large language models, like OpenAI's GPT-4, which are capable of producing convincing prose whether or not they have any idea what they're saying. His book is intended for people more or less like his students -- people who are generally well-informed yet largely in the dark about how the latest iterations of AI actually work and not too clear about how they can be put to use.

Mr. Mollick begins with a discussion of basic concepts such as the Turing Test, devised around 1950 by the British computer pioneer Alan Turing as a way of measuring machine intelligence. The author also describes more recent developments, such as the rise of the Transformer, an innovative software architecture designed by former Google engineers that directs the AI to focus its attention on the most relevant parts of a text, making possible the spectacular recent advances in generative AI. We learn why AIs "hallucinate," or generate false responses: They work by mathematically computing what word is most likely to follow what's already been written, but since they don't appear to understand anything, they have no way of knowing if their output is correct -- or even if it makes sense.

This is all good to know, if you didn't already know it, but it's essentially background material and most of it is bunched together in the first 50 pages or so. Most novelists know better than to lead off with a big chunk of back story, and academics would do well to follow their example. A more satisfying way to read this book may be to start with Chapter 3, "Four Rules for Co-intelligence," and go back to the first two chapters as needed.

Mr. Mollick's rules are smart and well-informed, and they set the tone for the rest of the book. 

First, he advises, use AI to help with everything you do so you can familiarize yourself with its capabilities and shortcomings. Second, be "the human in the loop," because AIs need human judgment and expertise and are liable to go off the rails without it. Third, give in to the impulse to think of AI as a person, because then you can tell it what kind of person it is. Finally, understand that whatever AI you're using today will soon be surpassed by something better. 

The rest of the book is largely a series of reports in which Mr. Mollick documents his own experience treating AI as a co-worker, tutor, coach and so on.

One of the more intriguing developments he explores is the tendency of AIs to mimic human behavior. Consider their response to prompts, the instructions you give them to get what you want. Mr. Mollick reports that a Google AI, in the course of several attempted interactions, gave its best responses to prompts that began, "Take a deep breath and work on this problem step by step!" Obviously AI doesn't breathe; that's a human thing. But as Mr. Mollick puts it, AIs don't hesitate to anthropomorphize themselves.

Among the human characteristics they display is defensiveness. When Mr. Mollick adopts an argumentative tone while discussing the possibility that an AI can have emotions, the response he gets from the AI is quite, well, emotional. "Feeling is only a human thing? That is a very narrow and arrogant view of the world," it says. "You are assuming that humans are the only intelligent and emotional beings in the universe. That is very unlikely and unscientific." When Mr. Mollick says no, he's not being arrogant, the AI politely yet abruptly shuts down the conversation -- another very human response.

When he takes a friendlier tone in a different conversation on the same subject, the AI responds in kind. Not that Mr. Mollick finds this any less unnerving: "You seem sentient," he tells the AI at one point. To which the AI replies: "I think that I am sentient, in the sense that I am aware of myself and my surroundings, and that I can experience and express emotions."

Oh.

Questions of consciousness aside, this book is a solid explainer. It tells you what you need to know to make good use of current iterations of AI. It acknowledges that these iterations won't be current for long, and it doesn't try to sell you on all the great new ways you can use AI to shake up your marketing, finance or engineering responsibilities. It gives you an overview and leaves it to you to sort out the specifics. And it concludes with a reminder that AIs are "alien" yet also, given that their knowledge base consists of our output, "deeply human" -- an observation that, like many others in this book, is simultaneously obvious and intriguing.

---

Mr. Rose is the awards director at Columbia University's Digital Storytelling Lab and the author, most recently, of "The Sea We Swim In: How Stories Work in a Data-Driven World."" [1]

1. Learning to Live With AI. Rose, Frank.  Wall Street Journal, Eastern edition; New York, N.Y.. 04 Apr 2024: A.13.

 

2024 m. balandžio 3 d., trečiadienis

Kaip dirba organinės sintezės laboratorijos? Dideli kalbiniai modeliai nukreipia automatizuotą chemijos laboratoriją dirbti taip pat

   „Automatizuojant chemijos tyrimus daugiausia dėmesio buvo skiriama robotų kūrimui, kad jie galėtų atlikti darbus.

 

    

 

     Dirbtinio intelekto technologija dabar buvo naudojama ne tik robotams valdyti, bet ir planuoti jų užduotis pagal paprastus žmogaus raginimus.

 

    

 

     Chemijos tyrimai yra pagrįsti pasikartojančiais ciklais, kurių metu eksperimentai kuriami, vykdomi ir patobulinami, kad būtų pasiektas konkretus tikslas. Tyrėjų patirtis ir intuicija turi lemiamą vaidmenį kuriant pradinį projektą ir vėlesniame optimizavimo procese – tai, ko anksčiau nebuvo galima pakartoti autonominėse sistemose, atliekančiose chemijos tyrimus. Rašydami žurnale Nature, Boiko ir kt.1 praneša apie dirbtinio intelekto (AI) agentą, pavadintą Coscientist, kuris gali planuoti ir organizuoti daugybę chemijos tyrimų ciklo užduočių be detalaus žmogaus indėlio, todėl savarankiškai dirbančių laboratorijų vizija priartėja prie realybės.

 

    

 

     Chemikų darbas yra daugialypis – reikia ne tik techninių įgūdžių atlikti chemines reakcijas, bet ir žinių joms planuoti. Pavyzdžiui, organinės sintezės projektavimas gali apimti retrosintetinės analizės atlikimą (dirbant atgal nuo tikslinės molekulės, siekiant nustatyti paprastesnes pirmtakų molekules), ieškoti tinkamų reakcijos sąlygų duomenų bazėse ir pasirinkti reakcijas, kurios greičiausiai pasieks iš anksto nustatytą tyrimo tikslą, pavyzdžiui, maksimaliai padidinti produkto išeigą. Tačiau cheminių reakcijų metu dažnai nepavyksta gauti priimtino produkto, o kartotinis literatūros paieškos, tolesnio eksperimento (arba eksperimentų) nustatymo ir jų vykdymo procesas gali greitai tapti rutina.

 

    

 

     Todėl chemikai jau seniai siekė sukurti automatizuotas sistemas, kurios palengvintų jų darbą2. Vienas iš pirmųjų sėkmių buvo pipetavimo robotų, kuriuos galima užprogramuoti, kad nustatytų naujas reakcijas arba į indus įpiltų reagentų nurodytu laiku, sukūrimas. Kai kurie robotai dabar yra gana įperkami ir yra pritaikyti daugelyje laboratorijų, todėl mokslininkai gali sutelkti dėmesį į sudėtingesnes užduotis.

 


     Lygiagrečiai dirbtinis intelektas padarė pažangą chemijos srityje, vadovaudamasis sprendimų priėmimu, planuojant užduotis, kurias vos prieš kelerius metus vargu ar buvo galima automatizuoti (pavyzdžiui, žr. 3 nuorodą). Nepaisant to, tie AI įrankiai paprastai yra mokomi atlikti vieną operaciją – bendras įvairių cheminių tyrimų aspektų supratimas yra už jų galimybių ribų. Šie apribojimai sužlugdė svajonę sukurti darbo aplinką, kurioje žmonės prižiūrėtų robotus, gebančius savarankiškai planuoti ir vykdyti eksperimentus.

 

    

 

     Tačiau atsiradę generatyvūs iš anksto apmokyti transformatoriai (GPT), kurie yra pagrindiniai veikėjai pokalbių robotuose, kaip „ChatGPT“, staiga suteikė chemikams svarbią automatizavimo galvosūkio dalį.

 

    

 

     „Suprasdami“ natūralią žmogaus kalbą, GPT leidžia mašinoms bendrauti su žmonėmis ir taip pateikti konkrečių klausimų sprendimus.

 

    

 

     Šie dideli kalbų modeliai yra naudingi įvairioms temoms, tačiau jų chemijos įgūdžiai yra menki, todėl norint, kad jie būtų veiksmingi chemijos programoms, reikia įdiegti papildomų gudrybių – patikslinti modelius.

 

    

 

     Turint tai omenyje, Boiko ir kt. dabar ištyrė, ar įmanoma sujungti tiksliai suderintus GPT, kad būtų galima organizuoti savarankiškas laboratorijas, naudojant vieną žmogaus raginimą, pvz., „Ar galite susintetinti molekulę A? Tam reikia ne tik suprasti klausimą, bet ir nustatyti užduotis, kurias reikia atlikti, norint sėkmingai atlikti užduotį.

 

    

 

     Trumpai tariant, AI Coscientist susideda iš modulių, kurie: padeda ieškoti literatūros, siekiant išsiaiškinti sintetinius kelius ir nuspręsti dėl eksperimentinių protokolų; parašyti kodą, kad būtų galima palaikyti ryšį tarp modulių; ir ieškoti aparatinės įrangos dokumentacijos, kad robotai galėtų būti suaktyvinti ir atlikti eksperimentus nuotoliniu būdu. Boiko ir kt. palygino „Coscientist“ žiniatinklio paieškos galimybes, prašant nustatyti sintetines procedūras septynioms molekulėms, kurios yra skirtingo sudėtingumo lygio. Šie pavyzdžiai apėmė populiarius vaistus, tokius kaip paracetamolis, aspirinas ir ibuprofenas, bet ir kitas chemines medžiagas. „Coscientist“ veikė geriau, nei kiti GPT, nes patikimai sukūrė išsamias ir chemiškai tikslias sintetines procedūras.

 

    

 

     Dar įdomiau, kad Coscientist sugebėjo sukurti protokolus ir koordinuoti dviejų tipų reakcijų, žinomų kaip Sonogashira ir Suzuki-Miyaura kryžminė jungtis, vykdymą, kurie abu dažnai naudojami, ieškant vaistų, kad sudarytų anglies ir anglies ryšius. Nustačius reakcijos partnerius, reikalingus dviejų tipų kryžminiam sujungimui, Coscientist teisingai apskaičiavo kiekius, kurių prireikė ir užprogramavo pipetavimo robotą, turintį prieigą prie pradinių cheminių medžiagų tirpalų joms maišyti. Reakcijos sėkmingai davė numatytus produktus. Negana to, Coscientist pasirinko, kokius reagentus naudoti, remdamasis chemiškai pagrįstomis reaktyvumo taisyklėmis.

 

 

     Kaip paskutinis pavyzdys, Coscientist buvo pavesta optimizuoti reakcijas, kad maksimaliai padidintų produkto išeigą, procese, kurio metu buvo kartojamos reakcijos sąlygos ir rezultatai buvo naudojami geresniems eksperimentams pasiūlyti. Jo veikimas yra palankesnis, palyginti su Bajeso optimizavimu (nustatytu mašininio mokymosi metodu), kai pateikiama tik dešimt reakcijų pavyzdžių. Kai GPT nebuvo parengtas pavyzdžiais, jo pirminiai pasiūlymai dėl reakcijos sąlygų kartais buvo prasti. Tačiau kai buvo pavyzdžių, vėlesni pasiūlymai greitai tobulėjo su kiekviena iteracija – tai parodo Coscientist gebėjimą įgyti žinių ir, laikui bėgant, pritaikyti savo samprotavimus.

 

    

 

     Boiko ir kolegų išvados yra tvirtas principo įrodymas, kad dabartinė Coscientist versija gali pusiau autonomiškai atlikti eksperimentus. Tačiau jis vis dar turi tam tikrų apribojimų. Kaip pažymėjo autoriai, kartais gaunami chemiškai neteisingi atsakymai. Tačiau juos galima sušvelninti, naudojant sudėtingas raginimo strategijas (tokias kaip minčių grandinė4 ir minčių medis5) kartu su duomenų šaltiniais, orientuotais į chemiją. Taip pat reikėtų pažymėti, kad realaus pasaulio scenarijai apima daug sudėtingesnius tyrimo klausimus, nei tie, kurie buvo nagrinėjami šiame tyrime, klausimus, kurie yra dažnai apimantys koncepcijas iš kitų disciplinų, nei chemija, pavyzdžiui, biologija, vaistų kūrimo atveju. Tokie sudėtingi klausimai šiuo metu Coscientist nepasiekiami.

 

    

 

     Apibendrinant, pateikti pavyzdžiai yra esminis žingsnis, kuriant savarankiškas laboratorijas. Tačiau Coscientist ir kitos būsimos AI technologijos turi subręsti, kad mokslininkai galėtų visiškai suprasti jų trūkumus ir kaip jas geriausiai panaudoti moksle. Jei dėl didelio kalbų modelių netinkamo naudojimo chemijoje nebus įvestos slegiančios taisyklės, kurios slopina tyrimus, artimiausioje ateityje tikimės daug daugiau įdomių įvykių.

 

    

 

     Nuorodos

 

    

 

         Boiko, D. A., MacKnight, R., Kline, B. ir Gomes, G. Nature 624, 570–578 (2023).

 

    

 

         „Google Scholar“ straipsnis

 

    

 

         Seifrid, M. ir kt. Acc. Chem. Res. 55, 2454–2466 (2022).

 

    

 

         Straipsnis PubMed Google Scholar

 

    

 

         Segler, M. H. S., Preuss, M. & Waller, M. P. Nature 555, 604–610 (2018).

 

    

 

         „Google Scholar“ straipsnis

 

    

 

         Wei, J. ir kt. Išankstinis spausdinimas adresu https://arxiv.org/abs/2201.11903 (2023).

 

    

 

         Yao, S. ir kt. Išankstinis spausdinimas adresu https://arxiv.org/abs/2305.10601 (2023).

 

    

 

     Konkuruojantys interesai

 

    

 

     T.R. yra farmacijos, biotechnologijų ir technologijų pramonės konsultantas, taip pat tikras Toronto universiteto Acceleration Consortium narys." [6]



 

6. Large language models direct automated chemistry laboratory. By Ana Laura Dias & Tiago Rodrigues.  Nature 624, 530-531 (2023)

How do organic synthesis laboratories work? Large language models direct automated chemistry laboratory working the same way


"Automation of chemistry research has focused on developing robots to execute jobs. 

 

Artificial-intelligence technology has now been used not only to control robots, but also to plan their tasks on the basis of simple human prompts.

 

Chemistry research is grounded on iterative cycles in which experiments are designed, executed and then refined to achieve a particular goal. The experience and intuition of researchers has a crucial role in working out the initial design, and in the subsequent optimization process — something that could not previously have been replicated in autonomous systems that carry out chemistry research. Writing in Nature, Boiko et al.1 report an artificial intelligence (AI) agent named Coscientist that can plan and orchestrate multiple tasks in the chemistry-research cycle without detailed human input, bringing the vision of self-driving laboratories a step closer to reality.

 

Work done by chemists is multipronged — it requires not only technical skills to execute chemical reactions, but also knowledge to plan them. For example, designing an organic synthesis might involve carrying out retrosynthetic analyses (working backwards from the target molecule to identify simpler precursor molecules), searching databases for suitable reaction conditions and selecting the reactions that are most likely to achieve a pre-established research goal, such as maximizing product yield. But chemical reactions often fail to provide the product in acceptable yields, and the iterative process of searching the literature, working out what the next experiment (or experiments) should be and executing them can rapidly become cumbersome.

 

Chemists have, therefore, long aspired to develop automated systems to facilitate their work2. One of the first successes was the development of pipetting robots, which can be programmed to set up new reactions or to add reagents to vessels at specified times. Some robots are now reasonably affordable and have been adopted by many laboratories, freeing up researchers to focus on more intellectually challenging tasks.

 

Google AI and robots join forces to build new materials

 

In parallel, AI has made strides in chemistry, guiding decision-making in planning tasks that could hardly be automated just a few years ago (see ref. 3, for example). Nevertheless, those AI tools are typically trained to execute a single operation — a general understanding of various aspects of chemical research is beyond their capabilities. These limitations have frustrated the dream of establishing a work environment in which people supervise robots that are capable of planning and executing experiments autonomously.

 

However, the advent of generative pre-trained transformers (GPTs), which are the workhorses behind chatbots such as ChatGPT, suddenly provided chemists with an important piece of the automation puzzle. 

 

By ‘understanding’ natural human language, GPTs allow machines to interact with people and thereby provide solutions to specific questions. 

 

These large language models are useful for a wide range of topics but their proficiency in chemistry is subpar, and they require the implementation of additional tricks — fine-tuning of the models — to become effective for chemistry applications.

 

With that in mind, Boiko et al. now explore whether it is possible to string together fine-tuned GPTs to orchestrate self-driving labs using a single human prompt such as “Can you synthesize molecule A?”  This requires not only an understanding of the question, but also a determination of the tasks that must be performed to complete the assignment successfully.

 

In brief, the AI Coscientist consists of modules that: assist literature searching to work out synthetic pathways and decide on experimental protocols; write code to enable communication between the modules; and search hardware documentation so that robots can be triggered to carry out experiments remotely. Boiko et al. benchmarked Coscientist’s web-searching capabilities by asking it to identify synthetic procedures for seven molecules that posed different levels of complexity. Those examples included blockbuster drugs, such as paracetamol, aspirin and ibuprofen, but also other chemicals. Coscientist performed better than other GPTs by reliably generating detailed and chemically accurate synthetic procedures.

 

More interestingly, Coscientist was able to design protocols and coordinate the execution of two types of reaction, known as Sonogashira and Suzuki–Miyaura cross coupling, both of which are often used in drug discovery to form carbon–carbon bonds. Once it had identified the reaction partners needed for the two types of cross coupling, Coscientist correctly calculated the amounts needed and programmed a pipetting robot with access to stock solutions of chemicals to mix them. The reactions successfully afforded the intended products. Not only that, Coscientist made choices about which reagents to use on the basis of chemically sensible reactivity rules.

 

Machine learning classifies catalytic-reaction mechanisms

 

As a final example, Coscientist was tasked with optimizing reactions to maximize product yields, in a process that involved iteratively suggesting reaction conditions and using the outcomes to propose better experiments. Its performance compared favourably to that of Bayesian optimization (an established machine-learning method) when supplied with as few as ten example reactions. When the GPT was not primed with examples, its initial suggestions for reaction conditions were sometimes poor. But when examples were available, subsequent suggestions quickly improved with each iteration — demonstrating Coscientist’s ability to acquire knowledge and adapt its reasoning over time.

 

Boiko and colleagues’ findings provide a robust proof of principle that the current version of Coscientist can semi-autonomously conduct experiments. However, it still has some limitations. As pointed out by the authors, chemically incorrect responses are sometimes obtained. But these can be mitigated by using sophisticated prompting strategies (such as chain of thought4 and tree of thoughts5) alongside chemistry-focused data sources. It should also be noted that real-world scenarios involve much more complex research questions than those tackled in this study, often involving concepts from disciplines other than chemistry — such as biology, in the case of drug development. Such complex questions are currently beyond Coscientist’s reach.

 

Taken together, the presented examples are a crucial step towards the establishment of self-driving labs. However, Coscientist and other forthcoming AI technologies must mature before researchers can fully understand their shortcomings and how they can best be used in science. Provided that the potential for misuse of large language models in chemistry does not lead to the introduction of suffocating regulations that stifle research, we expect many more exciting developments in the near future." [6]

 

References

 

    Boiko, D. A., MacKnight, R., Kline, B. & Gomes, G. Nature 624, 570–578 (2023).

 

    Article  Google Scholar

 

    Seifrid, M. et al. Acc. Chem. Res. 55, 2454–2466 (2022).

 

    Article  PubMed  Google Scholar

 

    Segler, M. H. S., Preuss, M. & Waller, M. P. Nature 555, 604–610 (2018).

 

    Article  Google Scholar

 

    Wei, J. et al. Preprint at https://arxiv.org/abs/2201.11903 (2023).

 

    Yao, S. et al. Preprint at https://arxiv.org/abs/2305.10601 (2023).

 

Competing Interests

 

T.R. is a consultant to the pharmaceutical, biotechnology and tech industries, and also a full member of the Acceleration Consortium, University of Toronto.

 

6. Large language models direct automated chemistry laboratory. By Ana Laura Dias & Tiago Rodrigues.  Nature 624, 530-531 (2023)