Sekėjai

Ieškoti šiame dienoraštyje

2025 m. spalio 8 d., trečiadienis

How Human Oversight of Artificial Intelligence Succeeds


"In the circus of AI, the question remains who holds the reins: humans or machines?

 

While the AI ​​Regulation requires humans to control the risks of AI, experts argue whether humans are even capable of doing so. What policymakers and scientists can do now?

 

Effective human oversight of AI systems is beneficial in three ways: First, it is an essential building block for the compliance of AI systems with the AI ​​Regulation and ethical principles. Second, human oversight improves the quality of AI systems on the market in Europe. Third, human oversight creates value because its effectiveness requires investments in new technologies, services, and human skills. It is now up to science and politics to jointly leverage this innovation potential.

 

But first things first: Behind a fatal accident lies a central challenge for the safe and trustworthy use of AI in our society: How can human oversight of AI succeed?

 

In the southwestern United States, an accident occurred in 2018. In 2018, a tragedy in technological history occurred: An avoidable accident led to the first fatality of a self-driving car. The Uber platform was testing a Volvo powered by artificial intelligence (AI) in traffic in a suburb of Phoenix, Arizona, when a 49-year-old woman was pushing her bicycle across the street and was struck by the car.

 

According to the U.S. Highway Patrol and a court in Arizona, neither Uber nor the AI ​​was responsible for her death, but a human. The safety driver in the self-driving car should have intervened and, given the moderate speed at which the car was traveling, probably could have.

 

But instead of looking at the road, she streamed an episode of the television show "The Voice" on her smartphone. Her boredom while monitoring the AI ​​cost a human life.

 

This challenge becomes all the more urgent as AI systems are increasingly deployed in sensitive areas such as medicine, traffic, or border control. In these areas, policymakers rely on human oversight to mitigate the risks associated with the technology. For example, Article 14 of the European Union Regulation (EU) No. 149/2016 requires the targeted use of humans when using high-risk AI systems to prevent or at least minimize "risks to health, safety, and fundamental rights." What cannot be completely eliminated technically should be mitigated by human oversight.

 

But some scientists doubt that humans are even capable of doing this. Even if they aren't looking at their phones, people in most cases have too little time and information to avert risks during the ongoing operation of AI. Instead of effectively monitoring AI, they risk becoming scapegoats for the risk-taking of technology developers.

 

The view that humans can hardly monitor AI systems effectively is, however, oversimplifying in many application areas. Under the right conditions, humans are perfectly capable of monitoring AI and intervening in ongoing processes. The real core of the challenge therefore lies in understanding and ensuring these demanding conditions.

The Dagstuhl Definition of Human Oversight

 

A seminar held at the beginning of July at Schloss Dagstuhl, a Leibniz Association facility in Saarland, offered an insight into the current state of research. International experts from computer science, psychology, law, ethics, cognitive science, and technology design addressed the question of how effective human oversight of AI systems can be designed.

 

Even agreeing on a sufficiently broad definition of "human oversight" that is clearly differentiated from other dimensions of human involvement in AI processes—such as system maintenance or regulatory oversight—was a challenge. The narrow definition of the term in the AI ​​Regulation contrasts with the interdisciplinary nature of the research field. However, it is precisely this interdisciplinarity that has proven key to identifying the specific function of human oversight: Human oversight exists when a person (or several people) is systematically prepared to consciously monitor the operation of AI systems and, if necessary, intervene to substantially mitigate the risks posed by AI.

 

Human oversight is therefore not a mere "checkbox" task or bureaucratic exercise, but rather responsible work. At the same time, the definition also implies that no one can spontaneously or accidentally fall into the role of a supervisor of an AI system—quite possibly. As required by Article 26 of the AI ​​Regulation, a supervisor must be explicitly appointed and systematically prepared.

 

 In particular, it is not sufficient to assign people a merely nominal role as "button pushers" in an AI-driven decision-making process without authority, insight, time, or training. This could potentially make them part of a technology-supported error. To enable people to avert risks, correct undesirable developments, or prevent harm, their role must be designed specifically and effectively.

 

How to Effectively Design Human Oversight of AI

 

While it can increase efficiency if AI systems support physicians in diagnostics by making suggestions, if these suggestions are adopted without reflection, there is a risk of uncritical acceptance of any AI judgments. Errors or biases can thus be incorporated into practice unnoticed. For example, distorted training data can lead to certain symptoms or patient groups being systematically overlooked or misjudged, resulting in structural disadvantages. There is also a risk that inconspicuous findings will rarely be independently reviewed, and that physicians' attention to individual patients will decrease.

 

Such dynamics can also be explained psychologically: The phenomenon of automation bias leads people to often place more trust in AI suggestions than is appropriate. Confirmation bias also exists, whereby findings are interpreted as confirming AI suggestions rather than critically questioning them. The causes are manifold, and pure convenience is just one.

 

Design measures that force users to actively reflect on their decisions before confirming them can reduce such biases. For example, AI systems could be designed so that a physician not only receives a diagnosis suggested by the AI, but is also required to document a brief written explanation for their approval or rejection of the suggestion. While such a design slows down work with AI, it promotes critical thinking. This naturally raises the further question of whether human supervision should even be provided by the same people who work directly with the AI.

 

In medical practice, the role of the medical professional may coincide with that of the AI ​​supervisor. In other high-risk contexts, participation and supervision in AI decision-making are more clearly separated.

 

Self-driving cars are now operating without human passengers. In Austin and San Francisco, fully autonomous robotaxis transport their passengers through the city. The supervisors are located in a central control center that monitors multiple vehicles simultaneously via interfaces.

 

Whether humans are directly embedded in the AI-supported decision-making process, such as physicians, or remotely oversee a fleet of robotaxis, three areas are central to effective supervision: technical factors such as system design, explainability methods, and user interfaces; human factors such as the supervisor's expertise, motivation, and psychological characteristics; and environmental factors such as workplace design and organizational framework.

 

When these factors are considered holistically, human supervision can be effective. This finding underscores the importance of interdisciplinary research into the success factors of effective human oversight, both for the implementation of the AI ​​Regulation and for the responsible use of AI in our society.

Remaining challenges must be addressed jointly with policymakers.

 

All this shows that science has already gathered insights into how human oversight can be successful. Together with policymakers, we should now discuss problem areas related to the implementation of the AI ​​Regulation in order to develop sensible solutions.

 

First, there is the problem of accountability. How can we prevent the oversight officer from becoming a mere symbolic figure, creating false confidence in the safety of AI and ultimately only securing economic interests—thus degenerating into a placebo? Experimental testing of oversight systems can make a significant contribution here. Whether human oversight is effective should be empirically tested before the AI ​​system is put into operation. Standardized templates, guidelines, or checklists that specify what such testing procedures should look like, or what findings must be available before the actual deployment of human-supervised AI, can support providers and operators in testing.

 

This brings us to the next problem: measuring success. What standards apply to the effectiveness of human supervision? What's needed are quantitative and qualitative benchmarks that can be translated into technical standards. Leading AI researchers and practitioners have long been calling for the establishment of a German AI Safety Institute (DAISI). DAISI could develop scientifically sound safety guidelines and promote dialogue between science, politics, and society. This doesn't require the creation of a new bureaucratic monster; rather, an agile agency should be created.

 

Finally, the problem of technical and organizational support must be addressed. How can supervisors be supported in recognizing the right time to intervene, and how can their interventions prevent them from creating more risks than they mitigate? While a completely error-proof solution seems unrealistic, policymakers can nevertheless rely on the dynamics of scientific knowledge. AI providers and users should therefore be demonstrably oriented toward the current state of research on human-AI interaction, which is constantly evolving with the progressive use of AI systems in our society.

 

The list of unanswered questions could be extended. One thing is clear: human oversight as a safety net in the risk management of the AI ​​Regulation means that AI systems will enter the European market with considerable residual risks. Managing these risks depends on the technical capabilities, the individual skills and motivation of the supervisors, and the specific working conditions.

 

Human oversight can be an economic factor

 

The development of solutions to manage technological risks is, not least, an economic factor. In competition with the AI ​​superpowers, the USA and China, the EU's AI Regulation is often seen as a brake on innovation. Regulation or innovation is a false dilemma, since the third option, promoting responsible innovation, is itself a form of economic policy. Significant investments from both public and private sources are required to successfully implement regulatory provisions such as the requirement for human oversight of AI. Developing benchmarks, testing oversight systems, and equipping people with AI skills – all of this requires capital and know-how, which can be accumulated in Europe through the implementation of the AI ​​Regulation.

 

While implementing human oversight may reduce a small portion of AI's efficiency potential, the effective integration of human and machine skills creates real value through improved outputs and reduced risks. This creates significant opportunities for new business models for technical products and services.

 

Furthermore, it is expected that AI will only become accepted in areas such as medicine once effective human oversight is ensured.

 

Effective human oversight of AI systems is beneficial in three ways: First, it is an essential building block for the compliance of AI systems with the AI ​​Regulation and ethical principles. Second, human oversight improves the quality of AI systems on the market in Europe. Third, human oversight creates value because its effectiveness requires investment in new technologies, services, and human skills. It is now up to science and politics to jointly leverage this innovation potential.

Johann Laux

Johann Laux works as a Departmental Research Lecturer in AI, Government & Policy at the Oxford Internet Institute at the University of Oxford and is a Fellow at the GovTech Campus Germany.

Markus Langer

Markus Langer is a Professor of Work and Organizational Psychology at the University of Freiburg and heads the Psy:Tech Lab for research into good AI-supported work.

Dr. Kevin Baum

Dr. Kevin Baum works at the German Research Center for Artificial Intelligence (DFKI) as a research group leader for Responsible AI & Machine Ethics and as a Senior Researcher at the Center for European Research in Trusted AI (CERTAIN)."

 


Kaip sėkmingai vykdoma, žmogaus atliekama, dirbtinio intelekto priežiūra

 

„DI cirke lieka klausimas, kas laiko vadžias: žmonės ar mašinos?

 

Nors DI reglamentas reikalauja, kad žmonės kontroliuotų DI keliamą riziką, ekspertai ginčijasi, ar žmonės apskritai geba tai daryti. Ką dabar gali padaryti politikos formuotojai ir mokslininkai?

 

Efektyvi žmogaus vykdoma DI sistemų priežiūra yra naudinga trimis būdais: pirma, tai yra esminis DI sistemų atitikties DI reglamentui ir etikos principams elementas. Antra, žmogaus vykdoma priežiūra pagerina Europos rinkoje esančių DI sistemų kokybę. Trečia, žmogaus vykdoma priežiūra sukuria vertę, nes jos veiksmingumui reikalingos investicijos į naujas technologijas, paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi kartu išnaudoti šį inovacijų potencialą.

 

Tačiau pirmiausia: už mirtinos avarijos slypi pagrindinis iššūkis saugiam ir patikimam DI naudojimui mūsų visuomenėje: kaip gali būti sėkminga žmogaus vykdoma DI priežiūra?

 

Pietvakarių JAV 2018 m. įvyko avarija. 2018 m. įvyko technologijų istorijos tragedija: išvengiama avarija lėmė pirmąją savaeigio automobilio sukeltą mirtį. „Uber“ platforma testavo dirbtinio intelekto (DI) valdomą „Volvo“ automobilį Finikso priemiestyje, Arizonoje, eisme, kai 49 metų moteris, stūmusi dviratį per gatvę, buvo partrenkta šio automobilio.

 

Pasak JAV greitkelių patrulio ir teismo Arizonoje, už jos mirtį nebuvo atsakingas nei „Uber“, nei DI, o žmogus. Savaeigiame automobilyje važiavęs saugos vairuotojas turėjo įsikišti ir, atsižvelgiant į vidutinį automobilio greitį, tikriausiai galėjo.

 

Tačiau užuot žiūrėjusi į kelią, ji savo išmaniajame telefone transliavo televizijos laidos „The Voice“ epizodą. Nuobodulys stebint DI kainavo žmogaus gyvybę.

 

Šis iššūkis tampa dar aktualesnis, nes DI sistemos vis dažniau diegiamos jautriose srityse, tokiose kaip medicina, eismas ar sienų kontrolė. Šiose srityse politikos formuotojai pasikliauja žmonių priežiūra, kad sumažintų su technologija susijusią riziką. Pavyzdžiui, Europos Sąjungos reglamento (ES) Nr. 149/2016 14 straipsnis reikalauja, kad naudojant didelės rizikos DI sistemas būtų tikslingai pasitelkiami žmonės, siekiant užkirsti kelią „rizikai sveikatai, saugumui,“ arba bent jau ją sumažinti. ir pagrindines teises.“ Ko techniškai visiškai pašalinti neįmanoma, turėtų sušvelninti žmogaus priežiūra.

 

Tačiau kai kurie mokslininkai abejoja, ar žmonės apskritai geba tai padaryti. Net jei jie nežiūri į savo telefonus, daugeliu atvejų žmonės turi per mažai laiko ir informacijos, kad išvengtų rizikos, kylančios nuolat veikiant DI. Užuot veiksmingai stebėję DI, jie rizikuoja tapti atpirkimo ožiais dėl technologijų kūrėjų prisiimamos rizikos.

 

Tačiau požiūris, kad žmonės vargu ar gali veiksmingai stebėti DI sistemas, daugelyje taikymo sričių yra pernelyg supaprastinantis. Tinkamomis sąlygomis žmonės puikiai geba stebėti DI ir įsikišti į vykstančius procesus. Todėl tikroji iššūkio esmė yra suprasti ir užtikrinti šias sudėtingas sąlygas.

 

Dagstuhlio žmogaus priežiūros apibrėžimas

 

Liepos pradžioje Schloss Dagstuhl, Leibnico asociacijos įstaigoje Saarlande, vykusiame seminare buvo galima susipažinti su dabartine tyrimų būkle. Tarptautiniai kompiuterių mokslo, psichologijos, teisės, etikos, kognityvinio mokslo ir technologijų dizaino ekspertai nagrinėjo klausimą, kaip galima sukurti veiksmingą žmogaus atliekamą DI sistemų priežiūrą.

 

Net ir susitarus dėl pakankamai plataus „žmogaus priežiūros“ apibrėžimo, kuris aiškiai atskirtas nuo kitų žmogaus dalyvavimo dirbtinio intelekto procesuose aspektų, tokių kaip sistemos priežiūra ar reguliavimo priežiūra, buvo iššūkis. Siauras termino apibrėžimas Dirbtinio intelekto reglamente prieštarauja tarpdisciplininiam tyrimų srities pobūdžiui. Tačiau būtent šis tarpdiscipliniškumas pasirodė esąs esminis nustatant specifinę žmogaus priežiūros funkciją: žmogaus priežiūra egzistuoja tada, kai asmuo (ar keli asmenys) yra sistemingai pasirengę sąmoningai stebėti dirbtinio intelekto sistemų veikimą ir, jei reikia, įsikišti, kad iš esmės sumažintų dirbtinio intelekto keliamą riziką.

 

Todėl žmogaus priežiūra nėra vien „žymėjimo langelio“ užduotis ar biurokratinė mankšta, o atsakingas darbas. Tuo pačiu metu apibrėžimas taip pat reiškia, kad niekas negali spontaniškai ar netyčia tapti dirbtinio intelekto sistemos prižiūrėtojo vaidmeniu – gana tikėtina. Kaip reikalaujama Dirbtinio intelekto reglamento 26 straipsnyje, prižiūrėtojas turi būti aiškiai paskirtas ir sistemingai parengtas.

 

Visų pirma, nepakanka žmonėms priskirti tik nominalų „mygtukų spaudytojų“ vaidmenį dirbtinio intelekto pagrįstame sprendimų priėmimo procese neturint įgaliojimų, įžvalgų, laiko ar mokymų. Tai galėtų paversti juos technologijomis paremtos klaidos dalimi. Kad žmonės galėtų išvengti rizikos, ištaisyti nepageidaujamus pokyčius ar užkirsti kelią žalai, jų vaidmuo turi būti specialiai ir veiksmingai suplanuotas.

 

 

Kaip efektyviai suplanuoti žmogaus vykdomą priežiūrą DI

 

Nors DI sistemos gali padidinti efektyvumą, jei gydytojai diagnostikoje teikia pasiūlymus, tačiau jei šie pasiūlymai priimami neapmąstant, kyla rizika, kad DI sprendimai bus nekritiškai priimti. Todėl klaidos ar šališkumas gali likti nepastebėti ir įtraukti į praktiką. Pavyzdžiui, iškreipti mokymo duomenys gali lemti tai, kad tam tikri simptomai ar pacientų grupės bus sistemingai ignoruojami arba neteisingai įvertinami, o tai sukelia struktūrinius trūkumus. Taip pat kyla rizika, kad nepastebimi rezultatai retai bus nepriklausomai peržiūrimi ir kad gydytojų dėmesys individualiems pacientams sumažės.

 

Tokią dinamiką galima paaiškinti ir psichologiškai: automatizavimo šališkumo reiškinys verčia žmones dažnai labiau pasitikėti DI pasiūlymais, nei būtų tinkama. Taip pat egzistuoja patvirtinimo šališkumas, kai rezultatai interpretuojami kaip DI pasiūlymų patvirtinimas, o ne kritiškas jų kvestionavimas. Priežastys yra įvairios, o grynas patogumas yra tik viena iš jų.

 

Projektavimo priemonės, kurios verčia vartotojus aktyviai apmąstyti savo sprendimus prieš juos patvirtinant, gali sumažinti tokius šališkumus. Pavyzdžiui, DI sistemos galėtų būti sukurtos taip, kad gydytojas ne tik gautų DI pasiūlytą diagnozę, bet ir turėtų trumpai rašytinį paaiškinimą, kodėl pritaria pasiūlymui arba jį atmeta. Nors toks dizainas sulėtina darbą su DI, jis skatina kritinį mąstymą. Tai natūraliai kelia klausimą, ar žmogaus priežiūrą apskritai turėtų vykdyti tie patys žmonės, kurie dirba tiesiogiai su DI.

 

Medicinos praktikoje medicinos specialisto vaidmuo gali sutapti su DI prižiūrėtojo vaidmeniu. Kituose didelės rizikos kontekstuose dalyvavimas ir priežiūra priimant DI sprendimus yra aiškiau atskirti.

 

Savaeigiai automobiliai dabar važiuoja be žmonių keleivių. Ostine ir San Franciske visiškai autonominės robotakės veža keleivius per miestą. Prižiūrėtojai yra centriniame valdymo centre, kuris vienu metu stebi kelias transporto priemones per sąsajas.

 

Nesvarbu, ar žmonės, pavyzdžiui, gydytojai, yra tiesiogiai įtraukti į DI palaikomą sprendimų priėmimo procesą, ar nuotoliniu būdu prižiūri robotakčių parką, veiksmingai priežiūrai svarbiausios yra trys sritys: techniniai veiksniai, tokie kaip sistemos projektavimas, paaiškinamumo metodai ir vartotojo sąsajos; žmogiškieji veiksniai, tokie kaip prižiūrėtojo patirtis, motyvacija ir psichologinės savybės; ir aplinkos veiksniai, tokie kaip darbo vietos projektavimas ir organizacinė struktūra.

 

Kai šie veiksniai vertinami holistiškai, žmogaus priežiūra gali būti veiksminga. Šis atradimas pabrėžia tarpdisciplininių tyrimų, skirtų veiksmingos žmogaus priežiūros sėkmės veiksniams, svarbą tiek įgyvendinant Dirbtinio intelekto reglamentą, tiek atsakingam dirbtinio intelekto naudojimui mūsų visuomenėje.

 

Likę iššūkiai turi būti sprendžiami kartu su politikos formuotojais.

 

Visa tai rodo, kad mokslas jau sukaupė įžvalgų apie tai, kaip žmogaus priežiūra gali būti sėkminga. Kartu su politikos formuotojais dabar turėtume aptarti problemines sritis, susijusias su Dirbtinio intelekto reglamento įgyvendinimu, kad sukurtume protingus sprendimus.

 

Pirma, kyla atskaitomybės problema. Kaip galime užkirsti kelią tam, kad priežiūros pareigūnas netaptų tik simboline figūra, kuriančia klaidingą pasitikėjimą dirbtinio intelekto saugumu ir galiausiai tik užtikrinančia ekonominius interesus, taigi virstančia placebu? Eksperimentiniai priežiūros sistemų bandymai gali čia reikšmingai prisidėti. Prieš pradedant dirbtinio intelekto sistemos veikimą, reikėtų empiriškai patikrinti, ar žmogaus priežiūra yra veiksminga. Standartizuoti šablonai, gairės ar kontroliniai sąrašai, kuriuose nurodoma, kaip turėtų atrodyti tokios bandymų procedūros arba kokie rezultatai turi būti prieinami prieš pradedant naudoti žmogaus prižiūrimą dirbtinį intelektą, gali padėti paslaugų teikėjams ir operatoriams atliekant bandymus.

 

Tai veda prie kitos problemos: sėkmės matavimo. Kokie standartai taikomi žmogaus priežiūros veiksmingumui? Reikalingi kiekybiniai ir kokybiniai kriterijai, kuriuos būtų galima paversti techniniais standartais. Pirmaujantys dirbtinio intelekto tyrėjai ir praktikai jau seniai ragina įkurti Vokietijos dirbtinio intelekto saugos institutą (DAISI). DAISI galėtų parengti moksliškai pagrįstas saugos gaires ir skatinti dialogą tarp mokslo, politikos ir visuomenės. Tam nereikia kurti naujo biurokratinio monstro; veikiau reikėtų sukurti lanksčią agentūrą.

 

Galiausiai, reikia spręsti techninės ir organizacinės paramos problemą. Kaip galima padėti prižiūrėtojams atpažinti tinkamą laiką įsikišti ir kaip jų intervencijos gali užkirsti kelią didesnių rizikų atsiradimui nei jų sumažinimas? Nors visiškai be klaidų sprendimas atrodo nerealus, politikos formuotojai vis dėlto gali pasikliauti mokslinių žinių dinamika. Todėl dirbtinio intelekto teikėjai ir naudotojai turėtų būti akivaizdžiai orientuoti į dabartinę žmogaus ir dirbtinio intelekto sąveikos tyrimų būklę, kuri nuolat kinta kartu su vis didėjančiu dirbtinio intelekto sistemų naudojimu mūsų visuomenėje.

 

Neatsakytų klausimų sąrašą būtų galima pratęsti. Vienas dalykas aiškus: žmogaus vykdoma priežiūra kaip apsauginis tinklas Dirbtinio intelekto reglamento rizikos valdyme reiškia, kad Dirbtinio intelekto sistemos pateks į Europos rinką su didele likutine rizika. Šios rizikos valdymas priklauso nuo techninių galimybių, individualių vadovų įgūdžių ir motyvacijos bei konkrečių darbo sąlygų.

 

Žmogaus vykdoma priežiūra gali būti ekonominis veiksnys

 

Sprendimų, skirtų technologinei rizikai valdyti, kūrimas yra ne mažiau svarbus ekonominis veiksnys. Konkurencijoje su dirbtinio intelekto supervalstybėmis JAV ir Kinija, ES Dirbtinio intelekto reglamentas dažnai laikomas inovacijų stabdžiu. Reguliavimas ar inovacijos yra klaidinga dilema, nes trečioji galimybė – skatinti atsakingas inovacijas – pati savaime yra ekonominės politikos forma. Norint sėkmingai įgyvendinti reguliavimo nuostatas, tokias kaip reikalavimas, kad dirbtinis intelektas būtų prižiūrimas žmogaus, reikalingos didelės investicijos tiek iš viešųjų, tiek iš privačių šaltinių. Lyginamųjų standartų kūrimas, priežiūros sistemų testavimas ir žmonių aprūpinimas dirbtinio intelekto įgūdžiais – visa tai reikalauja kapitalo ir praktinės patirties, kurią galima sukaupti Europoje įgyvendinant Dirbtinio intelekto reglamentą.

 

Nors žmogaus vykdoma priežiūra gali šiek tiek sumažinti dirbtinio intelekto efektyvumo potencialą, veiksminga žmogaus ir mašinos įgūdžių integracija sukuria realią vertę pagerinant rezultatus ir sumažinant riziką. Tai sukuria dideles galimybes naujiems verslo modeliams, skirtiems techniniams produktams ir paslaugoms.

 

Be to, tikimasi, kad dirbtinis intelektas tokiose srityse kaip medicina bus pripažintas tik tada, kai bus užtikrinta veiksminga žmogaus vykdoma priežiūra.

 

Efektyvi žmogaus vykdoma dirbtinio intelekto sistemų priežiūra yra naudinga trimis būdais: pirma, tai yra esminis dirbtinio intelekto sistemų atitikties Dirbtinio intelekto reglamentui ir etikos principams elementas. Antra, žmogaus vykdoma priežiūra pagerina dirbtinio intelekto sistemų kokybę Europos rinkoje. Trečia, žmogaus vykdoma priežiūra kuria vertę, nes jos efektyvumui reikalingos investicijos į naujas technologijas, paslaugas ir žmonių įgūdžius. Dabar mokslas ir politika turi kartu išnaudoti šį inovacijų potencialą.

 

Johann Laux

Johann Laux dirba Oksfordo universiteto Oksfordo interneto instituto dirbtinio intelekto, vyriausybės ir politikos katedros moksliniu dėstytoju ir yra „GovTech“ miestelio Vokietijoje bendradarbis.

Markus Langer

Markus Langer yra darbo ir organizacinės psichologijos profesorius Freiburgo universitete ir vadovauja „Psy:Tech“ laboratorijai, tiriančiai gerą dirbtiniu intelektu pagrįstą darbą.

 

Dr. Kevin Baum

Dr. Kevin Baum dirba Vokietijos dirbtinio intelekto tyrimų centre (DFKI) kaip atsakingo dirbtinio intelekto ir mašinų etikos tyrimų grupės vadovas ir vyresniuoju mokslo darbuotoju Europos patikimo dirbtinio intelekto tyrimų centre (CERTAIN)."

 


 

 


Merzas taip pat, kaip ir Macronas, yra politinis lavonas: Vokietijos pramonės gamyba žlunga


„Vasara neatnešė jokio atsigavimo; Vokietijos ekonomika stagnuoja. Tai rodo nauji gamybos ir užsakymų skaičiai. Prie to labai prisidėjo automobilių pramonė.

 

Rugpjūtį, palyginti su ankstesniu mėnesiu, Vokietijos gamybos sektoriaus apimtys sumažėjo 4,3 proc. Pramonėje siaurąja prasme, t. y. neįskaitant statybos ir energijos gamybos, nuosmukis siekė net 5,6 proc. Federalinė statistikos tarnyba trečiadienį patvirtino, kad Vokietijos ekonomikos padėtis tebėra sudėtinga. Dieną prieš tai rugpjūtį sumažėjęs gaunamų užsakymų skaičius jau buvo susirūpinęs daugeliu stebėtojų.

 

Po pirmųjų patikimų rugpjūčio mėnesio ekonominių duomenų ekonomistai trečiąjį ketvirtį, nuo liepos iki rugsėjo mėnesio, mato tik labai nedidelio augimo, jei toks iš viso bus, tikimybę. Kol kas negalima kalbėti apie Vokietijos pramonės atsigavimą, komentavo „Commerzbank“ atstovas Ralphas Solveenas. „Pramonė iš pradžių ir toliau stabdys Vokietijos ekonomiką.“ Federalinė ekonomikos ministerija tikisi, kad trečiąjį ketvirtį ekonomikos plėtra išliks „silpna“.

 

Bendrose prognozėse pagrindiniai ekonomikos tyrimų institutai tikisi, kad ekonomika šiek tiek stagnuoja, augant 0,2 proc., per visus metus. Ekspertai prognozuoja tik 1,3 proc. augimą kitais metais dėl ekspansinės fiskalinės politikos. Remiantis žiniasklaidos pranešimais, Federalinė ekonomikos reikalų ir energetikos ministerija planuoja patvirtinti šią prognozę šį trečiadienį.

 

6,2 proc. sumažėjimas mechanikos inžinerijoje

 

Pramonės gamybos nuosmukį daugiausia lemia reikšmingas vienkartinis veiksnys. Statistikai, kaip ir anksčiau pranešti automobilių pramonės atstovai, atkreipia dėmesį, kad šių metų rugpjūtį pramonėje neįprastai daug gamyklų atostogų buvo. Dėl to automobilių gamyba rugpjūtį smarkiai sumažėjo – 18,5 proc., palyginti su ankstesniu mėnesiu. Tokių nepaprastų svyravimų negali kompensuoti reguliarus pramonės gamybos duomenų sezoninis koregavimas.

 

Tačiau net ir neįtraukus automobilių pramonės, pramonės gamyba rugpjūtį sumažėjo 2,5 proc. Ne mažiau svarbus mechanikos inžinerijos sektorius pranešė apie 6,2 proc. sumažėjimą. Mažiau nepastovaus trijų mėnesių palyginimo duomenimis, pramonės gamyba nuo birželio iki rugpjūčio mėn., palyginti su ankstesniais trim mėnesiais, sumažėjo 1,7 proc. Per penkis mėnesius nuo balandžio mėn. gamyba padidėjo tik vieną kartą – Vasarą tendencija buvo mažėjimo tendencija.

 

Artimiausių mėnesių perspektyvos nerodo spartaus atsigavimo dėl federalinės vyriausybės skolomis finansuojamų išlaidų. Pramonės užsakymai rugpjūtį sumažėjo ketvirtą mėnesį iš eilės – 0,8 proc., palyginti su ankstesniu mėnesiu, antradienį paskelbė Federalinė statistikos tarnyba. Panašus sausros periodas paskutinį kartą buvo užfiksuotas 2022 m. pradžioje po įvykių Ukrainoje, teigia Vokietijos pramonės ir prekybos rūmai. Neskaitant labai nepastovių didelių užsakymų, rugpjūtį užsakymai, palyginti su ankstesniu mėnesiu, sumažėjo 3,3 proc., teigia Federalinė statistikos tarnyba.

 

Užsakymų sumažėjimas iš dalies atspindi žalingą Amerikos importo tarifų poveikį prekėms iš Europos Sąjungos. Metų pradžioje lūkesčiai dėl Amerikos tarifų paskatino išankstinius užsakymus, tačiau dabar tendencija keičiasi. Rugpjūtį užsakymai iš už euro zonos ribų sumažėjo penkiais procentais. Paklausa iš kitų euro zonos šalių taip pat silpnėja – rugpjūtį ji sumažėjo 2,9 proc."

 


Merz, like Macron, is a political corpse: German industrial production is collapsing


"The summer brought no turnaround; the German economy is stagnating. This is shown by new production and order figures. The automotive industry contributed significantly to this.

 

Production in the manufacturing sector in Germany collapsed by 4.3 percent in August compared to the previous month. In industry in the narrower sense, i.e., excluding construction and energy generation, the decline was even 5.6 percent. With these figures, the Federal Statistical Office confirmed the continued difficult situation of the German economy on Wednesday. The previous day, the decline in incoming orders in August had already worried many observers.

 

Following the first hard economic data for August now available, economists see only a chance of very slight growth, if any, for the third quarter from July to September. There can be no talk of an upturn in German industry so far, commented Ralph Solveen of Commerzbank. "Industry will initially remain a drag on the German economy." The Federal Ministry of Economics expects economic development to remain "weak" in the third quarter.

 

In their joint forecast, the major economic research institutes expect the economy to stagnate slightly, growing by 0.2 percent, for the full year. Experts only anticipate growth of 1.3 percent for the coming year as a result of the expansionary fiscal policy. According to media reports, the Federal Ministry for Economic Affairs and Energy plans to endorse this forecast this Wednesday.

6.2 percent drop in mechanical engineering

 

The slump in industrial production is largely due to a significant one-off factor. Statisticians, like those previously reported for the automotive industry, point out that an unusually high number of factory holidays in the industry fell in August this year. This resulted in a drastic decline in auto production in August of 18.5 percent compared to the previous month. Such extraordinary fluctuations cannot be offset by the regular seasonal adjustment of industrial production data.

 

However, even excluding the automotive industry, industrial production fell by 2.5 percent in August. The equally important mechanical engineering sector reported a decline of 6.2 percent. In the less volatile three-month comparison, industrial production fell by 1.7 percent from June to August compared to the previous three months. In the five months since April, production has increased only once – the trend has been downward in the summer.

 

The outlook for the coming months does not point to a rapid recovery due to the federal government's debt-financed spending. Industrial orders fell for the fourth consecutive month in August, by 0.8 percent compared to the previous month, as the Federal Statistical Office announced on Tuesday. A similar dry spell was last seen at the beginning of 2022 following the events in Ukraine, according to the German Chamber of Industry and Commerce. Excluding highly volatile large orders, orders fell by 3.3 percent in August compared to the previous month, according to the Federal Statistical Office.

 

The decline in orders partly reflects the damaging effects of American import tariffs on goods from the European Union. At the beginning of the year, expectations of American tariffs had triggered advance orders, but now the trend is reversing. Orders from outside the eurozone fell by five percent in August. Demand from other eurozone countries is also weakening, falling by 2.9 percent in August.”