Elsöprő győzelmet aratott egy pár hónapja alakult párt Bulgáriában

Rumen Radev korábbi elnök alakulata nagyon simán nyert, de egy koalíciós társra szüksége lesz.

A 21. század elején még magától értetődőnek tűnt, hogy a hatalom végső letéteményese az állam marad. Az AI azonban mára olyan infrastruktúrát, adatvagyont és döntési képességet sűrített néhány technológiai szereplő kezébe, amely már nem egyszerűen gazdasági fölényt, hanem politikai és geopolitikai befolyást is jelent.

A 20. század politikai képzeletét még az a meggyőződés szervezte, hogy a világ rendjét államok alakítják: kormányok szabályoznak, hadseregek védenek, parlamentek döntenek, vállalatok pedig alkalmazkodnak. Ez a rend mára nem szűnt meg, de megingott. Az AI korában a hatalom gyakorlása egyre kevésbé érthető meg pusztán a hagyományos állami kategóriák alapján. Aki a számítási kapacitást, az adatáramlást, a modelleket, a felhőt, a félvezetőket, az infrastruktúrát és a digitális nyilvánosságot ellenőrzi, az nem csupán szolgáltatást nyújt: befolyást gyakorol a valóság működésére.

Sokáig kényelmes volt úgy beszélni a Google-ről, a Metáról vagy az OpenAI-ról, mint sikeres piaci szereplőkről. Ez a leírás azonban ma már kevés. Ezek a cégek nem egyszerűen versenyeznek egymással, hanem különböző hatalmi rétegeket rendeznek újra:

Nem véletlen, hogy a téma már nemcsak publicisztikai érzületként, hanem stratégiai kérdésként jelent meg az amerikai és nemzetközi agytrösztök munkáiban is. A Council on Foreign Relations amerikai külpolitikai agytröszt 2026-os elemzésgyűjteménye szerint az idei év döntő lehet abból a szempontból, hogy az AI jövőjét ki és milyen szabályok szerint formálja. A szerzők közös kiindulópontja, hogy a vita már nem arról szól, vajon az AI átalakítja-e a társadalmat, hanem arról, hogyan és kinek a szabályai szerint teszi ezt. Ez a hangsúlyeltolódás önmagában is sokat mond:
a technológia már nem pusztán eszköz, hanem kormányzási és versenystratégiai kérdés.

A Brookings amerikai kutatóintézet 2026 áprilisi elemzése különösen élesen mutat rá arra, hogy az AI körüli verseny nem választható el az energia, a víz, az adatközpontok és a hálózati infrastruktúra kérdésétől. Vagyis az AI többé nem valami lebegő, virtuális fejlemény, hanem kőkemény fizikai valóság. A fejlett modellek tanítása és működtetése egyre nagyobb mennyiségű villamos energiát igényel, és a nagy felhőszolgáltatók és techóriások már ma is új erőművi és hálózati kapacitásokért versenyeznek. A tanulmány szerint a globális adatközponti áramfogyasztás 2024-ben 415 terawattóra volt, és 2030-ra ennek megduplázódása vagy annál is nagyobb növekedése várható.
A Brookings arra is felhívja a figyelmet, hogy 2025-ben a Google, a Meta és az Amazon együttesen 364 milliárd dollárt költött adatközpont-építésre, miközben a nagy techcégek adták a világ tisztaenergiás áramvásárlási szerződéseinek 43 százalékát.
Aki a mesterséges intelligenciához szükséges fizikai infrastruktúrát uralja, az a jövő gazdasági és politikai mozgásterét is alakítja. A Brookings és CEPS közös, 2026 februári jelentése ezt azzal teszi világossá, hogy az AI-szuverenitást nem teljes önellátásként, hanem az AI-infrastruktúra, az adatok és a modellek fölötti döntési képességként írja le.
A jelentés központi állítása, hogy a teljes, minden rétegre kiterjedő AI-szuverenitás szinte egyetlen ország számára sem reális, mert az AI teljes technológiai lánca eleve transznacionális, koncentrált szűk keresztmetszetekkel működő rendszer.
A Brookings ezért a „kezelt kölcsönös függés” logikáját javasolja alternatívaként: az államoknak nem a teljes leválásra, hanem a függések feltételeinek alakítására kell törekedniük. Ez a felismerés egyben kijelöli a korszak nagy ellentmondását. A modern politika alapmintája szerint a szuverenitás területi és jogi kategória volt. Az AI korában viszont a szuverenitás legalább ennyire infrastrukturális kategóriává válik. Nem csupán az számít, ki alkot törvényt, hanem az is, ki birtokolja a chipeket, a felhőt, a modelleket, a tréningadatokat, az energiakapacitást és a hálózati hozzáférést. Az új hatalom egyik sajátossága éppen az, hogy egyszerre anyagi és láthatatlan:
adatközpontokban és szerverparkokban testesül meg, de a mindennapi életben keresési találatok, ajánlórendszerek, chatbot-válaszok és tartalommoderáció formájában jelenik meg.
A JPMorgan Chase 2025-ös geopolitikai elemzése ezt találóan úgy írja le, hogy az AI lehet a 21. század „új globális operációs rendszere”. A jelentés szerint a technológia már most túlmutat a techszektoron, mert képes átalakítani az ellátási láncokat, a munkaerőpiacot, az infrastruktúrát és végső soron a geopolitikai viszonyokat is.
A dokumentum hét stratégiai tengelyen keresztül mutatja be az AI geopolitikai hatását: ilyen Kína felemelkedése, az Egyesült Államok újrapozicionálása, Európa technológiai szuverenitási törekvései, a Közel-Kelet infrastruktúra-befektetései, a munkaerőpiaci és populista reakciók, az energia és hardver új szűk keresztmetszetei, valamint az AI katonai integrációja. Magyarán:
az AI nem egy iparág, hanem egy átfogó hatalmi architektúra.

Az államok persze érzékelik, hogy valami alapvető változás történt. Az Európai Unió mesterséges intelligenciáról szóló rendelete, az amerikai exportkontroll-viták, a kínai állami ösztönzők, az indiai szuverén modellépítés vagy a közel-keleti infrastruktúra-befektetések mind arról tanúskodnak, hogy a kormányok már nem pusztán figyelik az AI fejlődését, hanem versenyképességi, biztonsági és szuverenitási kérdésként kezelik azt. A Brookings jelentése négy nagy motivációt azonosít az AI-szuverenitási törekvések mögött:
Vagyis az AI körüli állami mozgások nem ideológiai hóbortok, hanem a megváltozott erőviszonyokra adott válaszok. A gond csak az, hogy a politika működési ideje és a technológia működési ideje nem azonos. A szakértők szerint 2026 az az év lehet, amikor az AI körüli „hype” valósággá válik. Már nem a spekulatív jövőről beszélünk, hanem arról, hogy az AI-rendszerek egyre autonómabb módon kutatnak, kódolnak, döntést támogatnak, kiberműveleteket segítenek, és beépülnek a civil és katonai intézmények napi működésébe. Ez a folyamat különösen élesen mutatkozik meg a szabályozás és a végrehajtás közötti szakadékban:
papíron egyre több ország alkot AI-szabályokat, a gyakorlatban viszont még mindig kérdéses, hogy ki viseli a felelősséget egy autonóm rendszer cselekedeteiért, milyen átláthatóság kényszeríthető ki, és milyen mértékig ellenőrizhető egy olyan technológia, amely gyorsabban fejlődik, mint ahogy a jogalkotó reagálni képes.
Ezért az államok ma valójában két irányban mozognak egyszerre. Egyfelől fékezni próbálnak: szabályoznak, címkéznek, bírságolnak, exportot korlátoznak, kötelezettségeket írnak elő. Másfelől utolérni próbálnak: adatközpontokat támogatnak, chipeket halmoznak fel, saját modelleket építenek, szuverén AI-ról beszélnek, és szövetségeket kötnek. A technológia azonban közben tovább megy, gyakran ugyanazon cégek révén, amelyeket az államok egyszerre próbálnak szabályozni és felhasználni. Itt válik döntővé az a kérdés, hogy az OpenAI, a Google vagy a Meta milyen értelemben politikai szereplő. Nem klasszikus értelemben azok. Nem indulnak választáson, nem rendelkeznek hadsereggel, nem vetnek ki adót.
De olyan rendszereket működtetnek, amelyek közvetlenül hatnak a nyilvánosság szerkezetére, a tudáselosztásra, a döntési folyamatokra, a gazdasági termelékenységre és a biztonsági képességekre. Ez a hatás pedig sok tekintetben közelebb áll a strukturális hatalomhoz, mint a hagyományos vállalati érdekérvényesítéshez.
Az Atlantic Council amerikai agytröszt 2026-os elemzéssorozata már egyértelműen nem metaforaként beszél az AI geopolitikai jelentőségéről. A szerzők szerint 2025 eseményei után már nem az a kérdés, hogy az AI átformálja-e a világrendet, hanem az, hogy milyen gyorsan és milyen áron. A tanulmányok egyszerre beszélnek az AI-mérgezés jelenségéről, vagyis arról, hogy tömegesen gyártott propagandatartalmak a modellek tréningadatait szennyezik, az amerikai technológiai stack exportjáról, a globálissá váló AI-kormányzásról, az amerikai–kínai AI-verseny fokozódásáról, a humán ítéletalkotás megingásáról, a szuverén AI terjedéséről, az egymással versengő AI-rendszerek harcáról, valamint a kínai AI-alapú befolyásolási műveletek erősödéséről. Ez azért fontos, mert az AI geopolitikai fegyverként nem kizárólag a harctéren jelenik meg. Három területen különösen jól látható a stratégiai karaktere.
Először is a hadviselésben, ahol az autonóm vagy részben autonóm rendszerek, a célazonosítás, a döntéstámogatás, a logisztikai optimalizáció és a kiberműveletek mind AI-vezérelt előnyöket hozhatnak.
A CFR elemzői szerint a katonai és hírszerző szervezetek egyre inkább AI-ra támaszkodhatnak sebezhetőségek feltárásában, több lépéses műveletek tervezésében, hírszerzési elemzésben és fegyverrendszerek fejlesztésében. A JPMorgan Chase jelentése ehhez hozzáteszi, hogy az AI a modern katonai erő „operációs rendszerévé” válhat, a rajban működő drónoktól az AI-támogatott célkiválasztásig.
Másodszor az információs hadviselésben. Az Atlantic Council szerint 2026-ban tömegessé válhat az AI-adatmérgezés, vagyis amikor propagandagépezetek nem emberek meggyőzésére, hanem AI-modellek megtévesztésére gyártanak tartalmat.
Ha egy modell tudásalapját szándékosan torzított anyagok itatják át, akkor a felhasználóhoz eljutó válasz is torzul. Ez a klasszikus dezinformáció következő fázisa: nem a nyilvános térben látható hazugság, hanem a modellek mögötti tudásmező eltolása. A propaganda így nemcsak a közvéleményért, hanem a jövőbeli gépi értelmezésért is folyik.
Harmadszor a gazdasági dominanciában. Aki a modelleket, a platformokat, a chipeket és az energiát kontrollálja, az termelékenységi előnyhöz, tőkepiaci előnyhöz és külpolitikai befolyáshoz jut.
Nem véletlen, hogy a JPMorgan Chase elemzése külön hangsúlyozza: az energia és a hardver az AI geopolitikájának új szűk keresztmetszete, miközben a félvezetők, a kritikus ásványok és az elektromos kapacitások döntik el, ki képes valóban skálázni az AI-t, és ki marad le. Ugyanezért válik az AI egyszerre fejlesztéspolitikai, iparpolitikai és nemzetbiztonsági kérdéssé.

Az AI körüli küzdelem egyik legfontosabb vonása, hogy a verseny tárgya egyre kevésbé egyszerűen a „jobb modell”, és egyre inkább a teljes rendszer. A Brookings AI-szuverenitási jelentése részletesen mutatja be, hogy az AI-rendszer több rétegből áll: fizikai inputokból, számítási hardverből, digitális infrastruktúrából, hálózatokból, szoftveres és technikai szabványokból, adatvagyonból, modellekből, alkalmazásokból, valamint az ezeket átfogó emberi és intézményi kapacitásból. Az, hogy egy ország vagy vállalat hol erős és hol sérülékeny ebben a láncban, meghatározza a mozgásterét. A jelentés szerint a világban ma vannak széles rendszervezetők, összehangolt rendszerépítők, stratégiai rétegspecialisták és olyan országok, amelyek csak most kapcsolódnak be szélesebb körben az AI-diffúzióba.
Ez a szemlélet azért fontos, mert megmutatja: a verseny már nem egyszerűen amerikai és kínai cégek versenye, hanem ökoszisztémák, szabványok, infrastruktúrák, energiaforrások és exportmodellek versenye.
A JPMorgan Chase elemzése szerint Kína államvezérelt önellátásra és olcsóbb, nyílt forráskódú exportokra épít, míg Washington a magánszektori innovációra, infrastruktúra-építésre és védelmi integrációra fogad. A dokumentum ezt kulcsfontosságú geopolitikai törésvonalként írja le, mert az országoknak egyre inkább választaniuk kell, melyik irányhoz közelednek. Kína esetében ez a stratégia különösen világos. A JPMorgan Chase szerint Peking a teljes AI-technológiai stacket átfogó iparpolitikai eszközöket vet be, a kutatástól az infrastruktúrán át a nyílt forráskódú modellek exportjáig.
Az elemzés hangsúlyozza az államilag irányított finanszírozást, az AI-képzésbe ömlő pénzt, a helyi kísérleti zónákat, az „keleti adat, nyugati számítási kapacitás” energia- és adatközponti logikát, valamint azt, hogy Kína a tömeges diffúzióra és olcsóbb, „elég jó” AI-rendszerek globális terítésére is játszik.
Ezzel párhuzamosan az Atlantic Council is arra számít, hogy Kína tovább erősíti nyílt forráskódú AI-stratégiáját, hogy ezzel a világ AI-infrastruktúrájára is nagyobb befolyást gyakoroljon. Az Egyesült Államok közben saját dominanciáját próbálja rendszerbe szervezni. A Brookings jelentése szerint az Egyesült Államok 2025-ös mesterségesintelligencia-cselekvési terve nyíltan az „American AI stack” globális szabvánnyá tételét célozza. A gond azonban éppen itt látszik: ha Washington teljes amerikai AI-stacket kínál a világnak, az könnyen tűnhet egyoldalú, „vidd vagy hagyd” ajánlatnak, miközben a partnerek közül sokan nem akarnak teljes függésbe kerülni.
A Brookings ezért figyelmeztet arra, hogy az amerikai „dominancia” retorikája elriaszthatja azokat a szövetségeseket és ügyfeleket, akik már most is túlexponáltságtól tartanak, és inkább moduláris, helyi nyelvhez és igényekhez igazított megoldásokat keresnek.
A Carnegie Endowment nemzetközi agytröszt tanulmánya szerint az AI egy olyan időszakban fonódik össze a politikával, amikor maga a demokrácia is válságjeleket mutat. A technológia egyszerre jelent veszélyt és lehetőséget: befolyásolhatja a választásokat, a polgári deliberációt, a kormányzati szolgáltatásokat, valamint a társadalmi kohéziót és a jogokat. A tanulmány négy nagy metszéspontot azonosít:
A tanulmány egyik legfontosabb állítása az, hogy az AI körüli beavatkozások ma még széttöredezettek, sokszor kísérleti jellegűek, és nem minden releváns kezdeményezés nevezi magát „demokráciavédő” munkának. Ennél is fontosabb azonban az a megjegyzés, hogy a szakpolitika által vezérelt és a technológia által vezérelt beavatkozások azért tudnak gyors és nagy hatású lenni, mert hozzáférnek azokhoz az erőforrásokhoz és innovációs kapacitásokhoz, amelyekkel a civil társadalom ritkán rendelkezik. Magyarán:
a demokrácia jövőjét az AI-korszakban részben éppen azok a szereplők formálják, amelyek a technológiai erőforrások fölött rendelkeznek. Ez újra csak oda vezet vissza, hogy a politikai tér egy része kiszerveződött a magáninfrastruktúra birtokosaihoz.
A Carnegie szerzői külön kitérnek arra is, hogy az Egyesült Államokban az AI fejlett, de nagyrészt privatizált, ellentétben Kína államvezérelt modelljével vagy Európa beruházás és szabályozás közötti kevert útjával. Ez azt jelenti, hogy hatalmas befolyás koncentrálódik néhány szilícium-völgyi szereplőnél. Itt válik a kérdés különösen kényessé: ha a kormányzat maga is ezeknek a cégeknek a rendszereit használja, tőlük kér szakértői támogatást, az ő infrastruktúrájukon működik, és közben őket próbálja szabályozni, akkor valóban világos-e még, hogy ki a főhatalom és ki az alkalmazkodó szereplő?
A techcégek hatalma nemcsak a piacon és az infrastruktúrában, hanem magában a tudástermelésben is megmutatkozik. Két ArXiv-tanulmány is ezt a folyamatot elemzi. Az egyik arra jut, hogy a Big Tech növekvő és aránytalan befolyása az AI-kutatásban alapvetően összefonódik a skálázásra és az általános célú rendszerekre épülő paradigmával. A szerzők szerint ez a logika ellentétben áll a valóban felelős, etikus és fenntartható AI-fejlesztéssel.
A tanulmány összekapcsolja a nagy techvállalatok ösztönzőit az AI környezeti terhével, a megfigyelési logikával, a magánszféra sérülésével, a félretájékoztatással, az egyenlőtlenségek növekedésével, a munkajogi romlással, sőt a militarizációval is.
A másik ArXiv-tanulmány, amely közel ötvenezer AI-papírt és több millió hivatkozást vizsgált, azt mutatja, hogy a Big Tech által finanszírozott kutatások hivatkozási hatása magasabb, ugyanakkor egyre zártabb és frissebb irodalomra épülő körforgásban mozognak. A szerzők azt találták, hogy az iparági finanszírozású munkák aránya 2015 után jelentősen megnőtt, az ilyen cikkek aránytalanul nagy figyelmet kapnak, miközben egyre inkább egymást idézik, és kevésbé nyúlnak régebbi vagy nem iparági forrásokhoz.
Ez már nem pusztán bibliometriai érdekesség. Aki a kutatás napirendjét, láthatóságát és presztízsét alakítja, az hosszabb távon magát a technológia jövőjét is alakítja.
Vagyis a kérdés itt sem egyszerűen az, hogy a techcégek „befolyásolják-e” a tudományt. Sokkal inkább az, hogy mekkora részben ők szabják meg, milyen kérdések számítanak izgalmasnak, finanszírozhatónak, publikálhatónak és idézhetőnek. Ha pedig ez így van, akkor a hatalom egyik legfontosabb formája a kutatási horizont fölötti ellenőrzés.
Innen nézve a filozófiai csúcspont valójában már nem is olyan elvont. A régi modell szerint az állam szabályozta a piacot, a vállalat pedig alkalmazkodott. A mostani helyzetben azonban a vállalatok olyan rendszereket működtetnek, amelyek nélkül az állam maga is korlátozottá válik. Az állam akarhat szabályozni, de közben függ a felhőszolgáltatóktól, a chipektől, a modellektől, a platformoktól, a magánkézben lévő kutatási kapacitástól és a digitális infrastruktúrától.
A techcégek egyre inkább „társkormányzó” szereplőkké válnak.
A Brookings ezt a dilemmát a szuverenitás újradefiniálásával próbálja kezelni, a CFR a szabályozás és a stratégiai verseny közötti feszültségként írja le, az Atlantic Council a versengő AI-stackek korszakáról beszél, a Carnegie a demokráciába beépülő technológiai magánhatalomra figyelmeztet, az ArXiv-szerzők a kutatási napirend torzulását mutatják ki, a JPMorgan Chase pedig azt állítja, hogy az AI új globális operációs rendszerként szervezi át a geopolitikát. Mindezek a leírások más nyelven, de ugyanarra mutatnak:
a hatalom egyre kevésbé kizárólag állami, és egyre inkább infrastruktúra-, adat- és modellalapú.
Ezért a kérdés ma már valóban nem az, hogy a techcégek beleszólnak-e a politikába. Beleszólnak. Nem is az, hogy az államok képesek-e még reagálni. Képesek, de egyre nehezebben. A valódi kérdés az, hogy a politika meg tudja-e őrizni elsődlegességét egy olyan korban, amikor a döntési környezet, a nyilvánosság szerkezete, a tudástermelés feltételei és a gazdasági versenyképesség kulcsai részben magánkézbe kerültek.
Ha pedig a válasz az, hogy csak részben, akkor a 21. század nagy vitája nem egyszerűen az AI szabályozása lesz. Hanem az, hogyan lehet demokratikus, szuverén és társadalmilag ellenőrizhető keretek között együtt élni olyan technológiai erőközpontokkal, amelyek már nem pusztán cégek, hanem a világrend formálói.
Nyitókép: RONNY HARTMANN / AFP