Szíria új vezére hazahívta a szír menekülteket
Abu Mohamed al-Golani felszólította a menekülteket, hogy térjenek haza „egy új Szíria” felépítésére.
A hétvégi iráni agresszió Izraellel szemben egy figyelemre méltó mellékjelenséget hozott: az Elon Musk tulajdonában lévő mesterséges intelligenciás chatrobotja, az X, az incidens előtti héten egy olyan hamis videóhírt hozott létre, amiben iráni rakéták csapódnak be az izraeli területekre. Képes lehet a gépi intelligencia valamiféle "jóslásra"?
Közvetlenül azután, hogy Izrael április 1-jén megtámadta Irán nagykövetségét Damaszkuszban, és több iráni tisztviselőt megölt, egy érdekes álvideó kezdett terjedni. A történetet még az X fő hírfolyamán is népszerűsítették a főcímben: Iran Strikes Tel Aviv with Heavy Missiles. A történet azonban egészen egyszerűen hamis volt – más kérdés, hogy pár nappal később ez az álhír a lényegét tekintve valósággá vált.
A valótlan videón egy olyan rakétacsapás látható, amelyet Ukrajna az oroszok által megszállt krími Szevasztopol városa ellen mért az idén márciusban. Az Euronews.com portál The Cube nevű, álhírek leleplezésére szakosodott csapata ezt egy fordított képkereséssel ellenőrizte. A vizsgálat megerősítette, hogy a videót nem április elején, hanem először a múlt hónapban osztották meg az interneten, mégpedig a fenti, ukrán támadással összefüggésben.
Tehát egy igen meglepő fordulat következett be a közösségi médiában terjedő állítólagos iráni rakétatámadást ábrázoló kisfilm kapcsán, amely – a videóhoz fűzött rövid magyarázat szerint – Tel-Aviv városát mutatta lángokban. Akkor nem is kapott túl nagy médiafigyelmet ez a fikció, ám igen érdekes mozzanat, hogy
a főként statisztikai valószínűségekkel dolgozó mesterségen intelligencia éppen úgy hibázott – szaknyelven: hallucinált –, hogy szinte „megjósolta” az április 13-án kezdődött iráni támadást.
A videó eredetileg is Elon Musk platformján jelent meg, ráadásul a hivatalos hírfolyamban, mert az X-en működő új fejlesztésű Grok nevű MI-vel működő chatbot tévesen azonosította és tette közzé automatikusan ezt a klipet. Méghozzá mint valós eseményt, ami több okból is meglepő. Egyrészt jelzi, hogy az álhírek (fake news) milyen meggyőzők lehetnek, ha egy „levegőben lógó” konfliktusról látunk egy-egy bejegyzést. Másrészt viszont mutatja azt is, hogy a mesterséges intelligencia igyekszik oly módon hallucinálni, ahogyan az „internet népe” elvárja. Azaz a jó ideje rettegett-várt eseményekről akkor is képes tényként tudósítani, hogyha azok meg sem történtek.
Az eset igazi különlegességét azonban az említett harmadik tényező adja: nevezetesen, hogy
az április 5-én „fantáziált” hír végül egy héttel később valósággá is vált, amikor Irán mintegy 300 drónnal megtámadta Izraelt.
Természetesen a tanulság többrétegű. Egyfelől a videó esete rámutat arra, amitől eddig is tartottunk, hogy milyen nagy veszélyeket rejt az MI által generált tartalmak kétkedés nélküli elfogadása, különösen akkor, amikor a geopolitikai feszültségek amúgy is a tetőfokára hágnak.
Az eset továbbá látványosan kiemeli az információk és a források pontos ellenőrzésének fontosságát, és arra is figyelmeztet, hogy az MI által generált előrejelzések, bár néha véletlenül megfelelnek a későbbi valóságnak, nem helyettesíthetik az emberi gondolkodást és a tények alapos, akár szakértői ellenőrzését. A félrevezető videó terjedése és a később valóban bekövetkező támadás nem is olyan távoli összefüggése pedig rávilágít arra, hogy mennyire fontos a kritikai szemléletű médiafogyasztás – nemcsak a szakértőknek, de a mindennapi olvasók és a mesterséges intelligenciát programozók számára is. Az utolsó kérdés azonban inkább költői: ha egy közösségi oldal nyilvános MI-je 7-8 nappal korábban ilyen pontosan „előre jelez” egy konfliktust, akkor mire lehetnek képesek a mai, illetve a következő években debütáló modellek, illetve hogyan befolyásolhatják ezek a geopolitikát, a konfliktusainkat és a globális információáramlást? Egy azonban biztos: egyre nagyobb szükség lesz az online terjesztett (ál)híreket és a valóságot, a tényeket folyamatosan ellenőrző csapatokra. Reméljük továbbá, hogy a konfliktusban egymással szemben álló felek nagyon vigyáznak arra, hogy triplán is ellenőrizzék az neten terjedő értesüléseket, videókat, információkat.
Kapcsolódó:
Címlapfotó: MTI/EPA/Atef Szafadi
További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.