Nincs vége: Karácsony Gergely visszaszólt Bochkor Gábornak
A főpolgármester bocsánatkérést vár a rádiós műsorvezetőtől.
Karácsony Gergely esete az ál-Klicskóval nem az első és nem is az utolsó deepfake-botrány volt. A nagypolitikát, a médiát és akár saját emberi kapcsolatainkat is megrendítheti az egyre tökéletesebb deepfake videógyártás, a valóság meghamisításának legújabb, életveszélyes eszköze. A kortárs médiakörnyezetben egyre komolyabban kell vennünk a figyelmeztetést: ne higgyünk a szemünknek!
Mielőtt az újságírók munkáját, és netán az önét, kedves olvasó, elveszi a mesterséges értelem, cikksorozatba kezdtünk a hirtelen a közbeszédbe és a nagy nyilvánosságba berobbant AI kérdésköréről. Midjourney, deepfake, ChatGPT és a többiek – tartsanak velünk az elkezdődött jövőbe!
***
Talán olvasóink is jól emlékeznek azokra a furcsa történésekre, amelyek tavaly nyáron járták körbe a magyar és a világsajtót egyaránt. Ahogy azt a Mandiner is megírta akkor, több nyugat-európai nagyváros polgármesteréhez hasonlóan
Korábban arról is beszámoltunk, hogy Berlin polgármestere szintén tizenöt percen keresztül tárgyalt videóchaten ugyanazzal a „kamu-Klicskóval”, aki a budapesti főpolgármestert is felhívta. Franziska Giffey-nek azután kezdett gyanús lenni beszélgetőpartnere, miután az segítséget kért egy kijevi melegfelvonulás megrendezésében. A beszélgetést ezután megszakították, a németországi ukrán nagykövet pedig megerősítette, nem a valódi Klicskóval beszélt a berlini polgármester.
A berlini polgármester szóvivője szerint egészen az utolsó percekig teljesen eseménytelenül telt a beszélgetés. „Az állítólagos Klicsko megkérdezte, hogy mi a helyzet az ukrán menekültekkel. Teljesen normális beszélgetés volt, ahogy azt vártuk” – mondta Giffey munkatársa a videóhívásról.
Utólag kiderült, a német városvezető – a napjainkban már rohamosan terjedő – deepfake áldozata lett.
Erre a hírre reagálva számolt be Karácsony Gergely tavaly júniusban arról, hogy berlini, madridi és bécsi főpolgármester kollégáihoz hasonlóan őt is felhívta „Vitalij Klicsko kijevi főpolgármester – pontosabban valaki, aki pontosan úgy nézett ki és beszélt, mint ő”.
Karácsony videózása az ál-Klicskóval
A főpolgármester akkor azt mondta, a videohívásra való megkeresés egy, a kijevi főpolgármesteri hivatal domainjét használó e-mail címről érkezett, és „mivel korábban is kapcsolatban voltunk a kijevi polgármesteri hivatal munkatársaival, így nem volt okunk gyanúra”. A Városháza munkatársai az esetet követően egyeztettek a kijevi főpolgármesteri hivatallal, mely során megerősítették, hogy csalás történt.
Ugyancsak nagy port kavart egy korábbi, 2019-es eset, amikor egy brit energiavállalat vezérigazgatójának hangját deepfake technológia segítségével reprodukálták, és a cég ügyvezető igazgatóját 200 ezer euró átutalására kérték fel egy állítólagos magyar beszállító javára. Mire az átverést felfedezték, a pénz – ami magyarországi, valamint mexikói számlákon mozgott – már szétszóródott a világban.
Ha röviden szeretnénk megfogalmazni, a deepfake egy olyan digitális technika, amellyel (mozgó)képeken szereplő személyek arcképét vagy hangját élethűen másvalakiére lehet cserélni. A deepfake elnevezés a „deep learning” és a „fake” angol kifejezések összevonásából született. Előbbi egy mesterséges intelligenciával támogatott, gépi tanulási folyamatra utal, utóbbi az így létrehozott digitálisan manipulált vagy hamisított tartalmakat jelöli. Ezeket a videókat tehát mesterséges intelligencia felhasználásával állítják elő,
A fényképek retusálása – azaz technikai értelemben vett meghamisítása – nem új keletű gyakorlat, azonban napjainkra a mesterséges intelligencia már nem csupán a képek megváltoztatását, hanem azok létrehozását is lehetővé teszi.
„Komoly változás, hogy korábban egy ilyen tartalom előállításához, a felvett anyag megvágásához és hamisításához, komoly technikai háttér, valamint jelentős szakmai tapasztalat kellett. Ehhez képest a CGI és deepfake alkalmazások, amelyek 2017-ben jelentek meg először a digitális piacon, szabadon hozzáférhető programok, melyek néhány kattintás után lehetővé teszik a fotók és videók átszerkesztését, mindezt olyan minőségben, hogy a végeredmény egy hétköznapi felhasználó számára gyakorlatilag megkülönböztethetetlen a valóságtól” – írja egyik tanulmányában dr. Guld Ádám médiakutató.
A deepfake egyik felkapott példája lett, amikor 2017-ben a Reddit nevű fórumon az egyik felhasználó egy pornószínésznő arcát egy híres színésznőével helyettesítette. A videót követően számtalan hasonló hamisítvány látott napvilágot, utána pedig már szinte általánossá vált az efféle hamis képmások készítése.
Ma már bárki tud jobb vagy rosszabb minőségben, különösebb utánajárás és technikai ismeret nélkül is deepfake tartalmakat készíteni. A kortárs médiakörnyezetben tehát egyre komolyabban kell vennünk a figyelmeztetést:
Az internetfelhasználók a deepfake-et eleinte főként pornográfia hamisítására és mémek készítésére használták, de ahogy Guld Ádám fogalmaz: „a 2010-es évek végétől már digitálisan kreált influencerek és deepfake alkalmazások formálják át a hírnév és ismertség világát, mivel egyre nagyobb népszerűségnek örvendenek a digitálisan létrehozott, vagy digitálisan manipulált véleményvezérek”.
A CGI- (Computer Generated Images, vagyis számítógép által létrehozott képek) és deepfake- (vagyis a mesterséges intelligenciával támogatott, mély tanulás segítségével alkotott) karakterek ma már nemcsak ártatlan játékszerek, hanem komoly kulturális és gazdasági hatással bíró megoldások is.
„Már az álhírek – fake news – és az álprofilok is alaposan megkérdőjelezték az online média forrásainak megbízhatóságát, de a CGI-karakterek és a mesterséges intelligenciával manipulált videók terjedésével szinte már alig tudjuk eldönteni, kinek és minek hihetünk” – jegyzi meg Guld.
Felmerül a kérdés:
Vagy fel tudunk ismerni egy olyan hamisított karaktert, amely csak utánozza egy ismert személy külsejét, beszédét, gesztikulációját?
A deepfake alkalmazások felhasználása széles keretek között mozog: ezek között hasznos, ártalmatlan és kifejezetten veszélyes példákat is találunk. A fejlesztők között volt, akit nemes cél vezérelt, például a deepfake videókban akár néhány fénykép segítségével életre lehet kelteni ma már nem élő embereket. Az eredeti elképzelés szerint így Albert Einstein tarthatott volna interaktív fizika órát középiskolásoknak vagy Marilyn Monroe mesélhetett volna az ötvenes-hatvanas évek Amerikájáról.
Az utóbbi években azonban a mainstream szórakoztatóipar is szívesen nyúlt a lehetőséghez, így több televíziós műsorban jelentek meg humoros paródiák, amiket deepfake alkalmazások segítségével állítottak elő.
„Azonban a deepfake alkalmazások térhódítása komoly problémákat is eredményezett az utóbbi években,
és a jelenség két szempontból ma is rendkívül aktuális. Részben a technikai fejlődés most ért el egy olyan szintet, ami már bárki számára lehetővé teszi a hamisított videók létrehozását. Részben pedig egyre nagyobb teret hódít a felhasználók körében a felületes olvasás és megtekintés, a kontextus ismerete nélküli, kritikát mellőző befogadás gyakorlata” – világít rá a médiakutató.
Így nemcsak egyre több hamisított tartalom kerül az online térbe, de egyre nagyobb az esély arra is, hogy ezek megtévesszék a közönséget.
„Fontos tisztában lennünk azzal, hogy a közösségi média oldalakon terjedő végeláthatatlan mennyiségű tartalom között rengeteg téves vagy részben téves – tényszerűtlen, pontatlan – információval találkozhatunk” – hívja fel a figyelmet a Nemzeti Kibervédelmi Intézet. „Ezek nem feltétlenül szándékos félreinformálások, könnyen elképzelhető, hogy az adott tartalmat megosztó személy jóhiszeműen jár el, és ő maga sincs tisztában azzal, hogy valótlan információt terjeszt.”
Sajnos napjainkban a közösségi oldalakon történő reflexszerű továbbosztással, lájkolással mi magunk is hozzájárulhatunk egy-egy valótlan információ terjesztéséhez. Ezért érdemes odafigyelni, hogy addig ne osszunk meg egy hírt vagy videót a közösségi portálokon,
Valamint minden esetben részesítsük előnyben a megbízható forrásokat!
A deepfake technológiával történő visszaéléseknek már jelenleg is vaskos története van, ezek közül az egyik legtöbbször vitatott probléma, hogy az alkalmazás szélesebb elterjedésével együtt a világhálót elárasztották a deepfake segítségével manipulált pornográf tartalmak. Ennek jellemzően híres amerikai színésznők estek áldozatául, akiknek az arcvonásait pornósztárok arcára másolták, így azt az illúziót keltették, mintha a felnőtt filmekben például Scarlett Johansson vagy Angelina Jolie szerepelnének.
2019-ben például Nancy Pelosiról jelent meg egy manipulált videó, amiben úgy tűnik, mintha a politikusnő ittasan nyilatkozna egy talkshow-ban. Eközben Indiában egy politikai lejárató kampányban került elő egy olyan szexvideó, amellyel kapcsolatban felmerült a deepfake használatának gyanúja.
A videón egy parlamenti képviselő (vagy egy hozzá nagyon hasonló férfi) látható szexuális aktus közben egy másik férfi társaságában. A politikus később az egyik parlamenti ülés során sírva magyarázta, hogy a videón valójában nem ő szerepel, csak tönkre akarják tenni az életét. Az eset végkimenetelével a világsajtó már nem foglakozott, de az incidens arra egyértelműen felhívja a figyelmet,
A legnagyobb probléma pedig az, hogy azoknak a személyeknek, akiknek a neve egyszer bepiszkolódik egy hasonló eset kapcsán, mindig magukon fogják viselni a stigmát, függetlenül attól, hogy a vádak igazak voltak-e, vagy hamisak.
„A deepfake videók leleplezése a technológia fejlődése miatt már most is egyre komolyabb kihívást jelent. Egyfelől a fejlesztők egy csoportja versenyt fut az idővel, és olyan digitális alkalmazásokon dolgozik, amelyek képesek felismerni a hamisított videókat. Másfelől valószínűsíthető, hogy a technológia további fejlődésével a deepfake tartalmak még jobb minőségűek lesznek, ezért kiemelt esetekben, például politikai céllal készült hamisított videók leleplezésében, olyan szakemberekre is számítanak, mint a nyelvészek vagy a testbeszéd elemzésével foglalkozó kommunikációs szakemberek” – világít rá Guld Ádám.
A tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni. Léteznek ugyanis a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.
„Az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető. Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve” – hívja fel a figyelmet a Nemzeti Média- és Hírközlési Hatóság. Az NMHH rávilágít:
„A deepfake-technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon. A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére” – jegyzi meg az NMHH.
Ugyanakkor, mivel az emberek a technológia vívmányait nem pusztán ártalmatlan és konstruktív módon használják, így elsőre megdöbbentőnek hathat, de senki sincs biztonságban a deepfake tartalmaktól. Egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen, ahogy hazánkban is, a jogi háttér még nem teljes mértékben biztosított.
Nyitókép: kentoh / Getty Images / iStockphoto