Felmerül a kérdés:
vajon még képesek vagyunk megkülönböztetni egy hírességről készült valódi képet vagy videót egy olyantól, amelyben egy CGI-álfigura szerepel?
Vagy fel tudunk ismerni egy olyan hamisított karaktert, amely csak utánozza egy ismert személy külsejét, beszédét, gesztikulációját?
A deepfake alkalmazások felhasználása széles keretek között mozog: ezek között hasznos, ártalmatlan és kifejezetten veszélyes példákat is találunk. A fejlesztők között volt, akit nemes cél vezérelt, például a deepfake videókban akár néhány fénykép segítségével életre lehet kelteni ma már nem élő embereket. Az eredeti elképzelés szerint így Albert Einstein tarthatott volna interaktív fizika órát középiskolásoknak vagy Marilyn Monroe mesélhetett volna az ötvenes-hatvanas évek Amerikájáról.
Az utóbbi években azonban a mainstream szórakoztatóipar is szívesen nyúlt a lehetőséghez, így több televíziós műsorban jelentek meg humoros paródiák, amiket deepfake alkalmazások segítségével állítottak elő.
„Azonban a deepfake alkalmazások térhódítása komoly problémákat is eredményezett az utóbbi években,
és a jelenség két szempontból ma is rendkívül aktuális. Részben a technikai fejlődés most ért el egy olyan szintet, ami már bárki számára lehetővé teszi a hamisított videók létrehozását. Részben pedig egyre nagyobb teret hódít a felhasználók körében a felületes olvasás és megtekintés, a kontextus ismerete nélküli, kritikát mellőző befogadás gyakorlata” – világít rá a médiakutató.
Így nemcsak egyre több hamisított tartalom kerül az online térbe, de egyre nagyobb az esély arra is, hogy ezek megtévesszék a közönséget.
„Fontos tisztában lennünk azzal, hogy a közösségi média oldalakon terjedő végeláthatatlan mennyiségű tartalom között rengeteg téves vagy részben téves – tényszerűtlen, pontatlan – információval találkozhatunk” – hívja fel a figyelmet a Nemzeti Kibervédelmi Intézet. „Ezek nem feltétlenül szándékos félreinformálások, könnyen elképzelhető, hogy az adott tartalmat megosztó személy jóhiszeműen jár el, és ő maga sincs tisztában azzal, hogy valótlan információt terjeszt.”
Sajnos napjainkban a közösségi oldalakon történő reflexszerű továbbosztással, lájkolással mi magunk is hozzájárulhatunk egy-egy valótlan információ terjesztéséhez. Ezért érdemes odafigyelni, hogy addig ne osszunk meg egy hírt vagy videót a közösségi portálokon,
amíg előtte legalább három-négy forrásból annak hitelességét ne ellenőriztük volna.
Valamint minden esetben részesítsük előnyben a megbízható forrásokat!
A deepfake és a törvényi szabályozás
A deepfake technológiával történő visszaéléseknek már jelenleg is vaskos története van, ezek közül az egyik legtöbbször vitatott probléma, hogy az alkalmazás szélesebb elterjedésével együtt a világhálót elárasztották a deepfake segítségével manipulált pornográf tartalmak. Ennek jellemzően híres amerikai színésznők estek áldozatául, akiknek az arcvonásait pornósztárok arcára másolták, így azt az illúziót keltették, mintha a felnőtt filmekben például Scarlett Johansson vagy Angelina Jolie szerepelnének.
Nem kellett sokat várni arra sem, hogy az alkalmazás a politikai manipuláció eszközévé váljon.
2019-ben például Nancy Pelosiról jelent meg egy manipulált videó, amiben úgy tűnik, mintha a politikusnő ittasan nyilatkozna egy talkshow-ban. Eközben Indiában egy politikai lejárató kampányban került elő egy olyan szexvideó, amellyel kapcsolatban felmerült a deepfake használatának gyanúja.
A videón egy parlamenti képviselő (vagy egy hozzá nagyon hasonló férfi) látható szexuális aktus közben egy másik férfi társaságában. A politikus később az egyik parlamenti ülés során sírva magyarázta, hogy a videón valójában nem ő szerepel, csak tönkre akarják tenni az életét. Az eset végkimenetelével a világsajtó már nem foglakozott, de az incidens arra egyértelműen felhívja a figyelmet,
hogy ilyen és ehhez hasonló esetek tömegére lehet számítani a jövőben.
A legnagyobb probléma pedig az, hogy azoknak a személyeknek, akiknek a neve egyszer bepiszkolódik egy hasonló eset kapcsán, mindig magukon fogják viselni a stigmát, függetlenül attól, hogy a vádak igazak voltak-e, vagy hamisak.
„A deepfake videók leleplezése a technológia fejlődése miatt már most is egyre komolyabb kihívást jelent. Egyfelől a fejlesztők egy csoportja versenyt fut az idővel, és olyan digitális alkalmazásokon dolgozik, amelyek képesek felismerni a hamisított videókat. Másfelől valószínűsíthető, hogy a technológia további fejlődésével a deepfake tartalmak még jobb minőségűek lesznek, ezért kiemelt esetekben, például politikai céllal készült hamisított videók leleplezésében, olyan szakemberekre is számítanak, mint a nyelvészek vagy a testbeszéd elemzésével foglalkozó kommunikációs szakemberek” – világít rá Guld Ádám.
A tapasztalatok szerint a hamisítványt legkönnyebben az apró részleteken keresztül tudjuk leleplezni. Léteznek ugyanis a deepfake-re jellemző tipikus hibák, melyek általános ismertetőjegyei az ilyen jellegű hamisítványoknak. Ha odafigyelünk ezekre, egy idő után már könnyebben felfedezhetjük, hogy nem egy valódi személyt látunk a felvételeken.
Mire figyelmeztet a médiahatóság?
„Az első és legfontosabb, hogy jól szemügyre vegyük a képen vagy videófelvételen látható arcot, a pórusokat, a homlokot, kiváltképpen a haj és a nyak vonalát, hiszen számos esetben a hamisítvány már az illesztési pontokat követve leleplezhető. Bár a jelenlegi algoritmusok nagyon precízek, árulkodó nyom lehet, ha rendellenességet tapasztalunk a száj és a szemöldök mozgását figyelve” – hívja fel a figyelmet a Nemzeti Média- és Hírközlési Hatóság. Az NMHH rávilágít:
A törvényi rendelkezések a deepfake létrejöttét elősegítő technológiát nem, de a felhasználásának módját már szabályozzák.
„A deepfake-technológia által generált kép- és hanganyag jogszerű használata nagyszerű üzleti lehetőségeket kínál, valamint számos új kaput nyit ki a marketing, a televízió és a mozi számára szerte a világon. A technológia önmagában ártalmatlan és a konstruktív felhasználása nemcsak a különböző cégek és vállalatok érdekeit szolgálja, hanem jelentős társadalmi együtthatója révén, nagy hatással lehet az emberek életére” – jegyzi meg az NMHH.
Ugyanakkor, mivel az emberek a technológia vívmányait nem pusztán ártalmatlan és konstruktív módon használják, így elsőre megdöbbentőnek hathat, de senki sincs biztonságban a deepfake tartalmaktól. Egyes országokban már léteznek kifejezetten az ilyen tartalmakkal való visszaélések ellen létrehozott büntető szankciók, ugyanakkor a legtöbb helyen, ahogy hazánkban is, a jogi háttér még nem teljes mértékben biztosított.
Guld Ádám médiakutató, kommunikációs szakember, tanácsadó, a PTE habilitált egyetemi docense. 2007 óta foglalkozik a populáris tömegmédia jelenségeivel, három önálló kötet szerzője, a legfrissebb 2022 májusában jelent meg „A Z generáció médiahasználata: Jelenségek, hatások, kockázatok” címmel.
Nyitókép: kentoh / Getty Images / iStockphoto