Törökország az igazságért harcol a digitális korban
Az AI, amely képes deep fake-eket generálni, az igazi tartalmat megkülönböztethetetlenné teszi a hamistól, ezzel erodálva a közbizalmat és súlyosbítva az igazság válságát.
Amikor Prigozsin katonái Moszkva felé tartottak, a Telegramon több különböző fiókra töltöttek fel hangüzeneteket, melyek állítólag a Wagner-vezértől származtak, de ellentmondtak egymásnak, és egy részük szinte biztosan deepfake volt.
Az Euronews arról számol be, hogy egy friss kutatás szerint már most olyan jól működik a deepfake-technológia, hogy sokakat meg tud téveszteni, a mesterséges intelligencia gyors fejlődésének tehát komoly veszélyei vannak. A kutatás – amelyet az University College London kutatói hajtották végre – arról szólt, hogy az emberek mekkora eséllyel képesek felismerni a mesterséges intelligencia által létrehozott beszédet.
A tudósok betanítottak egy szövegfelolvasó algoritmust két nyilvános adatbázis (egy angol és egy mandarin kínai) felhasználásával. Ezután az MI segítségével létrehoztak ötven deepfake hangfelvételt mindkét nyelven. A hangmintákat 529 embernek játszották le, vegyítve valós emberektől származó hangfelvételekkel. A résztvevők azt a feladatot kapták, hogy mindegyik fájl meghallgatása után döntsék el, melyik valódi, és melyiket állította elő a mesterséges intelligencia.
Ez csak az esetek 73 százalékában sikerült nekik, és azután is csak kis mértékben javult a helyzet, hogy a kutatók oktatást tartottak nekik a deepfake-re jellemző jegyek felismeréséről.
A két vizsgált nyelv eredményei között nem volt számottevő különbség.
A deepfake hangokat és videókat egyre szélesebb körben használják, gyakran teljesen ártalmatlanul. Sokan azonban visszaélnek a technológia nyújtotta lehetőségekkel, jellemzően úgy, hogy hamis üzeneteket adnak politikusok szájába. Azon a napon például, amikor Jevgenyij Prigozsin katonái Moszkva felé tartottak, a Telegramon több különböző fiókra töltöttek fel hangüzeneteket, melyek állítólag a Wagner-vezértől származtak, de ellentmondtak egymásnak, és egy részük szinte biztosan deepfake volt.
Nyitókép: kentoh / Getty Images / iStockphoto