A kutatók bebizonyították, hogy a detektorok több fronton is legyőzhetőek, ha minden videó képkockába beillesztenek egymásnak ellentmondó elemeket. Az ellentétes elemek enyhén manipulált bemenetek. Ezek a mesterséges intelligencia rendszerek, melyek például a gépi tanulási modellek hibáját okozzák. Ezenkívül felfedezték, hogy a támadás a videó tömörítése után is működik.
„A munkánk azt mutatja, hogy a deepfake detektorok elleni támadások valós veszélyt jelenthetnek” – mondta Shehzeen Hussain, az UC San Diego-i számítástechnikai doktora.
Véleménye szerint az a jelenség még riasztóbb, hogy a támadónak nem kell ismernie a detektorok által használt teljes gépi tanulási modell belső működését ahhoz, hogy védekezni tudjon ellene.
A deepfake az alany arcát módosítja annak érdekében, hogy megtévesztő felvételeket produkáljon olyan eseményekről, melyek valójában meg sem történtek. Ezek kivédésére létrejött detektorok, bármely körültekintéssel is készültek nem elég hatásosak. A tipikus detektorok a szemmozgását és a pislogást figyelik elsősorban, mert ezek a mélyhamisítások során nem jól reprodukálhatóak. A korszerű elemző rendszerek a gépi tanulási modellekre támaszkodnak a hamis videókban.