Új szintre lép a hadviselés: a mesterséges intelligenciát tanítanák be az ukránok az oroszok ellen
Az ukránok több millió órányi drónfelvétel segítségével tanítanák be a mesterséges intelligenciát, hogy segítse őket a harctéren.
A januárban megrendezésre kerülő WACV 2021-es online konferencián, informatikusok mutatták be, hogy a mélyhamisítások felismerésére tervezett rendszerek megtévesztőek. A mesterséges intelligenciával manipuláló hamisítások erősebbnek bizonyulnak minden védekező rendszerrel szemben.
A kutatók bebizonyították, hogy a detektorok több fronton is legyőzhetőek, ha minden videó képkockába beillesztenek egymásnak ellentmondó elemeket. Az ellentétes elemek enyhén manipulált bemenetek. Ezek a mesterséges intelligencia rendszerek, melyek például a gépi tanulási modellek hibáját okozzák. Ezenkívül felfedezték, hogy a támadás a videó tömörítése után is működik.
„A munkánk azt mutatja, hogy a deepfake detektorok elleni támadások valós veszélyt jelenthetnek” – mondta Shehzeen Hussain, az UC San Diego-i számítástechnikai doktora.
A deepfake az alany arcát módosítja annak érdekében, hogy megtévesztő felvételeket produkáljon olyan eseményekről, melyek valójában meg sem történtek. Ezek kivédésére létrejött detektorok, bármely körültekintéssel is készültek nem elég hatásosak. A tipikus detektorok a szemmozgását és a pislogást figyelik elsősorban, mert ezek a mélyhamisítások során nem jól reprodukálhatóak. A korszerű elemző rendszerek a gépi tanulási modellekre támaszkodnak a hamis videókban.
A digitális média platformjain óriási problémát jelentenek ezek a hamis videók, hiszen széles körben terjednek és szinte bárkihez eljutnak.
„Ha a támadóknak van némi ismerete a detektálórendszer és annak vakfoltjairól, akkor bemeneteket tervezhetnek azok megkerüléséhez" – mondta Paarth Neekhara, az UC San Diego informatikus hallgatója.
A kutatók a mélyhamisítás módszerét alkalmazzák a fejlesztések során, hogy a detektorok a lehető legellenállóbban tudjanak teljesíteni a manipulált videók felismerésében. Olyan deepfaket sikerült megalkotniuk, mely algoritmusa megbecsüli a bementei transzformáció halmazán, hogy a modell mi alapján dönteni el, hogy a képek valósak vagy hamisak. A művelet ezt a becslést használja, így hatékony a tömörítés és a dekompresszió után is. Ez után az arc módosított verziója beillesztésre kerül, melyet kiterjeszt az összes képkockára. Nem csupán az arcot módosítja, hanem alkalmazza a teljes videóképre.
A kutató csoport a forráskódokat nem adja ki, hogy az ne kerülhessen ellenséges kezekbe.
A kutatók két forgatókönyvben tesztelték támadásaikat:
Ez az első olyan munka, amely sikeres támadásokat mutat be a korszerű mélyhamis detektorok ellen.
„Azt mutatjuk be, hogy a mélyhamisítás észlelésének jelenlegi módszere könnyen megkerülhető, ha az ellenfél teljes vagy akár részleges ismeretekkel rendelkezik a detektorról" – mondták a kutatók.
A védekező rendszerek fejlesztése érdekében a kutatók az úgynevezett kontradiktórius, azaz egymásnak ellentmondó képzéshez hasonló megközelítéseket javasolnak. Ennek során az adaptív ellenfél továbbra is új mélyhamisításokat generál, amelyek a detektorok fejlődését eredményezik.