Ha a gép azonosít, másodperceid vannak hátra!
Tavaly év végén a +972 és a Local Call izraeli média közzétett egy vizsgálatot az IDF, az Izraeli Védelmi Erők által a Hamász elleni háborúban használt Habsora (Evangélium) MI-ről. Április elején egy másik MI katonai célú felhasználását tárták fel, a Lavendert, amelyről nyilatkozott a francia Courrier Internationalnak Meron Rapoport, a Local Call izraeli honlap főszerkesztője.
A Lavender megelőzte ezt a háborút, de eddig csak egy egyszerű, másodlagos eszköz volt – mondta el az újságíró. Erre a fegyveres konfliktusra azonban tökéletesítették, hogy a Hamász több tízezer, bármilyen rangú tagját felkutassák és megöljék, néha anélkül, hogy közvetlen kapcsolatuk lett volna a szervezet katonai szárnyával. Egyesek közülük a gázai civil kormányzat tagjai voltak.
Minimális emberi ellenőrzés
Az izraeliek kezdetben egyfajta teszteléssel kezdték: néhány száz bizonyított Hamász-harcosról gyűjtöttek információkat, és az ő adataik alapján kérték meg a gépet, hogy azonosítsa a hasonló adatokkal rendelkezőket, akik aztán potenciális merényletcélpontokká váltak. Összesen 37 ezer embert jelöltek ki célpontként Gázában. A hírszerzési források szerint az emberi ellenőrzés részét – amelynek az lenne a feladata, hogy megbizonyosodjon arról: a célpont valóban a megfelelő személy – minimálisra csökkentették.
A rendszer megbízhatósági aránya a legjobb esetben is 90 százalékos.
Járulékos veszteség
A Local Callnál és a +972 médiánál van egy másik elemzés is: az ilyen akciók során a hamászosok megsemmisítésekor legalább 15-20 járulékos áldozat volt. Azt, hogy milyen adatok alapján azonosították ezeket a célpontokat, természetesen nem tudjuk pontosan – szögezte le a főszerkesztő. Egy 2021-ben megjelent könyvben a 8200-as egységnek, az izraeli haderő csúcstechnológiával foglalkozó csapatának a főnöke azt állította, hogy ezek az adatok tartalmazhatják a WhatsApp-üzeneteket, az illető lakóhelyét, társadalmi kapcsolatait, valamint a más harcosokkal vagy katonai szervezetek tagjaival való esetleges összefonódását.
Tavaly novemberben a +972 és a Local Call egy másik mesterséges intelligencia-rendszerrel, a Habsorával kapcsolatos vizsgálatot tett közzé. Mi a különbség a Lavender és a Habsora között? Leginkább az, hogy az utóbbi csak fizikai tárgyakat vesz célba, míg a másik embereket támad – tisztázta Meron Rapoport.
Túl sok a bizalom a mesterséges intelligenciában
Az, hogy Izrael nem bízik túlságosan a mesterséges intelligenciában, arra példa az október 7-i biztonsági rendszer kudarca? – érdeklődött a Courrier International újságírója. „Természetesen igen” – válaszolta a főszerkesztő.Egy másik vizsgálatban Ben Caspit, a Maariv napilap politikai újságírója, aki távolról sem baloldali, hírszerzési forrásokat idézett. A megszólalók elítélték, hogy ma már minden a mesterséges intelligencián alapul. Ez pedig akadályozza, hogy az ügynökök valódi hírszerzési munkát végezzenek: kitartó, klasszikus nyomozó- és megfigyelési munkát. Ennek ugyanis az a lényege, hogy megpróbálják megérteni, mi történik a másik oldalon.
„Ez október 7-e tagadhatatlan kudarca – szögezte le Meron Rapoport, aki így folytatta: – Annak ellenére, hogy a 8200-as egység egy hatalmas szervezet, hihetetlen erőforrásokkal, mégis képtelen volt felismerni egy olyan támadás közeledtét, amelyet egy meglehetősen primitív, nem túl kifinomult informatikai eszközökkel felszerelt és nagyon egyszerű kommunikációs képességekkel működő szervezet hajtott végre. Ez súlyos csapás az izraeli titkosszolgálatok hírnevére.”