Ezen a ponton kerül középpontba az autonóm célazonosítás és támadás képessége. Korábban is léteztek olyan fegyverek – mint a hőkövető rakéták, a tengeri aknák a Phalanx radarvezérlésű légvédelmi ágyú, illetve Izrael Harpy drónja –, amelyek emberi beavatkozás nélkül hoztak „döntéseket”. Igaz, ezek a rendszerek még viszonylag primitív logikát követtek, szinte ösztönszerűen reagálva, bizonyos szenzorjeleket követve (radar, hő, mágneses anomália), s nem lehet őket a modern értelemben vett MI-nek tekinteni.
Most azonban elérkezhet az idő, hogy a Pentagon és a nyugati hadseregek olyan fegyverrendszereket fejlesszenek ki, amelyek a környezetet aktívan értelmező, több forrásból származó adatot összevető, tanulóalgoritmusokkal működő mesterséges intelligenciára épülnek.
Ilyen például a Bullfrog nevű rendszer, amely a jelek szerint az első, nyilvánosan ismert amerikai autonóm halálos fegyver lehetne, amely több bemeneti adat alapján képes dönteni drónfenyegetések esetén.
Ez már nem egy egyszerű reflexszerű működés lenne, hanem egy komplex környezeti értelmezés alapján üzemelne, ahol az MI a korábban betanított emberi értékek és irányelvek mentén határozza meg a cselekvést. Ha azonban az USA nem gyorsítja fel az ilyen jellegű fejlesztéseit, könnyen lemaradhat Oroszországhoz és Kínához képest, s elveszítheti „az első mozdulat előnye” nevű geopolitikai játszmát.
A „gyilkos robotok” körüli etikai viták és a nyilvánosság ereje
További kulcskérdés, hogy a nyugati demokráciák mennyire lesznek hajlandók elfogadni a gyilkos robotok bevetését. A Pentagon Replicator nevű kezdeményezése például azt ígéri, hogy tömegével állít majd hadrendbe drónokat és egyéb autonóm harci egységeket, amelyek célja, hogy ellensúlyozzák például Kína emberi erőforrásfölényét. A kérdés az, hogy ezek a gépek vajon tudnak-e önállóan halálos erőt alkalmazni anélkül, hogy minden egyes lövést, rakétaindítást vagy csapást emberi parancs engedélyezne.