Gondolkodó robotok a harctéren

2024. december 30. 12:21

A mesterséges intelligencia megjelenése a hadviselésben radikálisan formálja át a modern háborúk arculatát. Az autonóm fegyverek fejlesztése komoly etikai kérdéseket vet fel, miközben a nagyhatalmak versenyfutása már elkezdődött.

2024. december 30. 12:21
Santo Martin
Santo Martin

A szerző a Makronóm vezető elemzője.

A 21. század hadviselésében bekövetkező radikális változások mögött egyértelműen a mesterséges intelligencia (MI) rohamos előretörése áll. Az ukrajnai háború tapasztalatai rámutattak arra, hogy a drónok és az automatizált rendszerek immár megkerülhetetlenek a modern csatamezőn. A konfliktusokban alkalmazott technológiák nagy része még operátorok parancsait követi, de a kifinomult zavarótechnológiák (jelzavarás, rádiófrekvencia-blokkolás, GPS- és drónirányítási jelek megzavarása) gyors fejlesztése egyértelművé teszi, hogy az emberi irányítás nem mindig garantálható. 

Vagyis ha a jövő hadviselésében az ellenség folyamatosan zavarja a kommunikációs csatornákat, akkor előbb-utóbb olyan „okos” hadigépekre lesz szükség, amelyek emberi parancs nélkül, autonóm módon is képesek célpontokat azonosítani, támadni vagy védekezni. 

A kockázatok nyilvánvalók: sokan attól tartanak, hogy a mesterséges intelligenciával ellátott, gyilkolásra képes robotok – az úgynevezett „killer robotok” – egyfajta modern „terminátorként” lépnek majd a színre. A Pentagon és a nyugati hatalmak óvatosak ezen a téren, jórészt azért, mert komoly etikai és politikai viták kísérik az autonóm halálos fegyverrendszerek bevetését. Ugyanakkor a világ többi jelentős katonai hatalma, köztük Oroszország és Kína, láthatóan kevésbé tartózkodó e kérdésben. Szakértők, például Clayton Swope, a CSIS Nemzetközi Biztonsági Programjának szenior munkatársa, arra figyelmeztetnek, hogy az Egyesült Államok lépéshátrányba kerülhet, ha nem fejleszti rohamtempóban saját MI-alapú autonóm, halálos fegyverrendszereit. 

A zavarás elleni küzdelem megköveteli az autonómiát 

Az ukrajnai háború tanulságaiból kitűnik, hogy az ellenséges rádió- és jelzavarás egy végtelen macska-egér játékot idéz. Az egyik héten még működőképes kommunikációs megoldások a következő héten már használhatatlanná válhatnak, ahogy a zavarótechnikák folyamatosan fejlődnek. Ennek következménye, hogy a terepen harcoló drónok, szárazföldi robotjárművek vagy éppen tengeralattjárók könnyen „elszakadhatnak” az emberi parancsnoki hálózattól. Ilyenkor nincs biztosíték, hogy a kezelő a távolból meg tudja különböztetni az ellenséges katonákat a saját erőktől, a civil repülőt az ellenséges bombázótól vagy akár a hétköznapi járókelőt az ellenséges felderítőtől. 

Ezen a ponton kerül középpontba az autonóm célazonosítás és támadás képessége. Korábban is léteztek olyan fegyverek – mint a hőkövető rakéták, a tengeri aknák a Phalanx radarvezérlésű légvédelmi ágyú, illetve Izrael Harpy drónja –, amelyek emberi beavatkozás nélkül hoztak „döntéseket”. Igaz, ezek a rendszerek még viszonylag primitív logikát követtek, szinte ösztönszerűen reagálva, bizonyos szenzorjeleket követve (radar, hő, mágneses anomália), s nem lehet őket a modern értelemben vett MI-nek tekinteni. 

Most azonban elérkezhet az idő, hogy a Pentagon és a nyugati hadseregek olyan fegyverrendszereket fejlesszenek ki, amelyek a környezetet aktívan értelmező, több forrásból származó adatot összevető, tanulóalgoritmusokkal működő mesterséges intelligenciára épülnek.  

Ilyen például a Bullfrog nevű rendszer, amely a jelek szerint az első, nyilvánosan ismert amerikai autonóm halálos fegyver lehetne, amely több bemeneti adat alapján képes dönteni drónfenyegetések esetén.  

Ez már nem egy egyszerű reflexszerű működés lenne, hanem egy komplex környezeti értelmezés alapján üzemelne, ahol az MI a korábban betanított emberi értékek és irányelvek mentén határozza meg a cselekvést. Ha azonban az USA nem gyorsítja fel az ilyen jellegű fejlesztéseit, könnyen lemaradhat Oroszországhoz és Kínához képest, s elveszítheti „az első mozdulat előnye” nevű geopolitikai játszmát. 

A „gyilkos robotok” körüli etikai viták és a nyilvánosság ereje 

További kulcskérdés, hogy a nyugati demokráciák mennyire lesznek hajlandók elfogadni a gyilkos robotok bevetését. A Pentagon Replicator nevű kezdeményezése például azt ígéri, hogy tömegével állít majd hadrendbe drónokat és egyéb autonóm harci egységeket, amelyek célja, hogy ellensúlyozzák például Kína emberi erőforrásfölényét. A kérdés az, hogy ezek a gépek vajon tudnak-e önállóan halálos erőt alkalmazni anélkül, hogy minden egyes lövést, rakétaindítást vagy csapást emberi parancs engedélyezne. 

A Public Citizen nevű kormányzati ellenőrző szervezet nemrégiben kiadott jelentése szerint a Pentagon nem ad egyértelmű választ arra, hogy a Replicator program valóban a „gyilkos robotok” fejlesztését célozza-e. Az amerikai védelmi minisztérium hangsúlyozza, hogy minden fegyverrendszer használata végső soron emberi döntéshozatalhoz kötődik, de számos nyilatkozat és kezdeményezés kétértelművé teszi a helyzetet. A civil szervezetek szerint az MI-fegyverek kifejlesztése „embertelen és etikátlan”, hiszen a harctéren bekövetkező váratlan helyzetekben egy algoritmus soha nem lesz képes teljes bizonyossággal etikusan dönteni, s így „katasztrofális következményekhez” vezethet. 

A közeljövőben érkező Replicator 2.0 verzió külön hangsúlyozza a drónok elleni technológiák fejlesztését — így például  

autonóm ellendrónrendszereket építhetnek, amelyek felismerik és megsemmisítik az ellenséges pilóta nélküli légi járműveket (UAV-ket) anélkül, hogy minden alkalommal emberi engedélyre várnának  

– ilyen a már említett Bullfrog is. A kritikus hangok szerint ezek a fejlesztések azt a kiskaput keresik, amellyel a Pentagon minimális emberi felügyelet mellett adhat „szabad kezet” a gépeknek a célpontok megsemmisítésére. 

A civil szervezetek, köztük 14 csoport, nyílt levélben arra szólították fel a védelmi tárcát, hogy tisztázza álláspontját. Szerintük az, hogy a Pentagon nem zárja ki egyértelműen az autonóm gyilkos fegyverek fejlesztését, arra utalhat, hogy az Egyesült Államok is belekezd egy veszélyes fegyverkezési hajszába, amelynek a végén a világ számos hadserege pusztán MI által vezérelt fegyverekkel állna szemben. 

A globális fegyverkezési verseny és az MI jövőbeli fenyegetései 

A mesterséges intelligencia terjedése a katonai alkalmazásokban nem korlátozódik csupán Oroszországra, Kínára vagy az Egyesült Államokra. Számos más ország, például Ukrajna, már kísérletezik önállóan működő drónrajokkal, amelyek képesek kommunikáció nélkül azonosítani és megtámadni célpontokat. A nemzetközi színtéren így egy olyan fegyverkezési verseny körvonalazódik, amelyben az MI-alapú harci rendszerek fejlesztése és tökéletesítése a katonai fölény kulcsát jelentheti. Kína és Oroszország nem titkoltan olyan halálos autonóm fegyvereken dolgozik, amelyek emberi beavatkozás nélkül dönthetnek élet és halál kérdésében. 

Ezzel párhuzamosan a mesterséges intelligencia úgynevezett „istenatyja”, Geoffrey Hinton és más szakértők arra figyelmeztetnek, hogy a katonai szféra titokban zajló MI-fejlesztései később váratlanul összehozhatják a nemzeteket. Amint a technológia olyannyira okossá válik, hogy már az emberiség egészét fenyegetheti, a nagyhatalmak – hasonlóan ahhoz, ahogy a hidegháború idején az Egyesült Államok és a Szovjetunió el akarta kerülni a kölcsönösen biztosított megsemmisítést – kénytelenek lesznek összehangoltan fellépni. Bár ez egy erősen sci-fibe illő mondatnak hangzik, 

Hinton szerint, ha a mesterséges intelligencia tényleg olyan szintre jut, hogy egzisztenciális fenyegetést jelent az emberiségre, akkor még a legádázabb geopolitikai riválisok is kénytelenek lesznek együttműködni. 

Az azonban kérdés, hogy ez az együttműködés mikor következik be, és addig mi történik. Ma a fejlesztések zömét titkok övezik, és az Egyesült Államok, Kína, Oroszország, Nagy-Britannia vagy éppen Izrael nem lassítja a kutatásokat. A Goldman Sachs előrejelzése szerint jövőre a globális MI-befektetések elérhetik a 200 milliárd dollárt, és ebből jelentős rész a katonai szektorra fókuszál. A legnagyobb befektető továbbra is az Egyesült Államok és Kína, amely megpróbál tökéletesíteni olyan rendszereket, amelyek akár a kommunikáció teljes hiánya mellett is működőképesek. 

Bizonyos jelek szerint a legmagasabb szinten már felismerték az MI jelentette veszélyeket: 2023 novemberében például  

az Ázsia–Csendes-óceáni Gazdasági Együttműködés (APEC) csúcstalálkozóján Joe Biden és Hszi Csin-ping is megállapodott abban, hogy a nukleáris fegyverek alkalmazásáról emberek döntsenek, ne pedig gépek.  

Ez apró lépés afelé, hogy legalább a legpusztítóbb arzenálok esetében ne kerüljön a döntés az MI kezébe. Ugyanakkor a nagyhatalmi fegyverkezési hajsza már elindult, és a szabályozás, valamint a nemzetközi egyezmények hiánya tovább növeli a kockázatokat. 

Stratégiai válaszok, etikai normák és a jövő hadszíntere 

A geopolitikai játszma már elkezdődött, és az Egyesült Államok döntéshozóinak előbb-utóbb választ kell adniuk arra, hogyan reagálnak Kína és Oroszország előretörésére. A késlekedés a fejlesztések terén akár végzetesnek bizonyulhat, hiszen a jövő háborúi elképzelhetők olyan környezetben, ahol az emberi irányítás akadozik vagy teljesen megszűnik.  

Sajnos, vagy nem sajnos, de a mesterséges intelligencia által vezérelt autonóm fegyverek lehetnek az egyedüli hatékony eszközök a rádiófrekvenciákat teljesen elárasztó, zavaró jelekkel teli harctereken. 

Ugyanakkor a nyugati értékek, az emberi jogok, a humanitárius normák és a háborús jog tisztelete megkövetelik, hogy az MI-fejlesztések ne csak a puszta katonai hatékonyságról szóljanak. Ha az Amerikai Egyesült Államok már most nekilát kidolgozni azokat az algoritmusokat, amelyek tiszteletben tartják a háborús jogot, a civil áldozatok minimalizálására törekednek, és átlátható, számonkérhető módon működnek, akkor lehetőség nyílhat egy olyan szabvány megteremtésére, amely példát mutat a nemzetközi közösség számára.  

A katonai szakértők szerint a robotok és az emberek hadszíntéri együttműködésének finomhangolása is kulcsfontosságú feladat. Az emberi katona és az autonóm drón vagy harci jármű közötti partnerség, a feladatok megosztása, a kölcsönös bizalom és a kommunikáció nélkül is működő hatékony együttműködés kulcsfontosságú lesz. Az MI vezérelte rendszerek hibázhatnak, de ne feledjük, az emberek is. Az érzelmi motivációk, a fáradtság, a rossz információk is téves döntésekhez vezethetnek.  

A mesterséges intelligenciára alapozott rendszerek viszont – legalábbis elméletben – mentesek a harctéri „szenvedélyektől”, és akár kiszámíthatóbb döntéseket is hozhatnak. 

Míg a kritikusok „Pandóra szelencéjének” kinyitását látják az autonóm fegyverek kifejlesztésében, a hívek szerint a kockázatot inkább az jelenti, hogy a Nyugat lemarad, és így átengedi a kezdeményezést a riválisainak.  

Szabályozás, transzparencia és az etikai szempontok integrálása nélkül az MI-alapú fegyverkezési verseny valóban veszélyesebb és kiszámíthatatlanabb világot teremthet. 

A nem túl távoli jövőben tehát két véglet között lavírozunk: a világ országai vagy koordináltan lépnek fel, hogy megakadályozzák az MI által vezérelt halálos rendszerek féktelen elterjedését, vagy mindenki a saját útját járja, és a versenyfutás az egyre autonómabb, egyre intelligensebb és talán egyszer az emberiségtől is független gépek irányába halad. Az új korszak hadviselése még nem dőlt el, de a tét óriási: a biztonság, az erkölcs és a katonai fölény kérdése innentől elválaszthatatlan a mesterséges intelligencia fejlődésétől. 

(Források: Breaking Defense; Truth Out; Business Insider)

Kapcsolódó:

Címlapfotó: Flickr

 

 


További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon. 

Összesen 27 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Jacques Foche
2024. december 30. 22:15
Az embernek már reszeltek. Csak egy butleri dzsihadban bízhatnánk, de nem úgy áll a korszellem, és mire mindenki rájön az igazságra, már késő lesz. Azért kellene önmegtartóztatást gyakorolnunk, mert a „mások úgyis megcsinálják” minden alól felmentést ad, és időutazás nélkül sem leszünk olyan szerencsések, hogy az ellenünk fejlesztett géptől sokáig megmeneküljünk.
renoman
2024. december 30. 16:52
ja ja, amcsikat úgy kell noszogatni! Annyira tartózkodnak a gyilkosfegyverektől, hogy az embernek könnybe lábad a szeme.
Akitlosz
2024. december 30. 16:10
Nem a hadszíntéren fog ez eldőlni. Ha a BRICS megcsinálja az R5-t, a dollárnál jobb pénzt, akkor a dollár világkereskedelmi szerepének meszeltek, ezzel Amerika fő bevételi forrásának is. S akkor nem lesz többet pénze világuralomra.
patikus
2024. december 30. 15:29
Haszon és előny, ez a két szó kergeti vesztébe a világot, Ami hasznos az előnyös, ami előnyös az hasznos, mint macska talpán a dióhéj, vagy kutya farkán a konzervdoboz....
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!