Karácsonyi ajándékötlet: így segít az AI
A mesterséges intelligencia decemberben is bizonyíthatja rátermettségét. A karácsonyi ajándékötlet kapcsán is megállhatja a helyét.
Az ukrajnai harcok és a gázai konfliktus az emberiség történetében az első olyan háború, amelyben a mesterséges intelligencia által irányított fegyverek jelentős szerepet kapnak. A hadviselésben valami új kezdődött, semmi sem lesz már úgy, mint régen. A gépek vezérelte harcra a tudósok hiába figyelmeztettek...
A szerző a Makronóm Intézet elemzője.
A mesterséges intelligencia első konfliktusa – így jellemezte a Time magazin az ukrajnai háborút az egyik közelmúltbeli számának címlapján. Az amerikai hetilap hosszú riportban tekintett vissza arra a látogatásra, amit Zelenszkij ukrán elnöknél 2022 júniusában tett a Palantir Technologies adatelemző cég vezérigazgatója, Alex Karp, akit a 21. század mesterséges intelligencia (MI)- alapú fegyverkereskedőjeként tartanak számon.
A Microsoft, az Amazon, a Google és a Starlink ezután gyorsan Ukrajnába özönlött, ahol valós időben vizsgálhatták meg a hírszerzésre és a katonai műveletekre alkalmazott mesterséges intelligencia-rendszereik legfejlettebb elméleteit. A Time szerint ezzel létrejött a jövő háborújának laboratóriuma.
A nemzetközi média már nem rejti véka alá aggodalmát az emberi felügyelet alól egyre inkább kikerülő „gyilkos robotok” miatt. „Az alig több mint két évvel ezelőtti ukrajnai háború kezdetéig az autonóm halálos fegyverrendszerek (SALA), más néven »gyilkos robotok« nem húzhatták meg a ravaszt – írta a spanyol ABC napilap. Általában az »ember a gépezetben elvét« alkalmazták: a döntés és a felelősség végső soron mindig egy emberi szereplőre hárult.” A sci-fi-író Isaac Asimov által annak idején lefektetett „robotika törvényei” azonban, amelyek szerint egy robot semmilyen körülmények között nem árthat embernek, úgy tűnik, hogy már a múlté.
A vörös vonalat átlépték, és nem csak a háborúban álló országok vagy a technológiai cégek”
– panaszolta Andrian Kreye a Süddeutsche Zeitungban. Mint a szerző kifejtette, a kutatók körében már nem érvényes az a ki nem mondott szabály, hogy nem dolgozhatnak gyilkos robotok létrehozásán és nem használhatják a mesterséges intelligenciát katonai célokra. A fegyverkezési versenyben a nagyhatalmak súlya túl nagy, és az autonóm fegyverek betiltásáról szóló tárgyalások ma már nem valószínű, hogy sikerrel járnak.
Hogyan kezdődött a folyamat, amely elvezetett a jelenlegi állapotig? 2020 nyarának egyik estéjén az észak-karolinai Fort Liberty katonai gyakorlótéren tüzérségi tűz porrá zúzott egy tankot. Ez a lövés be fog vonulni az amerikai történelembe – írta a Bloomberg Businessweek február végén megjelent cikkében, „Az MI által vezérelt háború elkezdődött” címmel. Az amerikai katonák először találtak el egy olyan célpontot, amelyet egy mesterséges intelligencia-program talált és azonosított, majd semmisített meg. Kevesebb mint négy évvel e csapás után az MI használata az amerikai hadsereg hadviselésében már nem elméleti kérdés.
A Maven projektet – amelyet a Pentagon olyan technológiai óriások segítségével irányít, mint a Palantir és az Amazon – a jemeni húszi lázadók rakétakilövőinek, valamint néhány hajójuknak a Vörös-tengeren való bemérésére használják, mégpedig automatikusan. Ezt megelőzően – írta az amerikai média – „270 Maven-személyt” telepítettek Németországba, hogy segítsenek az ukrán hadseregnek az orosz állások célba vételében.
Az ellenség ismerete az első lépés a győzelem felé – mondta Szun-ce ókori kínai író, filozófus és hadvezér, a máig nagy hatású A háború művészete című hadtudományi könyv szerzője. Az intelligens drónok által gyűjtött, az ellenségről szóló adatokat ma már kifinomult algoritmusok vizsgálják, amelyek néhány másodperc alatt képesek tűzparancsot adni. Néha ezek „rendkívül váratlan stratégiákat dolgoznak ki céljaik elérésére”.
Ha valaki, akkor ezt Tucker Hamilton, az amerikai légierő mesterséges intelligencia-tesztelésének vezetője tudja. Az amerikaiak már kísérleteztek F–16-os repülőgépek mesterséges intelligenciával történő irányításával.
Egy olyan szimuláció során, amelyben az irányítója nem engedte, hogy az általa azonosított ellenséget megtámadja, az MI úgy döntött, hogy inkább megöli a kezelőjét.
Valójában ez volt a legközvetlenebb módja a cél elérésének. „Meg kellett tanítanunk neki, hogy a kezelő megölésével rengeteg pontot veszít” – jelentette ki Tucker Hamilton. Oda Asimov 1942-ben tett híres kijelentése, hogy egy robot nem árthat embernek?
A fegyvergyártók és a katonai szakértők felismerték, hogy a gép feletti állandó emberi ellenőrzéshez kizárólagos kapcsolatra van szükség, például a katona és az általa irányított drón között. A harctéren azonban a kiberhadviselés gyakran az összeköttetés megszűnéséhez vezet. Amíg egy autonóm rendszer irányításához állandó kapcsolatra van szükség, az ellenfél mindent megtesz ennek a megszakításáért. Minden alkalommal, amikor az összeköttetés megszakad, a mesterséges intelligencia dönt.
Oroszország a fronton gondosan igyekszik elrejteni, hogy MI-alapú fegyvereket használ. Az ukrán fejlesztők azonban nem haboznak megerősíteni, hogy a drónjaik emberi kezelő nélkül, autonóm támadásokat hajtanak végre az orosz erők ellen. Ukrajna török gyártmányú Bayraktar TB2 drónokat, valamint helyben gyártott Saker Scout négykerekűeket vetett be, amelyek képesek akár három kilogramm RKG–3 páncéltörő gránát vagy RPG rakéta 12 kilométeres távolságra szállítására, valamint 64 -féle katonai objektum önálló azonosítására és támadására.
A Saker mesterséges intelligencia szoftvere integrálja a Deltát, Ukrajna harctérirányítási rendszerét, amely a drónokból, műholdakból és más forrásokból származó adatokat átfogó térképpé egyesíti. A vállalat elismerte, hogy Scout modelljét már használta teljes autonómiában, de csak kis mértékben.
A mintegy kétezer drón, amely tavaly október óta az ukrán hadsereg rendelkezésére áll, a maga nemében az első működő robothaderő. A megfelelő döntés meghozatalához kiértékelendő adatmennyiség már most is nagyobb, mint egy emberi hadsereg feldolgozókapacitása – magyarázta Patrick Bolder. A hágai Stratégiai Tanulmányok Központjának elemzője így folytatta: „Egyre több és több érzékelő van a harctér minden részén, nemcsak a földön, hanem a vízen, a levegőben, az űrben és a kibertérben is. Mindezek az információk egy képet alkotnak, ezt mi helyzetfelismerésnek nevezünk. A szenzorok által összegyűjtött adatmennyiség olyan hatalmas, hogy azt egy ember képtelen felfogni. Ezért van szükség automatikus feldolgozásra.”
Több ukrán cég mesterséges intelligencia szoftverrel felszerelt drónokat tervez, amelyek emberi irányítás nélkül képesek egy előre meghatározott célpontot eltalálni.
A rosszindulatú felhasználók körében való elterjedés kockázata azonban nagyon is valós
– figyelmeztetett a The Washington Post.
Forradalom zajlik Ukrajnában – írta az amerikai lap. A konfliktus megváltoztatja a drónok szerepét a hadviselésben, különösen egy új területen: a mesterséges intelligencia -eszközök használatában. Kijev számára, amelynek kevesebb katona és fegyver áll rendelkezésére, a pilóta nélküli repülőgépek felbecsülhetetlen értékűek. „A drónok lehetővé tették Ukrajna számára, hogy megfigyelési műveleteket hajtson végre és stratégiai célpontokra csapjon le messze az ellenséges vonalak mögött” – jegyezte meg a lap.
Az országot 2022 óta egyfajta óriási laboratóriummá alakították át, amely olyan nagynevű üzletemberek befektetéseit vonzza, mint a Google korábbi főnöke, Eric Schmidt. Több mint kétszáz dróngyártással foglalkozó ukrán cég dolgozik szorosan együtt a frontvonalon lévő katonai egységekkel az eszközök tökéletesítésén.
„Oroszország, amely csak lassan értette meg a támadó drónok fontosságát a konfliktusban, az utóbbi időben reagált” – folytatta a lap. – Egyrészt azzal, hogy nagyobb mértékben használja ezeket az eszközöket, másrészt „új elektronikus zavaró fegyverek telepítésével a szárazföldön”.
Az ilyen zavarásokkal szemben a mesterséges intelligencia-szoftverrel felszerelt drónok előnyt jelentenek. Ezek a támadóeszközök akkor is képesek elérni a célpontot, ha elveszítik a kapcsolatot az emberi kezelővel. A jelzavarással szembesülve a szoftver stabilizálja a drónt, amely továbbra is az előre kiválasztott célpontot veszi célba.
Egy bombával felszerelt eszköz akkor is képes eltalálni a célt, ha az mozog. Bár nagyon ígéretesek az ukrán hadsereg számára, ezekhez az új drónokhoz nem állami szereplők is hozzájuthatnak – figyelmeztetett a Washington Post. „Ha egyszer már kifejlesztettek egy ilyen szoftvert, azt szinte ingyenesen terjeszthetik, és máshol újra felhasználhatják – idézte a lap Paul Scharre drónszakértőt. – A nem állami szereplők számára nagyon könnyű azt az internetről megszerezni és újra felhasználni.”
Ukrajna és Gáza egy hatalmas „nyíltszíni kísérlet” a világ fegyverpiaca számára. A Fortune Business Insights szerint a katonai robotok piaca 2019-ben 14 milliárd dollárt ért, és 2027-re várhatóan eléri a 25 milliárdot. „Olyan korban élünk, amikor geostratégiai érdekek határozzák meg a technológiáról és annak fejlesztéséről való gondolkodásunkat. A technológia tehát fontos szerepet játszik a Kínával folytatott versenyben, olyannyira, hogy lehet, hogy engedünk a nyomásnak, és sokkal gyorsabban használjuk a mesterséges intelligenciát, mint kellene” – aggódott Margarita Konaev, a washingtoni Georgetown Egyetem Biztonsági és Feltörekvő Technológiák Központjának munkatársa.
Az MI katonai döntéseinek a felügyelete előtt egy nagy akadály áll: nehéz független módon ellenőrizni, hogy egy fegyverrendszer megfelel-e az előírásoknak anélkül, hogy felfednénk, hogyan működik, ami ugye eleve titkos. Még ha úgy is gondoljuk, hogy a mesterséges intelligencia emberi ellenőrzés alatt marad, már most is teljesen forradalmasította a hadviselés művészetét.
Ulrike Franke, az Európai Külkapcsolatok Tanácsának munkatársa a „villámháború” új veszélyére figyelmeztetett: „Számos probléma merül fel, különösen a felelősségi lánc tekintetében: egy mesterséges intelligencia által vezérelt rendszer magától tanul, és képes döntéseket hozni anélkül, hogy az emberek megértenék a mögöttük álló logikát. Ez különösen bosszantó, mert háborús környezetben a szabotázs mindig lehetséges. Ha pedig nem tudjuk visszakövetni a döntés meghozatalának lépéseit, akkor nagyon nehéz lesz kiszűrni egy szabotázscselekményt” – magyarázta a Süddeutsche Zeitung német napilapnak.
Bármilyen veszélyekről is legyen szó – a 2014 óta tett összes sikertelen szabályozási kísérlet ellenére –, az tény: ma egyetlen hadsereg sem engedheti meg magának, hogy a mesterséges intelligenciát nélkülözze, így egy fegyverkorlátozó megállapodás gyakorlatilag a feje tetejére állítaná az egész hadművészetet.
A következmények már eddig is pusztítók voltak, és
a jövőbeni fenyegetések valószínűleg sokkal nagyobbak lesznek, ha a mesterséges intelligenciák részt vesznek például biológiai fegyverek létrehozásában,
ahogy arra száz kutató nemrég a The New York Times által közzétett tanulmányban figyelmeztetett.
Vagy ami még rosszabb, ha nukleáris fegyverek kerülnek a robotok kezébe. A nagy méretű nyelvi modellek (a ChatGPT-hez használt típusok) hajlamosak arra, hogy fegyvereket akarjanak használni a konfliktusok megoldására – mutatta ki egy kutatócsoport, amelyet a The Atlantic amerikai lap idézett.
Már évekkel ezelőtt hiába hangzottak el tudósok figyelemfelhívásai arról, hogy a gyilkos robotok milyen veszélyt jelenthetnek. Jelenleg ennek a folyamatnak a kezdetén tartunk, és beláthatatlanok lesznek a következményei. Sajnos, igazuk lesz azoknak, akik nem hittek abban, hogy az emberiség most az egyszer a józan eszét használja: eddig ugyanis, ha fegyvert kapott a kezébe, akkor azzal ütött és gyilkolt.
Tavaly év végén a +972 és a Local Call izraeli média közzétett egy vizsgálatot az IDF, az Izraeli Védelmi Erők által a Hamász elleni háborúban használt Habsora (Evangélium) MI-ről. Április elején egy másik MI katonai célú felhasználását tárták fel, a Lavendert, amelyről nyilatkozott a francia Courrier Internationalnak Meron Rapoport, a Local Call izraeli honlap főszerkesztője.
A Lavender megelőzte ezt a háborút, de eddig csak egy egyszerű, másodlagos eszköz volt – mondta el az újságíró. Erre a fegyveres konfliktusra azonban tökéletesítették, hogy a Hamász több tízezer, bármilyen rangú tagját felkutassák és megöljék, néha anélkül, hogy közvetlen kapcsolatuk lett volna a szervezet katonai szárnyával. Egyesek közülük a gázai civil kormányzat tagjai voltak.
Az izraeliek kezdetben egyfajta teszteléssel kezdték: néhány száz bizonyított Hamász-harcosról gyűjtöttek információkat, és az ő adataik alapján kérték meg a gépet, hogy azonosítsa a hasonló adatokkal rendelkezőket, akik aztán potenciális merényletcélpontokká váltak. Összesen 37 ezer embert jelöltek ki célpontként Gázában. A hírszerzési források szerint az emberi ellenőrzés részét – amelynek az lenne a feladata, hogy megbizonyosodjon arról: a célpont valóban a megfelelő személy – minimálisra csökkentették.
A rendszer megbízhatósági aránya a legjobb esetben is 90 százalékos.
A Local Callnál és a +972 médiánál van egy másik elemzés is: az ilyen akciók során a hamászosok megsemmisítésekor legalább 15-20 járulékos áldozat volt. Azt, hogy milyen adatok alapján azonosították ezeket a célpontokat, természetesen nem tudjuk pontosan – szögezte le a főszerkesztő. Egy 2021-ben megjelent könyvben a 8200-as egységnek, az izraeli haderő csúcstechnológiával foglalkozó csapatának a főnöke azt állította, hogy ezek az adatok tartalmazhatják a WhatsApp-üzeneteket, az illető lakóhelyét, társadalmi kapcsolatait, valamint a más harcosokkal vagy katonai szervezetek tagjaival való esetleges összefonódását.
Tavaly novemberben a +972 és a Local Call egy másik mesterséges intelligencia-rendszerrel, a Habsorával kapcsolatos vizsgálatot tett közzé. Mi a különbség a Lavender és a Habsora között? Leginkább az, hogy az utóbbi csak fizikai tárgyakat vesz célba, míg a másik embereket támad – tisztázta Meron Rapoport.
Az, hogy Izrael nem bízik túlságosan a mesterséges intelligenciában, arra példa az október 7-i biztonsági rendszer kudarca? – érdeklődött a Courrier International újságírója. „Természetesen igen” – válaszolta a főszerkesztő.Egy másik vizsgálatban Ben Caspit, a Maariv napilap politikai újságírója, aki távolról sem baloldali, hírszerzési forrásokat idézett. A megszólalók elítélték, hogy ma már minden a mesterséges intelligencián alapul. Ez pedig akadályozza, hogy az ügynökök valódi hírszerzési munkát végezzenek: kitartó, klasszikus nyomozó- és megfigyelési munkát. Ennek ugyanis az a lényege, hogy megpróbálják megérteni, mi történik a másik oldalon.
„Ez október 7-e tagadhatatlan kudarca – szögezte le Meron Rapoport, aki így folytatta: – Annak ellenére, hogy a 8200-as egység egy hatalmas szervezet, hihetetlen erőforrásokkal, mégis képtelen volt felismerni egy olyan támadás közeledtét, amelyet egy meglehetősen primitív, nem túl kifinomult informatikai eszközökkel felszerelt és nagyon egyszerű kommunikációs képességekkel működő szervezet hajtott végre. Ez súlyos csapás az izraeli titkosszolgálatok hírnevére.”
Címlapfotó: MTI/AP/Efrem Lukackij
További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.