„Szabad kezet” kaphat a mesterséges intelligencia egy háborúban?
2021. augusztus 19. 13:58
Az Egyesült Államok és Kína között egyre inkább elmérgesedni látszik a helyzet és félő, hogy egy esetleges háború beláthatatlan következményekkel járna, tekintve, hogy a negyedik ipari forradalom korában élünk, ami nagy mértékben átírja az eddig ismert hadviselést.
2021. augusztus 19. 13:58
p
2
2
3
Mentés
Mindkét nagyhatalom évek óta azon dolgozik, hogy a mesterséges intelligenciát a hadseregben is alkalmazzák, ami a későbbiekben jelentős előnyt jelenthet a harctéren.
Azonban Lloyd Austin amerikai védelmi miniszter arra figyelmeztet, hogy a mesterséges intelligenciát helyesen kell alkalmaznia a védelmi minisztériumnak.
(kép: Reuters)
Mesterséges intelligencia a hadiiparban
A védelmi minisztériumok szerte a világon alig várják, hogy a katonai rendszereket mesterséges intelligenciával ruházzák fel. A megfigyelő és fegyveres drónok sikerére és növekvő harci jelentőségére építve az USA, Izrael, Oroszország és Kína mind autonóm harci rendszereket keres. Ezek a rendszerek ember nélkül képesek végrehajtani az utasítást, vagyis egy drónt el lehet küldeni a célpont megsemmisítésére anélkül, hogy bármilyen kommunikációs- vagy vezérlőrendszerrel rendelkezne. Azonban az autonóm technológia jelenleg csak azt engedi, hogy egy fegyver elvégezze azt a feladatot, amire be van programozva. Viszont egy mesterséges intelligenciával működő fegyver képes önálló döntéseket is meghozni.
A májusi Gázai övezetben történt támadás során Izrael mesterséges intelligencia által irányított drón rajt használt, amelyet az izraeli hadsereg egy erre szakosodott egysége fejlesztett ki. Információk szerint ezek a drónok nemcsak egy adott területet tudnak feltérképezni, hanem rakétakilövő állomásokat és más katonai tevékenységeket is képesek észlelni és célpontként kiválasztani.
Az USA számos autonóm technológián dolgozik, a szárazföldi rendszerektől kezdve, a felszíni és víz alatti haditengerészeti járműveken át, az autonóm üzemanyag-utántöltő repülőgépekig. A hadsereg például mesterséges intelligencia képességgel bővíti a szárazföldi járműveket, köztük a tankokat, amelyek végül képesek lesznek együttműködni a megfigyelő drónokkal és kiválasztani a legbiztonságosabb elérhető útvonalakat, megjósolni, hogy hol lehetnek akadályok, majd ezek megoldására automatikusan alternatív intézkedéseket hozni. Ezeket egyébként az Egyesült Államok hadserege már évek óta használja terrorista drónok és pokolgépek megsemmisítésére.
(kép: britannica.com)
A jövő katonája
De mi a helyzet a katonákkal? Hogyan tud a jövő katonája életben maradni a mesterséges intelligencia által vezérelt eszközök csatatéren?
Ahhoz, hogy a jövő katonája hatékony legyen, meg kell semmisítenie a vélt fenyegetéseket, mielőtt a fenyegetések semmisítenék meg őt. Így a katona valójában nem kiborg, de képességei elérik azok szintjét.
A mesterséges intelligencia harci környezetben megbízhatóbb lehet, mint az életéért küzdő, megrettent katona. A mesterséges intelligencia programozható úgy, hogy bizonyos "etikai" szabályoknak engedelmeskedjen, különösen, amikor a civilekről van szó harci környezetben. Ez elméletben jól hangzik, de gyakorlatban a visszájára fordulhat, ha a mesterséges intelligencia lezárja a katona fegyverét egy tűzharc közepén, hogy megakadályozza egy civil megölését, még akkor is, ha az egy terrorista.
Ugyan a mesterséges intelligenciát nem tudjuk etikus működésre programozni, azonban a katonai vezetőktől elvárható az etikus viselkedés, ami azt jelenti ezesetben, hogy csak akkor vessék be az autonóm fegyvereket harci környezetben, ha az indokolt és elengedhetetlen az emberek biztonságának érdekében. Ezzel a mentalitással pedig megvalósulhat Lloyd Austin felhívása a mesterséges intelligencia helyes használatát érintően.
Afrika is igyekszik bekapcsolódni a mesterségesintelligencia-versenybe a hiányos infrastruktúra és finanszírozás ellenére. A kutatók azonban leszögezik, hogy semmiképpen sem úgy, ahogyan azt a Nyugat szeretné.
Megnéznék egy "játékháborút" két MI vezérelte hadsereg között. Úgy értem, hogy modelleket vezérlő MI-ket kellene egymás ellen engedni pl. egy homokbányában.