Új szintre lép a hadviselés: a mesterséges intelligenciát tanítanák be az ukránok az oroszok ellen
Az ukránok több millió órányi drónfelvétel segítségével tanítanák be a mesterséges intelligenciát, hogy segítse őket a harctéren.
Az Egyesült Államok kormánya által rendelt jelentésben az elemzést végzők teljesen egyértelműen az emberi faj kihalására utalnak a mesterséges intelligencia szabályozatlan térhódítása miatt. A vaskos dokumentum szerint a jelenlegi állapotok borítékolják a katasztrófát.
Az Egyesült Államok külügyminisztériumában is meglepődhettek, amikor az asztalukra került az a jelentés, amelyet egy független szakmai elemzők alkotta csapattól, a Gladstone AI-tól rendelt meg a mesterséges intelligencia alkalmazásának korlátairól és veszélyeiről. A dokumentum ugyanis a lehető legegyértelműbben arra utal, hogy
a jelenlegi szabályozás és a felügyeleti jogi rendszerek hiánya miatt a technológia fejlődése az emberiség kihalásához is vezethet.
Ezért – javasolják az elemzők – az USA kormányának haladéktalanul és minél határozottabban törvényi szigorítással kell fellépnie a nemzetbiztonsági kockázatok katasztrofális következményeinek elkerülése érdekében.
A Time magazin (amely birtokába jutott a jelentésnek még annak megjelenése előtt) közlése szerint a dokumentumban rámutatnak: a fejlett mesterséges intelligencia és az AGI (mesterséges általános intelligencia, amely már az emberi agyat másolva úgy értelmez és tanul, mint az ember) térnyerése
egy nukleáris háborúhoz hasonlóan destabilizálhatja a globális biztonságot.
Bár az AGI még csak kutatási szakaszban jár, a technológiája jelenleg nem létezik, a vezető techlaborok már gőzerővel dolgoznak rajta, egyes előrejelzések szerint pedig akár öt éven belül meg is jelenhet a piacon. A probléma éppen azzal lesz, hogy egyáltalán megjelenhet a piacon.
A jelentés három szerzője egy évig dolgozott a dokumentumon, amelynek a „Cselekvési terv a fejlett mesterséges intelligencia biztonságának növelésére” címet adták. Az összefoglaló olyan szakpolitikai és jogi intézkedések meghozatalát fogalmazza meg ajánlásként, amelyek az MI-ipar jelenlegi állapotait fenekestől forgatnák fel.
Az ötletek között szerepel például az, hogy az amerikai törvényhozásnak egy világosan meghatározott szint fölötti és engedély nélküli MI-fejlesztéseket illegálisnak kellene nyilvánítania. Ezt a határt egy új, kifejezetten a mesterséges intelligenciával foglalkozó kormányszervezetnek kell megállapítania, amely
csak akkor engedné a küszöb fölötti kutatásokat, ha a vállalatok beszerzik a szigorú kritériumok alapján kiállított állami és kormányzati engedélyeket a modellek továbbfejlesztéséhez.
A kormánynak ezzel párhuzamosan tovább kellene szigorítania a mesterségesintelligencia-chipek gyártásának és exportjának ellenőrzését, a szövetségi finanszírozásba pedig bele kell építenie a fejlett MI biztonságosabbá tételét célzó kutatások összegét is.
A 247 oldalas tanulmány rámutat: miközben a kormányok szerte a világon a mesterséges intelligencia szabályozásának formáin vitatkoznak, gyakorlatilag az események után kullognak. A techvállalatok a saját modelljeiket villámgyorsan fejlesztik, vagyis érdemesebb lenne egy előzetes törvényi stoppal elejét venni annak, hogy minden irányítás és ellenőrzési lehetőség kicsússzon a politikai vezetők kezei közül.
A jelentés szerint a már említett fejlesztési határ világos meghúzása lassíthat a tempón, ezzel időt adna a jogalkotóknak a világos keretek kiépítésére. Amint a törvényhozók úgy látnák, hogy egy modell állapota megfelelően biztonságos, a fejlesztés előtt ismét felhúzhatnák a zsilipeket, vagyis egy következő szintre ereszthetnék bele a laborokat. Ugyanez azonban fordítva is érvényes lenne:
amennyiben a kormány úgy látná, hogy az éppen aktuális MI-modellek veszélyt és biztonsági kockázatot jelentenek, a küszöböt azonnal visszaállíthatnák egy előző szintre, véget vetve az éppen aktuális kísérleti szakasznak.
A jelentés az MI-fenyegetések két nagy ágát különbözteti meg. Az egyik a mesterséges intelligencia fegyvertechnológiai alkalmazása, amelynek során például minden eddiginél hatékonyabb és katasztrofálisabb biológiai vagy kiber- és szervezett, autonóm dróntámadásokat lehetne végrehajtani. A másik sokkal végzetesebb hatásokkal járhat. Az „irányítás elvesztésének kockázatáról” van szó, amelyet jól ismerhetünk a Terminátor-filmek alapproblémájából. A jelentés szerzőinek határozott véleménye, hogy a fejlett mesterségesintelligencia-rendszerek túlszárnyalhatják az alkotóikat, vagyis a jelenlegi fejlesztési szabályozás mellett
ellenőrizhetetlenné válhatnak, és az emberekkel szemben ellenségesen viselkedhetnek.
A dokumentum kiemeli: mindkét kockázati tényezőt jelentősen megnöveli a jelenlegi fejlesztési verseny sebessége. A kitűzött cél, az AGI megalkotása eszelős rivalizálási tempót kényszerít a vállalatokra – aki először megalkotja, az számíthat a legnagyobb nyereségre a kiéhezett piacon. A sebesség ebben az esetben is a biztonság rovására megy, a helyzetet pedig súlyosbítja, hogy a cégek semmiféle ösztönzést nem kapnak arra, hogy a modellekével egy időben olyan biztonsági fejlesztésekbe fektessenek, amelyek közvetlenül nem termelnek profitot.
A Gladstone-jelentés a chipgyártás legszigorúbb szabályozását emeli ki a megoldási lehetőségek közül, de említenek egy drasztikusnak tűnő megoldást is: szerintük be kellene tiltani a mesterséges intelligencia kutatásainak nyílt forráskódú közzétételét, illetve egy fejlettségi szint fölött a modellek szabad beszerzésének lehetőségét. Azt a szerzők is elismerik, hogy javaslataik valószínűleg nem lesznek népszerűek, és komoly akadályok elé állítják a törvényhozókat – amennyiben jelentésükkel egyáltalán érdemben foglalkoznak. Egy ilyen lépés ugyanis csak hátrányba hozná az amerikai chipipart, a gyártók pedig egy idő után áttelepülnének olyan helyszínekre, ahol nem akarják gúzsba kötni a kezüket, és nem gátolják az üzletet.
Azt azonban mindenki elismeri, hogy a jelentés negatív kicsengése valós alapokon nyugszik. A felhasználók jelenleg egyszerűen és olcsón férnek hozzá a mesterségesintelligencia-modellekhez, amelyek biztonságosnak tűnhetnek, ám valójában ezt a biztonságot egyelőre senki nem tudja sem bizonyítani, sem garantálni.
A Gladstone munkatársai egyébként nem MI-ellenesek, sőt: mostani munkájuk előtt éppen egy mesterséges intelligenciát fejlesztő startupot vezettek. A csapat erre hivatkozik, amikor azt mondja: szenvedélyük az iparág, még akkor is, ha ajánlásaikkal látszólag belerúgnak abba. A jelentés készítői szerint
a biztonsági kockázat olyan hatalmas, hogy az felülírja az elkötelezettséget, ráadásul, ha bekövetkezik az, amitől a jelentés szerint a legjobban tartanak, vagyis valamelyik vállalat olyan rendszert alkot, amely kicsúszik az irányítás alól, és adott esetben emberre is támad, akkor már nem is lesz iparág, amiről elemzéseket lehetne írni.
Mint mondták: „Ha bekövetkezik egy katasztrófa, az teljesen leállítja majd a mesterségesintelligencia-fejlesztést. És onnantól egyáltalán nem tudjuk majd kihasználni ennek a technológiának a hihetetlen előnyeit”.
A javaslatok azonban mindaddig javaslatok maradnak, ameddig a kormány nem kezd el érdemben foglalkozni velük, de ez elég valószínűtlen forgatókönyv lenne. Ilyen szigorú szabályozás bevezetéséhez nem lesz meg az egységes politikai akarat, a mesterséges intelligencia területén ugyanis egyáltalán nincs konszenzus abban, hogy mi számít határnak.
Ahhoz, hogy ez a megközelítés megváltozzon, be kell előbb következnie egy katasztrófának, a törvényhozás csak akkor láthatná át, hogy mivel áll szemben valójában.
***
Kapcsolódó:
Fotó: Shutterstock
További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.