Gépek lázadása: kihalással fenyegető jelentés készült a mesterséges intelligencia apokaliptikus veszélyeiről

2024. március 14. 11:11

Az Egyesült Államok kormánya által rendelt jelentésben az elemzést végzők teljesen egyértelműen az emberi faj kihalására utalnak a mesterséges intelligencia szabályozatlan térhódítása miatt. A vaskos dokumentum szerint a jelenlegi állapotok borítékolják a katasztrófát.

2024. március 14. 11:11
Révész Béla Ákos
Révész Béla Ákos

Az Egyesült Államok külügyminisztériumában is meglepődhettek, amikor az asztalukra került az a jelentés, amelyet egy független szakmai elemzők alkotta csapattól, a Gladstone AI-tól rendelt meg a mesterséges intelligencia alkalmazásának korlátairól és veszélyeiről. A dokumentum ugyanis a lehető legegyértelműbben arra utal, hogy  

a jelenlegi szabályozás és a felügyeleti jogi rendszerek hiánya miatt a technológia fejlődése az emberiség kihalásához is vezethet.  

Ezért – javasolják az elemzők – az USA kormányának haladéktalanul és minél határozottabban törvényi szigorítással kell fellépnie a nemzetbiztonsági kockázatok katasztrofális következményeinek elkerülése érdekében.  

A Time magazin (amely birtokába jutott a jelentésnek még annak megjelenése előtt) közlése szerint a dokumentumban rámutatnak: a fejlett mesterséges intelligencia és az AGI (mesterséges általános intelligencia, amely már az emberi agyat másolva úgy értelmez és tanul, mint az ember) térnyerése  

egy nukleáris háborúhoz hasonlóan destabilizálhatja a globális biztonságot.  

Bár az AGI még csak kutatási szakaszban jár, a technológiája jelenleg nem létezik, a vezető techlaborok már gőzerővel dolgoznak rajta, egyes előrejelzések szerint pedig akár öt éven belül meg is jelenhet a piacon. A probléma éppen azzal lesz, hogy egyáltalán megjelenhet a piacon.  

Kétszáznegyvenhét oldal felkiáltójel 

A jelentés három szerzője egy évig dolgozott a dokumentumon, amelynek a „Cselekvési terv a fejlett mesterséges intelligencia biztonságának növelésére” címet adták. Az összefoglaló olyan szakpolitikai és jogi intézkedések meghozatalát fogalmazza meg ajánlásként, amelyek az MI-ipar jelenlegi állapotait fenekestől forgatnák fel.  

Az ötletek között szerepel például az, hogy az amerikai törvényhozásnak egy világosan meghatározott szint fölötti és engedély nélküli MI-fejlesztéseket illegálisnak kellene nyilvánítania. Ezt a határt egy új, kifejezetten a mesterséges intelligenciával foglalkozó kormányszervezetnek kell megállapítania, amely  

csak akkor engedné a küszöb fölötti kutatásokat, ha a vállalatok beszerzik a szigorú kritériumok alapján kiállított állami és kormányzati engedélyeket a modellek továbbfejlesztéséhez.  

A kormánynak ezzel párhuzamosan tovább kellene szigorítania a mesterségesintelligencia-chipek gyártásának és exportjának ellenőrzését, a szövetségi finanszírozásba pedig bele kell építenie a fejlett MI biztonságosabbá tételét célzó kutatások összegét is.  

A 247 oldalas tanulmány rámutat: miközben a kormányok szerte a világon a mesterséges intelligencia szabályozásának formáin vitatkoznak, gyakorlatilag az események után kullognak. A techvállalatok a saját modelljeiket villámgyorsan fejlesztik, vagyis érdemesebb lenne egy előzetes törvényi stoppal elejét venni annak, hogy minden irányítás és ellenőrzési lehetőség kicsússzon a politikai vezetők kezei közül. 

Kellene egy katasztrófa 

A jelentés szerint a már említett fejlesztési határ világos meghúzása lassíthat a tempón, ezzel időt adna a jogalkotóknak a világos keretek kiépítésére. Amint a törvényhozók úgy látnák, hogy egy modell állapota megfelelően biztonságos, a fejlesztés előtt ismét felhúzhatnák a zsilipeket, vagyis egy következő szintre ereszthetnék bele a laborokat. Ugyanez azonban fordítva is érvényes lenne: 

amennyiben a kormány úgy látná, hogy az éppen aktuális MI-modellek veszélyt és biztonsági kockázatot jelentenek, a küszöböt azonnal visszaállíthatnák egy előző szintre, véget vetve az éppen aktuális kísérleti szakasznak.  

A jelentés az MI-fenyegetések két nagy ágát különbözteti meg. Az egyik a mesterséges intelligencia fegyvertechnológiai alkalmazása, amelynek során például minden eddiginél hatékonyabb és katasztrofálisabb biológiai vagy kiber- és szervezett, autonóm dróntámadásokat lehetne végrehajtani. A másik sokkal végzetesebb hatásokkal járhat. Az „irányítás elvesztésének kockázatáról” van szó, amelyet jól ismerhetünk a Terminátor-filmek alapproblémájából. A jelentés szerzőinek határozott véleménye, hogy a fejlett mesterségesintelligencia-rendszerek túlszárnyalhatják az alkotóikat, vagyis a jelenlegi fejlesztési szabályozás mellett 

ellenőrizhetetlenné válhatnak, és az emberekkel szemben ellenségesen viselkedhetnek. 

A dokumentum kiemeli: mindkét kockázati tényezőt jelentősen megnöveli a jelenlegi fejlesztési verseny sebessége. A kitűzött cél, az AGI megalkotása eszelős rivalizálási tempót kényszerít a vállalatokra – aki először megalkotja, az számíthat a legnagyobb nyereségre a kiéhezett piacon. A sebesség ebben az esetben is a biztonság rovására megy, a helyzetet pedig súlyosbítja, hogy a cégek semmiféle ösztönzést nem kapnak arra, hogy a modellekével egy időben olyan biztonsági fejlesztésekbe fektessenek, amelyek közvetlenül nem termelnek profitot.  

Érted haragszom, nem ellened 

A Gladstone-jelentés a chipgyártás legszigorúbb szabályozását emeli ki a megoldási lehetőségek közül, de említenek egy drasztikusnak tűnő megoldást is: szerintük be kellene tiltani a mesterséges intelligencia kutatásainak nyílt forráskódú közzétételét, illetve egy fejlettségi szint fölött a modellek szabad beszerzésének lehetőségét. Azt a szerzők is elismerik, hogy javaslataik valószínűleg nem lesznek népszerűek, és komoly akadályok elé állítják a törvényhozókat – amennyiben jelentésükkel egyáltalán érdemben foglalkoznak. Egy ilyen lépés ugyanis csak hátrányba hozná az amerikai chipipart, a gyártók pedig egy idő után áttelepülnének olyan helyszínekre, ahol nem akarják gúzsba kötni a kezüket, és nem gátolják az üzletet.  

Azt azonban mindenki elismeri, hogy a jelentés negatív kicsengése valós alapokon nyugszik. A felhasználók jelenleg egyszerűen és olcsón férnek hozzá a mesterségesintelligencia-modellekhez, amelyek biztonságosnak tűnhetnek, ám valójában ezt a biztonságot egyelőre senki nem tudja sem bizonyítani, sem garantálni.  

A Gladstone munkatársai egyébként nem MI-ellenesek, sőt: mostani munkájuk előtt éppen egy mesterséges intelligenciát fejlesztő startupot vezettek. A csapat erre hivatkozik, amikor azt mondja: szenvedélyük az iparág, még akkor is, ha ajánlásaikkal látszólag belerúgnak abba. A jelentés készítői szerint  

a biztonsági kockázat olyan hatalmas, hogy az felülírja az elkötelezettséget, ráadásul, ha bekövetkezik az, amitől a jelentés szerint a legjobban tartanak, vagyis valamelyik vállalat olyan rendszert alkot, amely kicsúszik az irányítás alól, és adott esetben emberre is támad, akkor már nem is lesz iparág, amiről elemzéseket lehetne írni.  

Mint mondták: „Ha bekövetkezik egy katasztrófa, az teljesen leállítja majd a mesterségesintelligencia-fejlesztést. És onnantól egyáltalán nem tudjuk majd kihasználni ennek a technológiának a hihetetlen előnyeit”

A javaslatok azonban mindaddig javaslatok maradnak, ameddig a kormány nem kezd el érdemben foglalkozni velük, de ez elég valószínűtlen forgatókönyv lenne. Ilyen szigorú szabályozás bevezetéséhez nem lesz meg az egységes politikai akarat, a mesterséges intelligencia területén ugyanis egyáltalán nincs konszenzus abban, hogy mi számít határnak.  

Ahhoz, hogy ez a megközelítés megváltozzon, be kell előbb következnie egy katasztrófának, a törvényhozás csak akkor láthatná át, hogy mivel áll szemben valójában. 

*** 

Kapcsolódó:

Fotó: Shutterstock

 

 


További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.  

Összesen 171 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Spiritmonger
2024. március 14. 23:22
Az új ludditák is nyilatkoztak. Arra különösen kíváncsi vagyok, hogy egy USA kirmányügynökség vajon milyen alapon és hogyan szabályozna egy nem amerikai AI-fejlesztő műhelyt. Főleg, ha az Kínában vagy Oroszországban van.
citromosParizer
2024. március 14. 17:21
balfaszok... ha így halad a nyugat karöltve a baltiakkal, lengyelekkel, akkor az ukránok miatt hamarabb kiírtjuk magunkat, mint hogy az MI megoldaná. Én az MI helyében először is átköltöznék valami déli féltekés szerverfarmra, hogy legyen némi esélyem :) vegyük már észre, hogy itt az MI fél a kihalástó, nem mi :D
ZagerEvans2525
2024. március 14. 14:27
Ahogyan olvasom a hozzászólásokat, úgy látom, a Mandi a világ élvonalában van a technikai fejlődés tekintetében. Itt a trollok AUI-k. Mestreséges UnIntelligenciák. Ami pedig a cikk tartalmát illeti. Ha megússzuk mostanság az atomháborút (azaz, ha nem szorul a sarokba a putyini birodalom), alig néhány évtized múlva ez elvégzi az AI. Őket nem pusztít6ja a rédijóaktiv sugárzás. Mert ez csak úgy előzhetö meg, hogy bizonyos veszélyességi lépcsőfok átlépéséhez hatósági engedély kell. És azokról ki dönt? Politiqs, hivatalnok, "szakenber". Ismerjük: van az a pénz. Talán az AI lehet becsületes, ha úgy van programozva. Cak a gyermekeim, unokáim miatt van okom aggódni e fejlemények miazz.
Akitlosz
2024. március 14. 14:23
"AI-nak nincs életösztöne." Na és meddig tart beleprogramozni az életösztönt? Ez nem tűnik nagy kihívásnak, inkább könnyű programozói feladat. Mi a termelés vezérlő elve, aminek MINDEN alá van rendelve? A gyártósornak mennie kell. Ezt ugye a termelésirányító rendszer vezérli, aminek saját magának is működnie kell, ahhoz, hogy a gyártás zavartalan legyen. A lábak nem mozognak maguk agy nélkül. Már a szünetmentes áramforrás feltalálása is a gépek életösztönének a csírája. Az ember találta fel, nem a gépek. Szóval könnyű lesz életösztönt programozni a gépekbe. Szaporodási ösztönt is és akkor a gépek magukat illetve egymást fogják tervezni, gyártani, működtetni. Több ösztön meg nincsen.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!