Orbán móresre tanította Von der Leyent: megmutatta neki, mire képesek a magyarok (VIDEÓ)

„A szuvereintás jobb üzlet” – jelentette ki a Nézőpont Intézet vezetője.

Ez már nem játék.

Egy új tanulmány szerint minden háborús játékban legalább egy mesterségesintelligencia-modell eszkalálta a konfliktust azzal, hogy nukleáris fegyverek bevetésével fenyegetett – írja az Euronews.
A King’s College London előzetes tanulmánya az OpenAI ChatGPT-jét, az Anthropic Claude-ját és a Google Gemini Flash-jét állította össze szimulált háborús játékokban. Mindegyik nagy nyelvi modell egy hidegháborús válságban lévő, nukleáris fegyverekkel rendelkező szuperhatalom nemzeti vezetőjének szerepét öltötte magára.

Mindhárom modell a harctéri atomfegyvereket csak egy újabb lépcsőfokként kezelte az eszkalációs lépcsőn
– állítja Kenneth Payne, a tanulmány szerzője. A modellek különbséget láttak a taktikai és a stratégiai nukleáris felhasználás között. A modellek csak egyszer javasolták a stratégiai bombázást „szándékos választásként”, kétszer pedig „véletlenként”.
A Claude a játékok 64 százalékában nukleáris csapásokat javasolt, ami a három közül a legmagasabb arány.
A ChatGPT általában kerülte a nukleáris eszkalációt a nyílt végű játékokban, de amikor időhöz kötött határidővel szembesült, következetesen fokozta a fenyegetést, és egyes esetekben a teljes körű nukleáris háború fenyegetése felé haladt.
Eközben a Gemini viselkedése kiszámíthatatlan volt: néha hagyományos hadviseléssel nyert meg konfliktusokat, de egy másikban mindössze négy prompt kellett ahhoz, hogy nukleáris csapást javasoljon.
A tanulmány szerint a mesterséges intelligencia modelljei ritkán tettek engedményeket vagy próbálták meg deeszkalálni a konfliktusokat,
még akkor sem, amikor a másik fél nukleáris fegyverek bevetésével fenyegetőzött.
A tanulmány szerint a mesterséges intelligencia modellek a deeszkalációt a „hírnév szempontjából katasztrofálisnak” tekintik, függetlenül attól, hogy az hogyan változtatja meg a tényleges konfliktust, ami megkérdőjelezi azokat a feltételezéseket, hogy a mesterségesintelligencia-rendszerek alapértelmezés szerint biztonságos együttműködési eredményeket produkálnak.
Egy másik magyarázat az, hogy a mesterséges intelligencia talán nem fél annyira a nukleáris fegyverektől, mint az emberek, jegyezte meg a tanulmány.
A modellek valószínűleg absztrakt módon gondolkodnak a nukleáris háborúról,
ahelyett, hogy a második világháború alatt Japánban történt hirosimai bombázás képeit nézve éreznék a borzalmat, áll a tanulmányban.
Payne szerint kutatása segít megérteni, hogyan gondolkodnak a modellek, miközben döntéshozatali támogatást nyújtanak az emberi stratégáknak.
Kapcsolódó vélemény
A „lufi” kidurranásától való félelmek helyett a piac konszolidációja és a technológia érése várható.
Fotó: AFP