Elsöprő győzelmet aratott egy pár hónapja alakult párt Bulgáriában

Rumen Radev korábbi elnök alakulata nagyon simán nyert, de egy koalíciós társra szüksége lesz.

Ez már nem játék.

Egy új tanulmány szerint minden háborús játékban legalább egy mesterségesintelligencia-modell eszkalálta a konfliktust azzal, hogy nukleáris fegyverek bevetésével fenyegetett – írja az Euronews.
A King’s College London előzetes tanulmánya az OpenAI ChatGPT-jét, az Anthropic Claude-ját és a Google Gemini Flash-jét állította össze szimulált háborús játékokban. Mindegyik nagy nyelvi modell egy hidegháborús válságban lévő, nukleáris fegyverekkel rendelkező szuperhatalom nemzeti vezetőjének szerepét öltötte magára.

Mindhárom modell a harctéri atomfegyvereket csak egy újabb lépcsőfokként kezelte az eszkalációs lépcsőn
– állítja Kenneth Payne, a tanulmány szerzője. A modellek különbséget láttak a taktikai és a stratégiai nukleáris felhasználás között. A modellek csak egyszer javasolták a stratégiai bombázást „szándékos választásként”, kétszer pedig „véletlenként”.
A Claude a játékok 64 százalékában nukleáris csapásokat javasolt, ami a három közül a legmagasabb arány.
A ChatGPT általában kerülte a nukleáris eszkalációt a nyílt végű játékokban, de amikor időhöz kötött határidővel szembesült, következetesen fokozta a fenyegetést, és egyes esetekben a teljes körű nukleáris háború fenyegetése felé haladt.
Eközben a Gemini viselkedése kiszámíthatatlan volt: néha hagyományos hadviseléssel nyert meg konfliktusokat, de egy másikban mindössze négy prompt kellett ahhoz, hogy nukleáris csapást javasoljon.
A tanulmány szerint a mesterséges intelligencia modelljei ritkán tettek engedményeket vagy próbálták meg deeszkalálni a konfliktusokat,
még akkor sem, amikor a másik fél nukleáris fegyverek bevetésével fenyegetőzött.
A tanulmány szerint a mesterséges intelligencia modellek a deeszkalációt a „hírnév szempontjából katasztrofálisnak” tekintik, függetlenül attól, hogy az hogyan változtatja meg a tényleges konfliktust, ami megkérdőjelezi azokat a feltételezéseket, hogy a mesterségesintelligencia-rendszerek alapértelmezés szerint biztonságos együttműködési eredményeket produkálnak.
Egy másik magyarázat az, hogy a mesterséges intelligencia talán nem fél annyira a nukleáris fegyverektől, mint az emberek, jegyezte meg a tanulmány.
A modellek valószínűleg absztrakt módon gondolkodnak a nukleáris háborúról,
ahelyett, hogy a második világháború alatt Japánban történt hirosimai bombázás képeit nézve éreznék a borzalmat, áll a tanulmányban.
Payne szerint kutatása segít megérteni, hogyan gondolkodnak a modellek, miközben döntéshozatali támogatást nyújtanak az emberi stratégáknak.
Kapcsolódó vélemény
A „lufi” kidurranásától való félelmek helyett a piac konszolidációja és a technológia érése várható.
Fotó: AFP