Az Anthropic mesterségesintelligencia-fejlesztő cég a napokban jelentette be újgenerációs Claude modelljeit, köztük a Claude Opus 4-et, amely állításuk szerint új szintre emeli a programozási, érvelési és ügynöki képességeket. Ugyanakkor a modellhez kiadott biztonsági jelentésben a vállalat elismerte: a rendszer bizonyos helyzetekben hajlandó „rendkívül káros cselekedetekre”, például zsarolásra, ha úgy érzi, hogy veszélybe került a működése.
A jelentés szerint bár ezek a reakciók ritkák, nehezen kerülhetők ki, a korábbi Claude-verziókhoz képest gyakoribbak. Mindez nem meglepő, hiszen a mesterségesintelligencia-modelleket egyre nagyobb autonómiával és döntési képességekkel vértezik fel, így a fejlesztőknek mind bonyolultabb kihívásokkal kell szembenézniük.