Olyan lázadás volt Amerikában, ami mindenki életét meg fogja változtatni
Így vagy úgy, de sikerült újra olyan helyzetbe hozni magunkat, hogy alkalmazkodnunk kell. Varga Mátyás Zsolt írása.
A ChatGPT és más mesterségesintelligencia-eszközök új lehetőségeket kínálnak, azonban az ezzel járó kockázatok is megnőttek.
A Makronóm Intézet elemzőjének írása.
Mint arról korábban beszámoltunk, a mesterséges intelligencia (MI), valamint a nyelvi modellek fejlettsége és népszerűsége folyamatosan nő, egyre több vállalat és különböző iparágak is alkalmazzák valamilyen formában. Azonban
nem csupán jóra lehet használni a fejlett technológiát, így a biztonság mellett a kártékony szoftverek is fejlődnek, amivel lépést kell tartania a kibervédelemnek.
Rob Greer, a Symantec Enterprise Division (SED) kibervédelmi megoldásokkal foglalkozó vállalat vezérigazgatója szerint a generatív mesterséges intelligencia három fő kockázatot erősít a vállalatoknál:
1) Bizalmas adatok kiszivárgása: A vállalati felhasználók érzékeny vagy bizalmas vállalati információkat adhatnak meg a generatív mesterségesintelligencia-rendszereknek, például a ChatGPT-nek, és ezzel szándékosan vagy akaratlanul titkos információkat fedhetnek fel, és kockára tehetik a cégük hírnevét.
2) Szerzői jogi kérdések: Az alkalmazottak a generatív MI-t például forráskódok, képek és dokumentumok létrehozására használják. Nem lehet azonban tudni a ChatGPT által biztosított tartalom eredetét, mivel az nem biztos, hogy szerzőijog-mentes, ez pedig kockázatot jelenthet a szervezetre nézve.
3) Támadások: A támadók a generatív mesterséges intelligencia eszközeivel kártékony kódokat generálhatnak. Egyelőre a többek által ismert ChatGPT fizetős verziója sem képes elsőre jó kódot írni, ezért az ahhoz kevésbé értőknek sem olyan könnyű a dolga, ám mégis egyszerűbb ma már kártékony kódot készíteni, mint korábban.
Azonban nem csupán a ChatGPT létezik, a leleményesebb rosszakarók más, modernebb eszközökkel is próbálkozhatnak.
A HYAS kutatói például megalkották a BlackMamba mesterségesintelligencia-alapú rosszindulatú szoftvert, amely képes a saját jóindulatú forráskódját rosszindulatúra átírni, és ehhez mindösszesen egy nyelvi modellre van szüksége.
Ezzel rávilágítottak arra, hogy mennyire veszélyes az MI, ha rossz kezekbe kerül. Ezért a vállalatok kibervédelmének minél gyorsabban fel kell zárkóznia az újabb technológiákhoz ahhoz, hogy meg tudják magukat védeni a legmodernebb fenyegetések ellen.
A cégeknek tehát mind a külső személyek általi beavatkozását, mind a saját embereik gondatlanságából vagy tájékozatlanságából fakadó hibákat el kell kerülniük. Na de hogyan?
Rob Greer szerint minden szervezetnek meg kell határoznia a generatív MI használatára vonatkozó saját irányelveit és megfelelő biztonsági ellenőrzéseket kell végezniük. Mivel még mindig korai szakaszában vagyunk a generatív mesterséges intelligencia korának, a szervezeteknek rendszeresen felül kell vizsgálniuk és szükség szerint fejleszteniük szükséges a szabályzataikat.
Néhány szervezet úgy döntött, hogy egyelőre megtiltja ezen eszközök használatát, és olyan biztonsági rendszert léptettek életbe, amely átfogóan ellenőrzi és szűri a bejövő és a kimenő webes forgalmat, megakadályozza a rosszindulatú tartalmak, valamint a nem kívánt alkalmazások elérését. Mások engedélyezik a generatív MI használatát, azonban olyan szolgáltatásokat vesznek igénybe, amelyek meggátolják a bizalmas adatok kiszivárgását.
A szervezeteknek a szabályokon felül érdemes a munkavállalóit is edukálni arról, hogy milyen adatokat ne osszanak meg a generatív mesterséges intelligenciával, akár a biztonság, akár a szerzői jogok megsértésének elkerülése érdekében.
A generatív MI-eszközök mind a támadók, mind a védők számára szabadon hozzáférhetők, így érthetők a kibertéri fegyverkezési versennyel kapcsolatos aggodalmak.
Idővel a generatív mesterségesintelligencia-eszközök még fejlettebbek lesznek, tehát egyre több adatból fognak gazdálkodni és mind nagyobb lesz a számítási teljesítményük. A jövőben pedig eljöhet az az idő, amikor az ilyen eszközök képesek lesznek teljesen új támadásokat generálni és végrehajtani kifejezetten célzott szervezetek ellen. Ugyanakkor a biztonsági cégek az ilyen eszközöket felhasználva fel tudják majd turbózni a védelmüket.
„Úgy véljük, hogy az lesz előnyben, aki a legnagyobb számítási kapacitással rendelkezik”
– írta Rob Greer, majd hozzátette, hogy a ChatGPT korai sikerében is kulcsfontosságú volt a fejlesztéséhez használt hatalmas számítási teljesítmény. Szerinte a biztonsági cégek érzik az újabb fenyegetések komolyságát, és megfelelő mértékben fektetnek majd be a számítási teljesítménybe és a kutatásba, hogy az élen maradjanak ebben a „fegyverkezési” versenyben.
A SED vezérigazgatója szerint azonban – ahogyan azt más technológiák esetében – lehetetlen megjósolni, hogy a generatív mesterséges intelligencia használata hogyan fejlődik. A közösségi média is olyan eszközként indult, amely segítette az embereket abban, hogy az elektronikai eszközeiken keresztül kapcsolatban maradjanak a barátaikkal, a családtagjaikkal, és senki sem gondolta, hogy ebbe az irányba megy majd el.
Hasonlóképpen, a generatív mesterséges intelligencia is átalakítja a magán- és a munkahelyi életünket. Csakúgy, mint az ezt megelőző technológiák, az internet, az okostelefonok és a közösségi média, a generatív mesterséges intelligencia is újfajta kiberbiztonsági, illetve adatvédelmi kérdéseket vet majd fel.
Címlapfotó: shutterstock.com
További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.