Három dolog, amiért az ön cége is retteghet a mesterséges intelligenciától

2023. október 15. 16:18

A ChatGPT és más mesterségesintelligencia-eszközök új lehetőségeket kínálnak, azonban az ezzel járó kockázatok is megnőttek.

2023. október 15. 16:18
Data,Science,And,Big,Data,Technology.,Scientist,Computing,,Analysing,And
Fekete Kíra

A Makronóm Intézet elemzőjének írása.

Mint arról korábban beszámoltunk, a mesterséges intelligencia (MI), valamint a nyelvi modellek fejlettsége és népszerűsége folyamatosan nő, egyre több vállalat és különböző iparágak is alkalmazzák valamilyen formában. Azonban

nem csupán jóra lehet használni a fejlett technológiát, így a biztonság mellett a kártékony szoftverek is fejlődnek, amivel lépést kell tartania a kibervédelemnek.

 Rob Greer, a Symantec Enterprise Division (SED) kibervédelmi megoldásokkal foglalkozó vállalat  vezérigazgatója szerint a generatív mesterséges intelligencia három fő kockázatot erősít a vállalatoknál: 

1) Bizalmas adatok kiszivárgása: A vállalati felhasználók érzékeny vagy bizalmas vállalati információkat adhatnak meg a generatív mesterségesintelligencia-rendszereknek, például a ChatGPT-nek, és ezzel szándékosan vagy akaratlanul titkos információkat fedhetnek fel, és kockára tehetik a cégük hírnevét. 

2) Szerzői jogi kérdések: Az alkalmazottak a generatív MI-t például forráskódok, képek és dokumentumok létrehozására használják. Nem lehet azonban tudni a ChatGPT által biztosított tartalom eredetét, mivel az nem biztos, hogy szerzőijog-mentes, ez pedig kockázatot jelenthet a szervezetre nézve. 

3) Támadások: A támadók a generatív mesterséges intelligencia eszközeivel kártékony kódokat generálhatnak. Egyelőre a többek által ismert ChatGPT fizetős verziója sem képes elsőre jó kódot írni, ezért az ahhoz kevésbé értőknek sem olyan könnyű a dolga, ám mégis egyszerűbb ma már kártékony kódot készíteni, mint korábban.  

Azonban nem csupán a ChatGPT  létezik, a leleményesebb rosszakarók más, modernebb eszközökkel is próbálkozhatnak.  

A HYAS kutatói például megalkották a BlackMamba mesterségesintelligencia-alapú rosszindulatú szoftvert, amely képes a saját jóindulatú forráskódját rosszindulatúra átírni, és ehhez mindösszesen egy nyelvi modellre van szüksége. 

Ezzel rávilágítottak arra, hogy mennyire veszélyes az MI, ha rossz kezekbe kerül. Ezért a vállalatok kibervédelmének minél gyorsabban fel kell zárkóznia az újabb technológiákhoz ahhoz, hogy meg tudják magukat védeni a legmodernebb fenyegetések ellen. 

Fontos a folyamatos ellenőrzés 

A cégeknek tehát mind a külső személyek általi beavatkozását, mind a saját embereik gondatlanságából vagy tájékozatlanságából fakadó hibákat el kell kerülniük. Na de hogyan? 

Rob Greer szerint minden szervezetnek meg kell határoznia a generatív MI használatára vonatkozó saját irányelveit és megfelelő biztonsági ellenőrzéseket kell végezniük. Mivel még mindig korai szakaszában vagyunk a generatív mesterséges intelligencia korának, a szervezeteknek rendszeresen felül kell vizsgálniuk és szükség szerint fejleszteniük szükséges a szabályzataikat. 

Néhány szervezet úgy döntött, hogy egyelőre megtiltja ezen eszközök használatát, és olyan biztonsági rendszert léptettek életbe, amely átfogóan ellenőrzi és szűri a bejövő és a kimenő webes forgalmat, megakadályozza a rosszindulatú tartalmak, valamint a nem kívánt alkalmazások elérését. Mások engedélyezik a generatív MI használatát, azonban olyan szolgáltatásokat vesznek igénybe, amelyek meggátolják a bizalmas adatok kiszivárgását.   

A szervezeteknek a szabályokon felül érdemes a munkavállalóit is edukálni arról, hogy milyen adatokat ne osszanak meg a generatív mesterséges intelligenciával, akár a biztonság, akár a szerzői jogok megsértésének elkerülése érdekében.  

Fegyverkezési verseny zajlik a kibertérben 

A generatív MI-eszközök mind a támadók, mind a védők számára szabadon hozzáférhetők, így érthetők a kibertéri fegyverkezési versennyel kapcsolatos aggodalmak. 

Idővel a generatív mesterségesintelligencia-eszközök még fejlettebbek lesznek, tehát egyre több adatból fognak gazdálkodni és mind nagyobb lesz a számítási teljesítményük. A jövőben pedig eljöhet az az idő, amikor az ilyen eszközök képesek lesznek teljesen új támadásokat generálni és végrehajtani kifejezetten célzott szervezetek ellen. Ugyanakkor a biztonsági cégek az ilyen eszközöket felhasználva fel tudják majd turbózni a védelmüket.   

„Úgy véljük, hogy az lesz előnyben, aki a legnagyobb számítási kapacitással rendelkezik” 

 – írta Rob Greer, majd hozzátette, hogy a ChatGPT korai sikerében is kulcsfontosságú volt a fejlesztéséhez használt hatalmas számítási teljesítmény. Szerinte a biztonsági cégek érzik az újabb fenyegetések komolyságát, és megfelelő mértékben fektetnek majd be a számítási teljesítménybe és a kutatásba, hogy az élen maradjanak ebben a „fegyverkezési” versenyben. 

A SED vezérigazgatója szerint azonban – ahogyan azt más technológiák esetében – lehetetlen megjósolni, hogy a generatív mesterséges intelligencia használata hogyan fejlődik. A közösségi média is olyan eszközként indult, amely segítette az embereket abban, hogy az elektronikai eszközeiken keresztül kapcsolatban maradjanak a barátaikkal, a családtagjaikkal, és senki sem gondolta, hogy ebbe az irányba megy majd el.  

Hasonlóképpen, a generatív mesterséges intelligencia is átalakítja a magán- és a munkahelyi életünket. Csakúgy, mint az ezt megelőző technológiák, az internet, az okostelefonok és a közösségi média, a generatív mesterséges intelligencia is újfajta kiberbiztonsági, illetve adatvédelmi kérdéseket vet majd fel.  

 Címlapfotó: shutterstock.com

 

 

 

További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.   
 

 

 

Összesen 5 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
ProletarFC
2023. december 10. 01:22
Az én cégem nem fog rettegni, mert nincsen. Az egyházunk pedig az ördögtől sem fél.
istvanpeter
2023. október 16. 14:04
De mindennek semmi köze sincsen az intelligenciához, csupán irdatlan nagy számítógépekről van szó, amit főleg a digitális világrabszolga birodalom kiépítésére és működtetésére fognak alkalmazni.
nempolitizalok-0
2023. október 15. 19:59
Ha az emberek szavazás előtt a MI-től kérnek tanácsot, a bolsik és libsik azonnal KIHALNAK.
connorj
2023. október 13. 11:38
"A HYAS kutatói például megalkották a BlackMamba mesterségesintelligencia-alapú rosszindulatú szoftvert, amely képes a saját jóindulatú forráskódját rosszindulatúra átírni, és ehhez mindösszesen egy nyelvi modellre van szüksége. " 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊 😊😊😊😊😊😊😊😊😊😊😊😊😊😊
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!