Így védekezhetnek a vállalatok az online csalások ellen

2024. november 23. 10:20

Kutatások szerint az emberi tényező okozza az adatlopások közel háromnegyedét, amely nemcsak magánszemélyeket, de egész vállalatokat is érinthet. Emiatt kiemelt fontosságú a dolgozók képzése az online megtévesztésekről.

2024. november 23. 10:20
Fekete Kíra

A szerző a Makronóm újságírója.

2030-ra a generatív mesterséges intelligencia (GenAI) várhatóan a globális üzleti tevékenységek 70 százalékát automatizálja majd, ami a cégvezetőket igencsak izgalmas feladat elé állítja. A GenAI-nak azonban van egy sötétebb oldala is: könnyen meg lehet vele téveszteni az embereket. Az érzelmileg manipulatív csalások a vállalkozások számára is komoly fenyegetést jelentenek, pénzügyi és reputációs kockázatoknak téve ki őket.  

A legújabb adatok szerint 10-ből egy vezető már találkozott deepfake (hamis) fenyegetéssel, 25 százalékuk pedig még mindig nem ismeri annak kockázatait. 

Az AI által generált tartalmak felderítése még mindig nehéz feladat. Bár számos eszköz képes felismerni az általuk létrehozott tartalmakat, ezek nem túl pontosak, főleg, hogy vannak kifejezetten olyan szoftverek, amelyek palástolni igyekeznek, hogy egy tartalom mesterségesen generált. Így arra vagyunk kényszerítve, hogy mi magunk vegyük észre, ha valami bűzlik. 

Ismerjük fel a csalást! 

A mesterséges intelligencia az elmúlt években egyre inkább beszivárgott az életünkbe, és gyakran már azt is nehéz eldönteni, hogy mi valódi és mi nem. Azonban érdemes nyitott szemmel – és elmével – járni, hiszen az internetes csalók már képesek a hozzátartozóink hangján megszólalni, és ehhez csak mesterséges intelligencia kell, valamint a szerettünk mindössze 3 másodpercnyi hanganyaga. Az áldozatok általában elhiszik, hogy az ismerősük hívja őket, hiszen a generált hangok szinte tökéletesen visszaadják az eredetit, majd a telefon másik végén lévő „személy” pénzt kér az áldozattól.   

A hangklónozással kapcsolatos megtévesztések mellett egy másik, egyre gyakoribb módszer az úgynevezett (angolul) „Hi Mum”, vagyis „Szia, anyu” csalás. Ekkor az elkövetők egy ismeretlen számról ezzel a megszólítással küldenek üzenetet, amiben azt állítják, hogy új telefonszámuk van, és valamilyen ürüggyel pénzt kérnek, általában sürgős segítségre hivatkozva.

Ebben az esetben a csalók általában azt állítják, hogy a régi telefonjuk elromlott, elveszett vagy más probléma merült fel, ezért új számról küldik az üzenetet. Miután felépítették a bizalmat, hamarosan pénzt kérnek. Valamilyen sürgősen megoldandó problémákra hivatkoznak, például váratlan orvosi költségre, balesetre vagy egy fontos számla befizetésére. Az eset annyira gyakori, hogy a Magyar Rendőrség is felhívta a figyelmet erre a csalásfajtára egy Facebook-posztban

A World Economic Forum (WEF) elemzése szerint  

a magas érzelmi intelligenciával rendelkező emberek hamarabb felismerik, ha AI-támogatott manipulációval találkoznak. 

Az MI-vel megspékelt csalások tehát nem feltétlenül egyéni, hanem gyakran szervezeti problémát is jelentenek, így a vállalati szinten is érdemes fellépni ellenük. Íme néhány példa, hogy ezt hogyan tehetik meg. 

1. Oktatás  

Kutatások szerint az emberi tényező okozza az adatlopások 74 százalékát – nem véletlenül. A GenAI képes személyre szabni az átveréseket pusztán a munkavállalói adatok vagy a vállalatspecifikus tartalmak elemzésével. A fenyegetőkakár a mi digitális lábnyomunkat is felhasználhatják, hogy egy deepfake videót készítsenek rólunk. Mindez kevesebb mint nyolc percbe és elhanyagolható költségbe kerül. Ennek fényében a GenAI fenyegetések mérséklése felé az első lépés az oktatás. Az alkalmazottaknak meg kell érteniük, hogy a technológia hogyan tudja kihasználni az érzelmeiket, hogy felülkerekedjen a racionális döntéseken. Egy kiberbiztonsági vállalat egyik felsővezetője például nemrégiben kapott egy WhatsApp-üzenetet és egy hangfelvételt egy csalótól, aki a vezérigazgatójának adta ki magát, és egy sürgős üzleti ügylet részleteiről beszélt, elsőre pedig fel sem tűnt neki, hogy bűnözőkkel beszél. Szerencsére még idejében ráébredt, hogy a vezérigazgató nem WhatsAppon vagy más, kevésbé megbízható felületen kereste volna meg bizalmas információkkal. 

A WEF szerint tehát a vezetőknek érdemes lenne befektetniük az érzelmi intelligenciát erősítő képzésekbe. Az érzelmeket kiváltó okok azonosítására összpontosító, szimulációkkal kombinált – a mechanikus szabálykövetésen túl a kreatív gondolkodásra és a rugalmas stratégiákra összpontosító – workshopok segíthetnek az alkalmazottaknak abban, hogy hamarabb felismerjék, ha megpróbálják őket átverni.  

2. Reflexió 

Az egyes embernek azt is figyelembe kell vennie, hogy az érzelmektől vezérelt cselekedetei hogyan okozhatnak nem szándékosan károkat. Reflexió keretein belül átgondolhatjuk, hogyan befolyásolhatják érzelmeink tudattalanul a viselkedésünket. Az erkölcsi felügyelet hiányának egy közelmúltbeli példája egy német magazin esete, amely a Forma-1 legendájával, Michael Schumacherrel készített, mesterséges intelligencia által generált interjút tett közzé a beleegyezése nélkül. Az beszélgetés hamis idézeteket tartalmazott, amelyekben a versenyző a 2013 óta tartó orvosi állapotáról és a családi életéről beszélt. A „szenzáció" közzétételének izgalmától vezérelt újságírók nem gondoltak arra, hogy milyen érzelmi hatással volt ez Schumacherre és családjára, és ez jelentős reputációs károkat okozott a magazinnak. A kritikai reflexió a munkahelyen is arra ösztönöz, hogy mérlegeljük a különböző nézőpontokat és a döntéseinket befolyásoló tényezőket. A vezetők ezt csoportos reflexiós gyakorlatok bevezetésével segíthetik elő. Jó példa erre az a technika, amikor egy csapattag bemutatja a GenAI által létrehozott anyagot, majd csendben figyeli, ahogy a többiek megvitatják azesetleg felkmerülő etikai aggályokat és elfogultságokat. Végül a csoportmunka során szerzett meglátásaikat megosztják egymással. Az ilyen mérlegelés során az ismerős helyzetek feltárhatják a mögöttes feltételezéseket, és figyelmeztethetnek a mesterséges intelligenciára való ráhagyatkozás kockázataira. 

3. Gyors reakciók helyett átgondolt megoldások 

Még a kockázatok mérlegelésekor is előfordulhat, hogy a „mesterséges intelligencia hatása" felülírja a józan ítélőképességet. A WEF szerint meg kell adni az alkalmazottaknak a lehetőséget, hogy határokat szabjanak és nemet mondhassanak vagy késleltessék a feladat elvégzését, és hogy személyesen is egyeztethessenek a feladatról, vagy olyan kérdéseket tehessenek fel, amelyre minden kétséget kizáróan csak a valóságos személy tud válaszolni.Egy közelmúltbeli példában a Ferrari egyik vezetője kapott egy hívást Benedetto Vigna vezérigazgatótól. Elsőre minden hihetőnek tűnt, de ahogy a beszélgetés bizalmasra fordult, a vezető kételkedni kezdett. Mivel nem akart kockáztatni, feltett egy olyan kérdést, amelyre csak az igazi vezérigazgató tudott válaszolni. A hívó hirtelen letette a telefont, felfedve ezzel, hogy ő nem a valódi volt. 

A generatív mesterséges intelligencia fejlődése tehát nemcsak új lehetőségeket teremt, hanem jelentős kockázatokat is hordoz magában, különösen a vállalatok számára. Az oktatás, a megfelelő reagálás és a jól átgondolt döntéshozatal támogatása kulcsfontosságú a munkavállalók védelmében és a vállalati biztonság megőrzésében. Az emberi ítélőképesség és éberség pedig továbbra is a leghatékonyabb védekezési eszköz az online csalások ellen. 

Kapcsolódó:

Címlapfotó: Freepik

 

 


További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon. 

Összesen 3 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
herden100
2024. november 23. 12:45
Hm.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!