Tudjuk még szabályozni a mesterséges intelligenciát?

2024. augusztus 21. 19:03

Megjelent az európai uniós szabályozás a mesterséges intelligenciához, szakértőt kérdeztünk róla.

2024. augusztus 21. 19:03
Artificial intelligence, conceptual illustration
Veress Csongor Balázs

Nyitókép: VICTOR HABBICK / AFP

 

A mesterséges intelligencia (MI) korunk talán legnagyobb potenciállal rendelkező technológiája. Válfajai, mint a generatív – szöveget, (mozgó)képet, hangot generáló – MI, így például a ChatGPT által működtetett platform, az utóbbi években komoly hírnévre tettek szert – és ki tudja, mi mindent hoznak még a következő évek, évtizedek. Dr. Székely Jánossal, a kolozsvári Sapientia EMTE adjunktusával beszélgettünk arról, miért fontos a mesterséges intelligencia szabályozása.

A szakértő kifejti, hogy a gépi tanuláson (angol műszóval machine learning)

különösen az idegsejtek működésének egyszerűsített szimulációján alapuló, úgynevezett mélytanulási (deep learning) megoldások sokkal szélesebb skálán teszik lehetővé az MI alkalmazását, mint ami jelenleg közismert.

Különösen az emberek arcának vagy lelkiállapotának felismerése, viselkedésük előrejelzése, a kép- és hangfelismerés, illetve irdatlan mennyiségű adatban, a humán faktor számára korántsem nyilvánvaló összefüggések felismerése terén, vélhetően részben titkos előrelépések történtek ugyanebben az időszakban. 

A tudományos-fantasztikus irodalomban az MI kockázatait már számtalanszor feldolgozták, azonban most, hogy a technológia lassan beérni látszik, egyre nyilvánvalóbb, hogy – még – nem a Terminátor-, vagy a Mátrix-filmekből ismert emberirtó mesterséges szuperintelligenciától kell tartanunk, hanem az MI, és jelenleg elsősorban a generatív MI mint kettős-felhasználású technológia képességeivel való visszaéléstől. 

A hamis hírek terjesztése mellett a technológia jelenlegi állása szerint lehetséges a hamis képek, sőt mozgóképek és hanganyagak akár valós idejű generálása is, amely nem csupán személyiségi jogi vagy gazdasági, hanem akár nemzetbiztonsági kockázatokat is felvet.

Ezt is ajánljuk a témában

A jogász elmondja: mindezek ismeretében az Európai Tanács és az Európai Parlament mint az Unió közös jogalkotói sokéves, különböző szakértői testületekkel történő konzultációt is magába foglaló munkát lezárva kidolgozták a Mesterséges intelligenciáról szóló (európai) rendeletet

A rendelet 2024. augusztus 1-én lépett hatályba, rendelkezései többségét azonban csak 2026. augusztus 2-től kell alkalmazni, bár egyes rendelkezések már 2025. augusztus 2-től alkalmazandók. 

A rendelet részben területen kívüli hatályú, így az EU-ban használt vagy értékesített MI-rendszerek EU-n kívüli fejlesztőire, gyártóira és értékesítőire is alkalmazandó, még akkor is, ha tevékenységüket az EU-n kívül fejtik ki. 

Az a jövő zenéje, hogy ezt a területen kívüli hatályt az EU miként tudja majd érvényesíteni, különösen az MI-technológiák terén vele szemben komoly előnyben lévő Egyesült Államokban működő vállalatokkal szemben, ahol az MI átfogó szabályozása még nem történt meg. 

Az EU-nak MI rendelete ugyanis már van, de széles körben ismert, használható és jövőbeni növekedési potenciált mutató MI-megoldásai még nincsenek. 

Így az MI rendelet szigorú szabályozása könnyen értelmezhető egy lemaradóban lévő, felvevőpiaci státuszba szorult fél puszta piackorlátozásaként is.

Továbbá, emeli ki Székely, az MI rendelet megközelítésmódja a kockázat-alapú szabályozás. Ez röviden annyit tesz, hogy felhasználási módjaik vagy bizonyos célra alkalmazásuk szerint a különböző MI-megoldások képességeit – tehát nem magát a technológiai kivitelezést, csupán a felhasználást – a rendelet kidolgozásakor különböző kockázati osztályokba sorolták. Ezek a minimális, a korlátozott, a nagy és az elfogadhatatlan kockázati kategóriák. 

Az európai jogalkotó koncepciója az MI szabályozása terén az elfogadhatatlan kockázatú rendszerek tilalma, a nagy – és, valamelyest a mérsékelt – kockázatú rendszerek részletes szabályozása, máskülönben pedig a regisztrációs, elővigyázatossági, biztonsági és önszabályozási kötelezettségek betartatása formájában foglalható össze. 

A rendelet az úgynevezett elővigyázatossági elven alapul, vagyis a megengedett MI-technológiák esetében is, általában a fejlesztők, gyártók, értékesítők és felhasználók 

kötelesek a technológia működésének átlátható, és előreláthatóan megbízható, illetve biztonságos jellegét előzetesen igazolni. 

Ez a jellemzően európai megközelítés az amúgy is lemaradásban lévő európai fejlesztőkre külföldi versenytársaikhoz képest komoly terhet ró.

Ezt is ajánljuk a témában

Az elfogadhatatlan kockázatú, természetes személyek ellen használható, például arcfelismerés alapján tömeges, valós idejű személyazonosításra, tudatalatti viselkedésmódosításra, célzott manipulációra, tömeges magatartásmódosításra, nagy számú személyről ilyen célból profilok megalkotására, viselkedésük tömeges értékelésére, előrejelzésére vagy e szerinti osztályozásukra alkalmas megoldások tiltottak. 

Láthatjuk, hogy az európai jogalkotó egy kimerítő listáját szerette volna adni azon felhasználásoknak, amelyekre az MI nem vethető be.

Szintén szembetűnő, hogy általában nem a felhasználásra alkalmas rendszerek kidolgozása, hanem a felhasználás módja a tilalom tárgya, így a rendelet maga a veszélyes MI-technológiák fejlesztését nem teljesen zárja ki. 

És itt szükséges még valamit megemlíteni: a nemzetbiztonsági, a védelmi, és a katonai, vagyis háborús célú felhasználás, illetve részben még a bűnüldözési felhasználás sem tiltott a felsorolt célokra (előbbi három kategóriára a rendelet hatálya még csak ki sem terjed).

Ezt is ajánljuk a témában

Itt az új popsztárod: a mesterséges értelem

Akármerre nézünk, a most nyiladozó mesterséges értelem szédítő távlatokat nyit meg számos területen – és most már a zenében is. Előttünk a végtelenül generálható zeneszámok kora?

A szakértő emlékeztet, hogy a nagy kockázatú MI-technológiák azok, amelyek más technológia biztonságát (például egy vegyipari létesítmény vagy atomerőmű üzembiztonságát) szavatolják, illetve számos más olyan technológiai alkalmazás, amelyet az európai jogalkotó, valamilyen megfontolásból ennek nyilvánít. 

Egyes nagy kockázatú MI-rendszerek az elfogadhatatlan kockázatúakkal részben azonos megoldásokat valósítanak meg, csupán nem tömegesen. Ilyenek például az egyes egyénekre használt távoli biometrikus azonosító rendszerek, ha azokat nem csak a személy azonosítására, hanem követésére, vagy osztályozására, illetve érzelmei felismerésére is alkalmazzák. 

Nagy kockázatúak továbbá az oktatás, a foglalkoztatás, a bűnüldözés, a migráció vagy az igazságszolgáltatás terén, illetve a közszolgáltatások nyújtásakor alkalmazható MI-rendszerek, például ha azokat valamilyen alkalmasság, vagy jogosultság (pl. rászorultság, kérelem megalapozottsága) értékelésére használják. A rendeletben tételesen fel nem sorolt felhasználású MI-rendszerek kockázati szintje általában minimális vagy korlátozott, de az elővigyázatossági elv esetükben is érvényesül.

Külön említésre méltó, hogy az MI rendelet, burkoltan (az általános felhasználású MI szabályozásakor) 

kitér a – vélhetően távoli – jövőben lehetséges, a sci-fikből ismert képességekkel rendelkező általános mesterséges intelligenciára is, 

amelyet lényegében a nagy kockázatú kategóriával rokonít.

Az Unió MI rendelete előzetes szabálykövetést ír elő az MI rendszerek fejlesztői, gyártói, értékesítői és felhasználói számára (bár a fejlesztés terén a korlátozások jobbára az átlátható, biztonságos és megbízható MI megoldások kialakítására irányulnak, felhasználásuktól függetlenül). Ez versenyhátrányt okozhat, különösen, mivel a szabályok betartatása lényegében a tagállamokban létrehozandó, vagy már létező – általában fogyasztóvédelmi hatáskörű – hatóságokra hárulna, ezzel is fokozva a máskülönben értelmetlenül terjedelmes MI-rendelet esetében potenciálisan felmerülő nem egységes jogalkalmazás kockázatát.

Az EU-ban már volt példa MI rendszerek károkozó működésére: Hollandiában 2013 óta a gyermeknevelési szociális támogatások folyósításakor a jogosultak rászorultságát egy gépi tanuláson alapuló algoritmus ellenőrizte, amelynek potenciális visszaélésre vonatkozó téves kockázati mutatói (például a kettős állampolgárok kockázatossá minősítése) 

a támogatások tömeges megtagadásához, indokolatlannak bizonyult visszarendeléséhez, szélsőséges esetben pedig gyermekek állami gondozásba helyezéséhez, állítólag még öngyilkosságokhoz is vezetett.

Ebből a szempontból az MI-rendelet eleve megkésett, mégis a jövőre nézve hasznos norma. 

Mindazonáltal, sok szempontból, ideértve az MI-technológia még nem ismert jövőbeni alakzatai és a ma talán még előre nem látható felhasználási területei miatt is, várhatóan számtalan módosítására, sőt az elővigyázatossági elv jelenleg eltúlzott mértékének mérséklésére is sor kerülhet – zárta gondolatait az egyetemi oktató.

Ezt is ajánljuk a témában

 

Összesen 50 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Csomorkany
2024. augusztus 22. 09:29
Szerintem leginkább a hasznossága fogja szabályozni. Ha megbízhatatlanná válik az összes fotó és videó, max. szórakozásra fogjuk használni az ilyesmit, nem mondjuk bírói ítéletek meghozatalára. Ha a bankrendszerünk megtelik tényleg megkülönböztethetetlen csaló üzenetekkel, nem a felhőben fogjuk tartani a vagyonunkat. Ha hamis riasztásokat ad az atomerőműben, nem engedjük be oda. Stb. Szóval ha nem szolgálja a céljainkat, nem fogjuk használni az MI-t. Biztos, hogy óriási trauma lesz, de nem a világvége...
Dominik
2024. augusztus 22. 09:04
Az Mi már olyan szinten Woke- hogy szerintem már szabályozzák valahonnan.......
Akitlosz
2024. augusztus 21. 21:34
"Tudjuk még szabályozni a mesterséges intelligenciát?" Hoppá és munkatársai biztosan nem.
SzkeptiKUSS
2024. augusztus 21. 20:34
Bármi amit ember meg tud csinálni, előbb utóbb meg is fogja csinálni és rosszra is fogja használni! Mindenféle fegyverrel öltünk már, vegyivel, biológiaival, atombombával is. Sőt egy kis plusz haszonért képesek vagyunk egészségre ártalmas élelmiszert is forgalomba hozni. Miért lenne ez másképp az ezután következőkkel?
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!