Tönkreteszi a zeneipart a mesterséges intelligencia
Virálisan terjed a zenekészítés "ChatGPT-je", de vajon jó ez nekünk?
Megjelent az európai uniós szabályozás a mesterséges intelligenciához, szakértőt kérdeztünk róla.
Nyitókép: VICTOR HABBICK / AFP
A mesterséges intelligencia (MI) korunk talán legnagyobb potenciállal rendelkező technológiája. Válfajai, mint a generatív – szöveget, (mozgó)képet, hangot generáló – MI, így például a ChatGPT által működtetett platform, az utóbbi években komoly hírnévre tettek szert – és ki tudja, mi mindent hoznak még a következő évek, évtizedek. Dr. Székely Jánossal, a kolozsvári Sapientia EMTE adjunktusával beszélgettünk arról, miért fontos a mesterséges intelligencia szabályozása.
A szakértő kifejti, hogy a gépi tanuláson (angol műszóval machine learning),
különösen az idegsejtek működésének egyszerűsített szimulációján alapuló, úgynevezett mélytanulási (deep learning) megoldások sokkal szélesebb skálán teszik lehetővé az MI alkalmazását, mint ami jelenleg közismert.
Különösen az emberek arcának vagy lelkiállapotának felismerése, viselkedésük előrejelzése, a kép- és hangfelismerés, illetve irdatlan mennyiségű adatban, a humán faktor számára korántsem nyilvánvaló összefüggések felismerése terén, vélhetően részben titkos előrelépések történtek ugyanebben az időszakban.
A tudományos-fantasztikus irodalomban az MI kockázatait már számtalanszor feldolgozták, azonban most, hogy a technológia lassan beérni látszik, egyre nyilvánvalóbb, hogy – még – nem a Terminátor-, vagy a Mátrix-filmekből ismert emberirtó mesterséges szuperintelligenciától kell tartanunk, hanem az MI, és jelenleg elsősorban a generatív MI mint kettős-felhasználású technológia képességeivel való visszaéléstől.
A hamis hírek terjesztése mellett a technológia jelenlegi állása szerint lehetséges a hamis képek, sőt mozgóképek és hanganyagak akár valós idejű generálása is, amely nem csupán személyiségi jogi vagy gazdasági, hanem akár nemzetbiztonsági kockázatokat is felvet.
Ezt is ajánljuk a témában
Virálisan terjed a zenekészítés "ChatGPT-je", de vajon jó ez nekünk?
A jogász elmondja: mindezek ismeretében az Európai Tanács és az Európai Parlament mint az Unió közös jogalkotói sokéves, különböző szakértői testületekkel történő konzultációt is magába foglaló munkát lezárva kidolgozták a Mesterséges intelligenciáról szóló (európai) rendeletet.
A rendelet 2024. augusztus 1-én lépett hatályba, rendelkezései többségét azonban csak 2026. augusztus 2-től kell alkalmazni, bár egyes rendelkezések már 2025. augusztus 2-től alkalmazandók.
A rendelet részben területen kívüli hatályú, így az EU-ban használt vagy értékesített MI-rendszerek EU-n kívüli fejlesztőire, gyártóira és értékesítőire is alkalmazandó, még akkor is, ha tevékenységüket az EU-n kívül fejtik ki.
Az a jövő zenéje, hogy ezt a területen kívüli hatályt az EU miként tudja majd érvényesíteni, különösen az MI-technológiák terén vele szemben komoly előnyben lévő Egyesült Államokban működő vállalatokkal szemben, ahol az MI átfogó szabályozása még nem történt meg.
Az EU-nak MI rendelete ugyanis már van, de széles körben ismert, használható és jövőbeni növekedési potenciált mutató MI-megoldásai még nincsenek.
Így az MI rendelet szigorú szabályozása könnyen értelmezhető egy lemaradóban lévő, felvevőpiaci státuszba szorult fél puszta piackorlátozásaként is.
Továbbá, emeli ki Székely, az MI rendelet megközelítésmódja a kockázat-alapú szabályozás. Ez röviden annyit tesz, hogy felhasználási módjaik vagy bizonyos célra alkalmazásuk szerint a különböző MI-megoldások képességeit – tehát nem magát a technológiai kivitelezést, csupán a felhasználást – a rendelet kidolgozásakor különböző kockázati osztályokba sorolták. Ezek a minimális, a korlátozott, a nagy és az elfogadhatatlan kockázati kategóriák.
Az európai jogalkotó koncepciója az MI szabályozása terén az elfogadhatatlan kockázatú rendszerek tilalma, a nagy – és, valamelyest a mérsékelt – kockázatú rendszerek részletes szabályozása, máskülönben pedig a regisztrációs, elővigyázatossági, biztonsági és önszabályozási kötelezettségek betartatása formájában foglalható össze.
A rendelet az úgynevezett elővigyázatossági elven alapul, vagyis a megengedett MI-technológiák esetében is, általában a fejlesztők, gyártók, értékesítők és felhasználók
kötelesek a technológia működésének átlátható, és előreláthatóan megbízható, illetve biztonságos jellegét előzetesen igazolni.
Ez a jellemzően európai megközelítés az amúgy is lemaradásban lévő európai fejlesztőkre külföldi versenytársaikhoz képest komoly terhet ró.
Ezt is ajánljuk a témában
Alighanem az ember abban a formában, ahogyan eddig ismertük, megszűnik létezni. Veczán Zoltán írása.
Az elfogadhatatlan kockázatú, természetes személyek ellen használható, például arcfelismerés alapján tömeges, valós idejű személyazonosításra, tudatalatti viselkedésmódosításra, célzott manipulációra, tömeges magatartásmódosításra, nagy számú személyről ilyen célból profilok megalkotására, viselkedésük tömeges értékelésére, előrejelzésére vagy e szerinti osztályozásukra alkalmas megoldások tiltottak.
Láthatjuk, hogy az európai jogalkotó egy kimerítő listáját szerette volna adni azon felhasználásoknak, amelyekre az MI nem vethető be.
Szintén szembetűnő, hogy általában nem a felhasználásra alkalmas rendszerek kidolgozása, hanem a felhasználás módja a tilalom tárgya, így a rendelet maga a veszélyes MI-technológiák fejlesztését nem teljesen zárja ki.
És itt szükséges még valamit megemlíteni: a nemzetbiztonsági, a védelmi, és a katonai, vagyis háborús célú felhasználás, illetve részben még a bűnüldözési felhasználás sem tiltott a felsorolt célokra (előbbi három kategóriára a rendelet hatálya még csak ki sem terjed).
Ezt is ajánljuk a témában
Akármerre nézünk, a most nyiladozó mesterséges értelem szédítő távlatokat nyit meg számos területen – és most már a zenében is. Előttünk a végtelenül generálható zeneszámok kora?
A szakértő emlékeztet, hogy a nagy kockázatú MI-technológiák azok, amelyek más technológia biztonságát (például egy vegyipari létesítmény vagy atomerőmű üzembiztonságát) szavatolják, illetve számos más olyan technológiai alkalmazás, amelyet az európai jogalkotó, valamilyen megfontolásból ennek nyilvánít.
Egyes nagy kockázatú MI-rendszerek az elfogadhatatlan kockázatúakkal részben azonos megoldásokat valósítanak meg, csupán nem tömegesen. Ilyenek például az egyes egyénekre használt távoli biometrikus azonosító rendszerek, ha azokat nem csak a személy azonosítására, hanem követésére, vagy osztályozására, illetve érzelmei felismerésére is alkalmazzák.
Nagy kockázatúak továbbá az oktatás, a foglalkoztatás, a bűnüldözés, a migráció vagy az igazságszolgáltatás terén, illetve a közszolgáltatások nyújtásakor alkalmazható MI-rendszerek, például ha azokat valamilyen alkalmasság, vagy jogosultság (pl. rászorultság, kérelem megalapozottsága) értékelésére használják. A rendeletben tételesen fel nem sorolt felhasználású MI-rendszerek kockázati szintje általában minimális vagy korlátozott, de az elővigyázatossági elv esetükben is érvényesül.
Külön említésre méltó, hogy az MI rendelet, burkoltan (az általános felhasználású MI szabályozásakor)
kitér a – vélhetően távoli – jövőben lehetséges, a sci-fikből ismert képességekkel rendelkező általános mesterséges intelligenciára is,
amelyet lényegében a nagy kockázatú kategóriával rokonít.
Az Unió MI rendelete előzetes szabálykövetést ír elő az MI rendszerek fejlesztői, gyártói, értékesítői és felhasználói számára (bár a fejlesztés terén a korlátozások jobbára az átlátható, biztonságos és megbízható MI megoldások kialakítására irányulnak, felhasználásuktól függetlenül). Ez versenyhátrányt okozhat, különösen, mivel a szabályok betartatása lényegében a tagállamokban létrehozandó, vagy már létező – általában fogyasztóvédelmi hatáskörű – hatóságokra hárulna, ezzel is fokozva a máskülönben értelmetlenül terjedelmes MI-rendelet esetében potenciálisan felmerülő nem egységes jogalkalmazás kockázatát.
Az EU-ban már volt példa MI rendszerek károkozó működésére: Hollandiában 2013 óta a gyermeknevelési szociális támogatások folyósításakor a jogosultak rászorultságát egy gépi tanuláson alapuló algoritmus ellenőrizte, amelynek potenciális visszaélésre vonatkozó téves kockázati mutatói (például a kettős állampolgárok kockázatossá minősítése)
a támogatások tömeges megtagadásához, indokolatlannak bizonyult visszarendeléséhez, szélsőséges esetben pedig gyermekek állami gondozásba helyezéséhez, állítólag még öngyilkosságokhoz is vezetett.
Ebből a szempontból az MI-rendelet eleve megkésett, mégis a jövőre nézve hasznos norma.
Mindazonáltal, sok szempontból, ideértve az MI-technológia még nem ismert jövőbeni alakzatai és a ma talán még előre nem látható felhasználási területei miatt is, várhatóan számtalan módosítására, sőt az elővigyázatossági elv jelenleg eltúlzott mértékének mérséklésére is sor kerülhet – zárta gondolatait az egyetemi oktató.
Ezt is ajánljuk a témában
Az amerikai választások közeledtével megnő a dezinformáció terjedése az online felületeken, amelyekben a mesterséges intelligencia szerepe felértékelődik. Szakértőt kérdeztünk a témáról.