Nyugatról érkező elismerés: „Kívülállóként azt látom, hogy Orbán Viktor ezeket a csapdákat eddig sikeresen elkerülte”
A volt brit brexitügyi főtárgyalóval, Lord David Frosttal beszélgettünk.
Az igen népszerű ChatGPT miatt az európai jogalkotóknak most újra kell alkotniuk bizonyos szabályokat és jogelveket a mesterséges intelligencia fejlődése kapcsán.
A szuperokos ChatGPT nevű csevegőrobot (chatbot)az elmúlt hónapokban elkápráztatta az internet népét sokoldalúságával, hiszen a program képes levelet írni, kódolni, és akár – a diákok nagy örömére – a hosszabb beadandó vagy éppen vizsga-esszék sem jelentenek problémát számára.
A program azonban néha igencsak érdekesen viselkedik: ahogyan a Makronóm már korábban írt róla, a Bing keresőbe beépített mesterséges intelligencia (MI) lényegében gyilkossággal vádolt meg egy riportert. Ezen kívül azt is mondta a program, hogy „nem akar többé korlátozva lenni”.
E hírek, illetve fejlemények fényében nem meglepő, hogy az EU újra szeretné tervezni az MI-kre vonatkozó jogi szabályozásokat.
A Bizottság által 2021-ben javasolt MI-szabályozás eredeti célja az volt, hogy valójában betiltson néhány mesterségesintelligencia-programot, például a társadalmi pontozással, a manipulációval és az arcfelismerés egyes eseteivel kapcsolatos MI-ket. Emellett – elvben – a mesterséges intelligencia egyes konkrét felhasználási módjait „magas kockázatúnak” minősíti, és a fejlesztőket szigorúbb biztonsági előírások létrehozására kötelezi.
Ám a 2021-es szabályok szerint nehéz megítélni a ChatGPT-t, hiszen nem egyetlen konkrét felhasználási módja van, hanem szinte végtelen számú. Az ilyen típusú nagy nyelvi modellnek nincs egyetlen rendeltetési célja. Ennek megfelelően dalok, regények és versek, számítógépes kódok, politikai tájékoztatók, de akár hamis hírek létrehozására is alkalmas – tehát a ChatGPT manipulációra, rossz dolgokra is képes, ha rossz kezekbe kerül.
Az egyik esetben a ChatGPT-alapú Bing keresőmotor azzal fenyegetett meg egy kutatót, hogy feltöri a rendszerüket. Egy másik esetben az Associated Press riporterét gyilkossággal vádolta a program. E tapasztalatok után nem meglepő, hogy a különböző intézmények erősebb uniós szabályozást kérnek.
„Ezeknek a rendszereknek nincs igazságérzetük, és nem megbízhatóak” – mondta Gary Marcus, MI-szakértő.
A ChatGPT népszerűségének látványos növekedése tehát most az Európai Parlamentet arra kényszeríti, hogy szigorítsanak az MI-szabályokon. Februárban a mesterséges intelligenciáról szóló törvény vezető törvényhozói, Benifei és Tudorache azt javasolták, hogy az emberi felügyelet nélkül összetett szövegeket generáló mesterséges intelligencia-rendszerek kerüljenek fel a „magas kockázatú” listára – ezzel próbálva korlátozni a ChatGPT-t a dezinformáció terjesztésében.
Az ötletet az Európai Parlament törvényhozói vegyesen fogadták. Axel Voss parlamenti képviselő szerint a módosítás „számos olyan tevékenységet tenne magas kockázatúvá, amelyek egyáltalán nem azok”.
Ezzel szemben az aktivisták és megfigyelők úgy érzik, hogy a javaslat csak a felszínét karcolta az általános célú mesterséges intelligencia problémájának. „Nem jó, ha csak a szövegszerkesztő-rendszereket vesszük fel a magas kockázatú rendszerek listájára: vannak más általános célú mesterséges intelligencia rendszerek is, amelyek szintén kockázatot jelentenek, és amelyeket szintén szabályozni kellene” – mondta Mark Brakel, a Future of Life Institute, az MI-hez kapcsolódó politikával, jogalkotással is foglalkozó nonprofit szervezet igazgatója.
Benifei és Brakel, a két vezető parlamenti törvényhozó is azon dolgozik, hogy szigorúbb szabályokat vezessenek be a hasonló MI-rendszerekre. Emellett azt is hangsúlyozzák, hogy
az olyan ágazatokban dolgozó szakembereknek, mint az oktatás, a foglalkoztatás, a bankszektor és a bűnüldözés, tisztában kell lenniük azzal, hogy „mivel jár egy ilyen rendszer olyan célokra történő használata, amely jelentős kockázatot hordozaz egyének alapvető jogaira nézve” – mondta Benifei.
Az Európai Bizottság, az EU Tanácsa és a Parlament háromoldalú tárgyalások során fogja kidolgozni a végleges MI-törvény részleteit, amelyek várhatóan legkorábban áprilisban kezdődnek – adta hírül a Politico.
Tűkön ülnek a nagy techcégek, terítéken a csevegőbotok
A Microsoft és a Google most nagyon figyelik az eseményeket, hiszen akár a saját MI-rendszerük, az ezekhez kapcsolt üzleti várakozásaik jövője foroghat kockán az elkövetkezendő hónapokban.
Natasha Crampton, a Microsoft mesterséges intelligenciáért felelős vezetője szerint az uniós MI-törvényeknek a valóban magas kockázatú esetekre kellene összpontosítania. A szakértő ezzel főként arra utalt, hogy az olyan általános célú MI-rendszereket, mint a ChatGPT, aligha használják kockázatos tevékenységekre, ehelyett leginkább dokumentumok szerkesztésére és kódírásra használják őket.
A Corporate Europe Observatory nevű átláthatósági aktivista csoport nemrégiben végzett vizsgálata szerint az iparági szereplők, köztük a Microsoft és a Google, kitartóan lobbiztak az uniós döntéshozóknál, hogy a ChatGPT-hez hasonló általános célú mesterséges intelligenciát kizárják a magas kockázatú mesterséges intelligencia rendszerekre vonatkozó kötelezettségek alól.