Az AI veszélyei közé korábban nem látott kockázatok férkőztek be – egy fiatalember már áldozatul is esett!
Az Egyesült Államokban legutóbb egy tinédzser halálát kérték számon a mesterséges intelligencián! Az AI veszélyei egyre fenyegetőbbek.
Megkérdeztük a ChatGPT-t, az open ai chatbot azt állította, hogy nem tárolja a felhasználók adatait. Szakértőhöz fordultunk. Összefoglalónk!
Veczán Zoltán és Konopás Noémi írása
***
Többször is foglalkoztunk már a Mandineren a Chat GPT-vel. Írtunk arról, hogy a mesterséges szöveggeneráló programok alapjaiban forgathatják fel azt, amit ma az oktatásról és a mesterséges intelligenciáról gondolunk. Utánajártunk annak is, hogy elveheti-e az állásunkat a chatbot, és beszámoltunk arról is, hogy jó néhány iparág eddig megszokott gyakorlatát hogyan alakíthatja át. Alábbi cikkünkben azt járjuk körül, hogy az OpenAI használata milyen adatvédelmi információbiztonsági témákat vet fel. A program használata közben ugyanis a felhasználók megadják a személyes adataikat.
Bár a mesterséges intelligencia nem szerepel kifejezetten a GDPR-ben, de az adatvédelmi intézkedések természetesen az új technológiára is érvényesek – olvasható az Európai Parlament GDPR és mesterséges intelligenciával foglalkozó tanulmányában. Az adatbiztonságot elősegítő rendelet nem akadályozza a mesterségesintelligencia-alapú rendszerek fejlesztését. Mint rögzítik, tisztázni kell, hogy melyek azok az ezen az új technológián alapuló alkalmazások, amelyek adatvédelmi szempontból magasabb kockázatot jelentenek, ilyen esetben pedig előzetesen akár adatvédelmi hatóságokat kell bevonni az adatbiztonság érdekében.
Mint írja, a felhasználó kérését „szöveges sztringként” dolgozza fel, a választ pedig ugyanilyen módon adja vissza. „A feldolgozás során a modell a képzési adatbázisában található információkat használja fel a válasz generálásához, de az eredeti kérés nem kerül tárolásra, és a modell nem tárolja a felhasználók adatait sem”.
Arra a felvetésünkre, miszerint, ha a szöveggenerátor nem használja a felhasználóval történt beszélgetés adatait, miért írta azt, hogy „ne osszon meg személyes adatokat”, azt a választ kaptuk, hogy a nyelvi modell „nem képes személyes adatokat gyűjteni”. „Ugyanakkor, a tanítási adatbázisa általános interneten található szövegeket tartalmaz”, amiből az következik, hogy előfordulhat, hogy személyes adatokat is tartalmaznak. Ez az oka annak, hogy az OpenAI azt ajánlja, hogy magánéletünk védelme érdekében ne osszunk meg bizalmas információkat és ne is tegyünk fel személyes adatokat tartalmazó kérdéseket.
Arra is kíváncsiak voltunk, mit felel arra a kérdésünkre, hogy kié lesz a felhasználó által kért, de az AI által létrehozott szöveg tulajdonjoga. A válasza nem meglepő: a rendszert fejlesztő OpenAI-é. Tehát,
ha felhasználó szeretne használni az AI által létrehozott szöveget, akkor engedélyt kell kérnie az OpenAI-tól”.
Vagyis nem csak a személyes adatokhoz fűződő jogok, de a szerzői jogi oldal is lehet problémás. Sőt. Mindenesetre, hogy kicsit tisztábban lássuk a helyzetet, szakértőhöz fordultunk.
Balogh Zsolt György informatikai jogi szakértő, a Budapesti Corvinus Egyetem docense szerint elméletileg tiszta a helyzet, ha az úgynevezett betanító adatbázisba – amely alapján az algoritmus dolgozik, és amiből „ihletet” merít, elemeket használ fel – bekerülő ismeretek, legyen az szöveg, kép, mozgókép vagy hang, szerzői jogi védelem alatt állnak. Ilyenkor a szerzői jog birtokosa jogosult kompenzációra – magyarázza.
Ez más, mint a hagyományos feldolgozás fogalma, amit arra találtak ki, ha valaki például a Harry Potter könyvek alapján készít egy filmet, videójátékot, egyebeket, ahogy történt is. Ha viszont például Harry Potter-könyvek kerülnek ebbe a betanító adatbázisba, sok egyéb szöveggel, például mosóporreklámmal, gyógyszerismertetővel, filmkritikával, és arra instruálják, hogy ezekből hozzon létre valamilyen szöveget, akkor úgynevezett származékos mű jön létre – tudjuk meg a szakértőtől, aki hozzáteszi: itt az a nehézség, hogy roppant bonyolult lenne bizonyítani, mit használt fel, miből mennyit hasznosított.
„Ezért
nem a kimeneti oldalról kellene megfogni az ügyet, hanem az adatbázisnál,
illetve, hogy mi kerül bele: azért viszont a mesterséges intelligencia fejlesztői felelősek, hogy ne kerüljön bele jogilag kétes anyag”. Vagyis olyan, ami forrásmegjelölést igényelne, vagy egyenesen tiltott a további felhasználása.
A Creative Common többféle licencelést tesz lehetővé, van abból nagyon megengedő és szigorúbb verzió is. A lejárt oltalmú anyagokkal – Shakespeare-rel, Petőfi Sándorral, vagyis aki több, mint 70 éve meghalt – pedig nincs probléma, hiszen szabadon felhasználhatóak, mindegy, hogy élő ember vagy egy algoritmus használja – sorolja Balogh.
Némileg szkeptikusan hozzáteszi: bár ugyanaz a jogi kategória, de persze gyakorlati kérdés is, hogy van-e egy átlagos alkotónak energiája, hogy érvényesítse az érdekeit, mint J. K. Rowlingnak, vagy mint a Mickey Mouse jogait birtokló Walt Disneynek, ahol mindenféle egyéb jogokat, dizájnt, illetve a belőle készült termékek jogait is levédték.
A stílus, noha a köznapi szóhasználatban valóban egy alkotó „védjegye”, a valóságban nem élvez védelmet,
– megy tovább a kérdésben a jogász. Ha védjegyoltalom – trademark – alatt álló alkotásokból merít „ihletet”, az problémás, sérti a védjegyoltalmat, hiszen ahogyan nem rakhatom ki a Coca-Cola logóját a boltomra a hozzájárulása nélkül, úgy elvileg nem rajzoltathatok Coca-Colás grafikát sem a MidJourneyvel. A felelősség a mesterséges intelligencia betanítójáé.
Hozzáfűzi: a felhasználás igazából akkor ütközik törvénybe, ha a nyilvánosságra hozott mű legalább közvetetten hozzájárul a jövedelemszerzésemhez, vagyis te olvasgathatod a – védett szellemi tulajdonból generált – verset, kinyomtathatod otthon magadnak a generált képet, de ha már a szállodád mottójaként használod, vagy kiakasztod a boltod falára, akkor elméletileg szolgálhatja a jövedelemszerzést vagy jövedelemfokozást számodra – a zene terén például a magyar Artisjus nagyon kemény, lehet, hogy lejárt Vivaldi védettsége, de ettől még, ha például hívásvárakoztatásnál nem a sípszót halljuk, hanem a Tavaszt, azért is elkérnek jogdíjat a telefonos alrendszer üzemeltetőjétől.
Ugyanez igaz, ha nem hasznot termel, csak költséget spórol: nem kell kifizetni a copywriter újságírónak a szöveggyártást, vagy a grafikusnak az elkészült logót. De ebben az esetben is a betanító adatbázis gazdája, vagyis a program gazdája vonható felelősségre, nem a felhasználó – szögezi le Balogh.
Az algoritmus többféle módon tanítható, van az ellenőrzött, a beavatkozás nélküli meg a mélytanulásos módszer is például – kérdés, hogy a most bekerülő adatoknál eleve ellenőrzik-e, hogy biztosan jogtiszta a forrás, vagy
ami nincs lebetonozva, azt visszük”
– alapon mindent bedobálnak, amire nincs egyértelmű védelem – mutat rá.
Balogh szerint elképzelhető, hogy valaki kitesz egy idézetet egy frissen megjelent (és egyébként mindenféle védettséget élvező) könyvből a Facebook-oldalára, azt megteheti minden gond nélkül – igen ám, de innen az adatbázis már automatikusan beszívhatja, és elkezdheti felhasználni, amit ugyanakkor nehéz bizonyítani. Ami nem fair, de jogilag egyébként nem problémás, hogy a legálisan, ingyenesen hozzáférhető tartalmakból az algoritmus által kreált tartalmakat viszont levédi például a ChatGTP, nem lehet felhasználni, csak, ha fizet érte az ember.
Persze, mint a jogász taglalja, az is kérdés, hogy milyen bíróságon szerezhet érvényt az ember az igazának: Dragomán egy magyar író, magyar művet használt fel a ChatGTP, de a cég amerikai – a nemzetközi magánjognak vannak erre megoldásai, de esetről esetre változik, az eljárás viszont bonyolult, időigényes és költséges, ezért nem valószínű, hogy tömegével indítanának pert az algoritmus generálta tartalmak miatt. Arról nem is beszélve, hogy eddig úgy-ahogy le tudta utánozni Dragomán stílusát az országban mondjuk száz ember, most viszont, ha kellően tökéletesítik az algoritmust, tízmillió ember írhatja be potenciálisan a ChatGTP-be, hogy „írj egy rövid novellát Dragomán stílusában”, és a program megcsinálja.