Tudja vajon, hogy mikor beszél robottal?   

2025. november 16. 15:39

Egyes amerikai államok új szabályokkal kényszerítik a cégeket, hogy őszinték legyenek: ha mesterséges intelligencia válaszol a panaszunkra vagy összefoglalja a leveleinket, azt nyíltan be kell vallaniuk. A vita heves: az átláthatóság erősíti a bizalmat vagy inkább fékezi az innovációt? 

2025. november 16. 15:39
null

Képzeljük el, milyen kellemetlen helyzetbe kerülünk (sokunkkal már elő is fordult), amikor egy ügyfélszolgálati chatbot válaszol a panaszunkra, de sokáig embernek hisszük. Csak akkor vallja be, hogy MI, ha kifejezetten rákérdezünk. Vagy egy e-mail-platform automatikusan összefoglalja egy-egy félnek írt leveleinket, méghozzá előzetes értesítés nélkül. Egy felhasználó éppen emiatt váltott szolgáltatót: zavarta, hogy az MI beavatkozik a gondolkodás szabadságába. Azaz nem akarta, hogy egy személytelen, idegen algoritmus döntse el, mi a lényeges egy-egy személyes elektronikus üzenetben. Ez jól mutatja a tétet: az átláthatóság nemcsak kényelmi kérdés, hanem a felhasználói autonómia védelméről is szól. 

Széttöredezett a szabályozás 

Fontos előrebocsátani, hogy az USA-ban nincs egységes szövetségi MI-törvény, így az államok – egyelőre legalábbis – önállóan léptek. Ez azonban mozaikszerű rendszert hoz létre, amelyben a vállalatoknak államonként kell alkalmazkodniuk – ami növeli a költségeket. Az MI-szabályozás terén Utah volt az úttörő: 2024 májusától kötelező jelezni, ha generatív MI-t használnak a fogyasztói interakciókban.  

Különösen szigorú az MI-szabályozás az egészségügyben, ahol már a kapcsolatfelvétel elején egyértelműen kell jelölni, hogy a beteg emberrel beszél-e. 

A törvény hangsúlyozza: az MI hibáiért az azt üzemeltető cég, intézmény a felelős. Idén ugyanakkor finomhangolták a szabályokat, szűkítve a kötelező jelölést például a mentális egészségi chatbotoknál.  

Kalifornia állam viszont még tovább ment: 2019 óta létezik ugyan a chatbotjelölési előírás, de 2025 októberében aláírták az SB 243-as számú szabályozást, amely az „embernek tűnő” chatbotokra fókuszál. Az AB 2013 rendelet közben a generatív MI-fejlesztőktől átláthatóságot követel, mégpedig azokról az adatokról, amikkel a tanításuk történt. Sőt, a rendőrségnek is jeleznie kell, ha MI segíti az intézkedésekkel kapcsolatos jelentések megfogalmazását – ez meglehetősen egyedi lépés a közhatalmi átláthatóság felé. 

Más amerikai államok sem tétlenkednek. Colorado átfogó szabályozást tervez jövőre a magas kockázatúnak minősített MI-rendszerekre. New York állam az algoritmusokkal segített döntéshozatal során részletes átláthatóságot ír elő, különösen a munkaerő-toborzásban. Montana és Arkansas államok pedig az álhírekre, a deepfake-védelemre fókuszálnak. 

Szövetségi szinten ugyanakkor továbbra is hiányzik a kifejezetten az MI-re fókuszáló jogi szabályozás. 

A Szövetségi Hírközlési Hatóság (FTC) csupán meglévő törvényeket alkalmaz az MI-re, de dedikált keretrendszer a mai napig sincs. Így egyelőre az államok töltik ki a joghézagot. Közben pedig erősödik a vita: lassítsák szabályokkal a technológia terjedését, vagy biztosítsanak széles körű kikapcsolhatóságot az MI terén. 

Támogatók vs. kritikusok 

A támogatók szerint a jelölés az első lépés a felelős MI felé. Ha tudjuk, hogy MI-vel beszélünk, elkerülhetjük a manipulációt, így probléma esetén magánszemélyként vagy üzleti döntéshozóként is felelősségre vonhatjuk a szolgáltatókat. Egy egészségügyi chatbot hibás tanácsáért az egyes államoknál bemutatott törvények szerint a vállalat felel.  

A nyílt jelölés így erősíti a bizalmat – senki sem érzi magát becsapva. 

Akritikusok persze óvatosságra intenek. A kötelező jelölés visszafoghatja az innovációt: ha az emberek elfordulnak az MI-től a „vigyázz, robot” jellegű címkék miatt, a cégek kevesebbet fektetnek a fejlesztésbe. Egyes tanulmányok szerint a felhasználók 40-50 százaléka kerülné az MI-t kötelező jelölés esetén, különösen az érzékeny területeken. Ráadásul a kisvállalkozásoknak nehézkes államonként mindehhez alkalmazkodni.  

A vitának tehát van gazdasági vetülete is. A McKinsey becslése szerint az MI 2030-ra 13 ezermilliárd dollárral növelheti a globális GDP-t. Ám,  

ha a széttöredezett szabályozás fékezi a terjedést, az USA lemaradhat Kínával szemben. 

Ugyanakkor a transzparencia hiánya adatvédelmi botrányokat, „elfogult” algoritmusokat szülhet, ami hosszú távon végső soron nagyobb károkat okozhat. 

Az EU-s párhuzam 

Európában az AI Act (ami 2024 augusztusától hatályos) egységes keretet ad, ellentétben az USA mozaikszerű szabályozásával. Az EU jelenleg a korlátozásra, a tiltásra fókuszál: tilos a társadalmi szintű online pontozás jellegű felhasználás, a rejtett manipuláció vagy közterületi, valós idejű biometrikus azonosítás, például az arcképfelismerés révén. Eközben az EU-s transzparencia már most kötelező: chatbotoknál jelezni kell, ha nem emberrel kerül kapcsolatba a felhasználó, a deepfake tartalmaknál pedig egyértelmű feliratozás szükséges. Idén pedig az általános célú MI-modellek átláthatósági szabályai léptek életbe: dokumentálni kell a tanító adatokat, kockázatokat. Ám a „feketeleves” jövőre jön, az úgynevezett magas kockázatú MI-rendszerekre szigorú szabályok érkeznek. Ide tartozik  

az egészségügyi diagnosztika, a hitelbírálat, a rendvédelem és az oktatási célú vizsgáztatás.  

E területeken kötelező lesz a kockázatkezelés, a minőségi adatok, a műszaki dokumentáció, a naplózás és az emberi felügyelet. A gyártóknak pedig a megfelelőségi értékelés, akár CE-jelölés is szükséges lehet. Mindez jóval szigorúbb, mint az amerikai szabályok. Az EU-ban auditálható módon kell eleget tenni a szabályoknak, az „elkövető” cég büntethetővé válik, akár a globális árbevétel 6 százaléka is kiszabható bírságként. Mindennek előnye, hogy az unió egységes piacot alkot, az Amerikaihoz képest jóval kevésbé töredezett innovációs tér jön létre. Hátrány viszont a lassabb innováció, különösen az MI-startupoknál. Az EU számára tehát a biztonság előbbre való, míg az USA ezúttal is az „előbb gyorsan innováljunk, majd vizsgáljuk meg, mit alkottunk, és ha kell, akkor javítsunk” megközelítés az irányadó. 

Következmények 

Az MI-jelölést, annak átlátható fejlesztését és alkalmazását előíró törvényekre érdemes ma úgy tekinteni, mint amelyek nem annyira lassítják, hanem irányítják a fejlesztéseket. A felhasználói jog – elutasítani az MI-t – pedig látványosan erősíti a demokráciát a digitális térben. 

  

Kapcsolódó: 

 

 

C:\Users\Felhasználó\AppData\Local\Microsoft\Windows\INetCache\Content.MSO\2BE2C120.tmp    
További cikkeinket, elemzéseinket megtalálják a makronom.eu oldalon.    

 Nyitókép: Jade GAO / AFP

Összesen 4 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
jump-ing
2025. november 16. 16:50
Én meglehetősen pontosan tudom és fel is ismerem mikor beszélek Orr bánc csicskákkal. (pl. itt a beépített kommentelők hadával, hisz tagadják a valóságot éséltetik a hazugságot) Hogy hányan vannak azt az unlike-om mindig elég szépen megmutatja......
Válasz erre
0
0
nemenvagyoken
2025. november 16. 16:16
Amikor meghallom a temus kappan rikácsoló hangját, az élettelen hanghordozását, akkor rögtön tudom, hogy egy robot próbál szólni hozzám a maga betanult szövegével.
Válasz erre
0
0
Kétes
2025. november 16. 16:10
Persze, hogy tudom! Magyar Péter egy robot. A hangja és a válaszai egy roboté.
Válasz erre
0
0
Box Hill
2025. november 16. 15:53
Hát persze. Csak azt kell tudnom, kommunista-e.
Válasz erre
0
0
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!