Hatályba lépett az EU mesterséges intelligenciáról szóló rendelete – amely mindentől véd, kivéve persze attól, amitől biztosan kellene

2024. szeptember 24. 16:22

A rendelet egyelőre az unió versenyképességének öntökönszúrás útján való szokásos korlátozásán túl sok mindenre nem jó.

2024. szeptember 24. 16:22
Real,Robot's,Hand,Pointing,Or,Pushing,On,Something.,Concepts,Of
Rumi Tamás
Vendégszerző

Nyitókép: Shutterstock 

„1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első és második törvény előírásaiba.”

Sokáig hittem gyermeki naivitással, hogy a robotika e három alaptörvénye valami általam nem ismert, de valószínűleg világszerte elfogadott törvénykönyv első oldalán szerepel, míg egy nap – sok év után – megtudtam, hogy eme szabályokat a zseniális sci-fi-író, Isaac Asimov kreálta, ráadásul még a második világháború éveiben, jóval a használható robotok megjelenése előtt. Erre a logikai és etikai rendszerre Asimov aztán jobbnál jobb történetek garmadáját fűzte fel, melyek a mai napig hatással vannak a tudományos-fantasztikus irodalom és filmművészet világára.

Persze ez a három törvény, ha nem merült is teljesen a feledés homályába, utólag kitalálója túlzott optimizmusát bizonyítja. Az eltelt évtizedekben ugyanis azt láttuk, hogy amint lejött egy robot a gyártósorról, azt valahogy mindjárt próbálták Asimov első törvényének megszegésére is betanítani. Napjaink háborúiban pedig már szinte természetesnek számít, hogy mesterséges intelligencia által vezérelt drónok önállóan választják ki célpontjaikat, és többtucatnyi állam fejleszti gőzerővel saját harctéri robotjait.

Ha pedig a robotika törvényeit analógia útján napjaink szupersztárjára, a mesterséges intelligenciára is alkalmazzuk, sajnos hasonló a helyzet, hiszen a polgári mellett katonai célokra is felhasználják. De ha már ez láthatólag kikerülhetetlen, mi a helyzet az erre vonatkozó etikai szabályokkal? Nos, a „mesterséges intelligencia” (ami napjainkban többnyire egy előre betanított generatív nyelvi modell, önállóan, emberi módon, kreatívan gondolkodó értelemként egyelőre nem létezik) Asimov után majd száz évvel elsőként az Európai Unió törvényhozóit ihlette meg. A múlt hónapban hatályba lépett az EU mesterséges intelligenciáról szóló rendelete, amely az alapvető emberi jogoktól kezdve a demokratikus értékekig mindent véd a gonosz MI-től, kivéve persze attól, amelyet katonai vagy nemzetbiztonsági célra fejlesztettek ki. Attól ugyan miért is kellene bárkit megvédeni? A rendelet egyelőre tehát az EU versenyképességének öntökönszúrás útján való szokásos korlátozásán túl sok mindenre nem jó, és valószínűleg mindannyian jobban jártunk volna Asimov három mondatának kodifikálásával. 

Ha az EU a háborús pszichózis kellős közepén nem merte is piszkálni ezt a kérdést, az ENSZ és a Nemzetközi Vöröskereszt tavaly felszólította a világ vezetőit, hogy határozzanak meg jogilag kötelező érvényű korlátozásokat legalább az autonóm fegyverek használatára vonatkozóan. Az MI-modellek ugyanis köztudomásúlag elfogultak és megbízhatatlanok, az autonóm célpontválasztás pedig könnyen vezethet ártatlanok pusztulásához is. Így könnyen belátható, hogy érdemes megtartani az emberi kontrollt az élet-halál kérdésében hozott döntésekben. Azonban ha valami csúcstalálkozón elfogadnának is egy, a katonai mesterséges intelligenciák felelős használatáról szóló nyilatkozatot (állítólag Dél-Koreában próbálkoznak majd ezzel), az sajnos aligha lenne jogi úton kikényszeríthető. Azt pedig, hogy a nemzetközi hadviselésben mi az etikus (nem a jogszerű!), az ENSZ szerint sem tudná megbízhatóan eldönteni semmilyen algoritmus. 

Asimov meg volt győződve arról, hogy az általa alkotott törvények szerethetőbbé teszik majd a robotokat, és ez az egyetlen szabályrendszer, amit racionális emberi lények rájuk – és bármi másra is – alkalmazhatnak. A baj csak az – és ezt Asimov is kénytelen volt szomorúan beismerni –, hogy az emberi lények sajnos nem mindig racionálisak. Amíg pedig a világ országai egymás után fejlesztik az egyre hatékonyabb és könyörtelenebb gyilkolórobotokat, mi nem adjuk fel a reményt, hogy ezek valamikor a civil életben hasznosulva a mosogatógépeinket is képesek lesznek ki- és bepakolni.

A Mandiner-elődlap Utolsó Figyelmeztetés (UFi) szerzőinek rovata

 

Összesen 34 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
GrumpyGerald
2024. szeptember 25. 11:33
Nyilván annyit ér az AI elleni EU-s védőtörvény, mint a GDPR a személyi jogaink védelmére: kurva sok cookie-s kérdőívet kell időről időre kitölteni egyetlen weblap megtekintése miatt; miközben a spam, az adatlopás és egyebek az egekbe törtek...
Melós
2024. szeptember 25. 04:57
Mi van a szociopata robotokkal? Egy robotnak nem kötelező testtel rendelkeznie, lehet egy program is, ami munkát végez valakinek. Az a dolga, hogy olyan írásokat, videókat jelenítsen meg, amelyek hatására ember fog más emberben, vagy saját magában kárt tenni. Abban önállóan dönt, hogy mit jelenít meg. Ha az MI-t pszichológiai feladatokra használjuk, szerintem brutál veszélyes lehet. Reklámok készítésénél már régóta bevetik az MI-t, de pl a minél több embernek tetsző zenék íratására is használják, vagy egy étel, ital ideális ízének kifejlesztésére. Ezzel a múlttal akár zombi katona vezérlésre is lehetne használni, mert nagy gyakorlati tapasztalattal rendelkezünk mesterséges tudat- és véleménybefolyásolás terén!
pandalala
2024. szeptember 24. 22:12 Szerkesztve
marhaság NEM a robotikáról van ugyanis szó!!! :-D az AI sokkal de sokkal szélesebb fogalom mint a robotika :-)) (( ld. például az ukránok most használatos izéjét ..... az lehet vele pl. a baj, hogy majd a "béke" időszaka alatt is használni fogják. a saját állampolgáraik "wécézési szokásainak" feltérképezésére ... s majd kijön a fekete autó, mint az 50-es években .. ))
mi-egy-nagy-vibralo-tojast-hasznalunk-2
2024. szeptember 24. 19:37
"1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen." Akkor egyelőre semmi remény arra, hogy robotzsaruk védjék meg a szabolcsi zsákfalvak nyugdíjasait.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!