Iszlamistákat kaptak el Németországban
A férfiak karácsonyi vásáron akartak terrortámadást végrehajtani.
Több tagállam is jelezte az Európai Bizottság felé, hogy a jövőben közvetlen jogi kötőerővel nem rendelkező szabályozási megoldásokat tartanának kívánatosnak a mesterséges intelligencia működésére vonatkozóan.
Tizennégy uniós tagállam a fejlődés zálogát, s nem pedig a kockázatot látja a mesterséges intelligenciában
Dánia vezetésével tizennégy tagállam kezdeményezi az Európai Bizottságnál azt, hogy a mesterséges intelligenciára vonatkozó uniós szabályozás inkább ösztönözze, s ne pedig hátráltassa a továbbfejlesztett MI alkalmazhatóságát a jövőben.
Ahogy az a dokumentumban is áll, az azt aláíró tagállamok az MI esetében „soft law”, azaz közvetlen jogi kötőerővel nem rendelkező szabályozást tartanának indokoltnak. Az 1960-as évektől kezdődően fokozatosan elterjedő soft law-módszer olyan, a szerződéshez hasonló funkciójú jogi(as) eszközöket ölel fel, amelyek, noha
bírói úton nem kikényszeríthetők, konszenzusos alapon mégis orientálják az azokat alkalmazókat.
A tagállamok ennek megfelelően a mesterséges intelligencia jövőbeni szabályozását inkább a kötetlenség irányába tolnák ahelyett, hogy szűk mozgásteret szabnának a mesterséges intelligencia szabályozási irányainak.
Ezek a megoldások jelenthetnek akár önkéntesen alkalmazható szabályokat, de szóba jöhet például bizonyos sztenderdek bevezetése is, amelyek legfeljebb is csak tág kereteket adnának a tárgykörnek.
A dokumentumot aláíró országok azért ezt, s nem a klasszikus jogi formát öltő szabályozási módszereket tartanák a mesterséges intelligencia esetében indokoltnak, mert ahogy az az indítványban is áll,
„a puha jogi megoldások lehetővé tennék számunkra, hogy tanuljunk magától a technológiától, s hogy ismereteket szerezhessünk azokkal a potenciális kihívásokkal, amelyek alkalmazása kapcsán felmerülnek; minderre azért van szükség, mert egy ugrásszerűen fejlődő technológiáról van szó.”
Európai Bizottság: félni kell, fájhat
A tagállamok indítványában foglaltak gyökeresen eltérnek attól a meggyőződéstől, amely az Európai Bizottság év elején a tárgykörre vonatkozóan közzétett hivatalos véleményét áthatja.
A Bizottság úgy nevezett fehér könyvében egyértelműen óvatosabban közelíti a mesterséges intelligencia kérdését. Ahogy az a dokumentumban is áll, a Bizottság szerint a mesterséges intelligencia alkalmas arra, hogy a legérzékenyebb alapjogok érvényesülését sodorja veszélybe, éppen ezért
a Bizottság a tárgykörrel kapcsolatosan egyértelműen kockázatalapú megközelítést javasol.
Ez lényegében azt jelenti, hogy egy adott mesterséges intelligencia alkalmazását főszabály szerint „magas kockázatúnak” kell tekinteni, különösen abban az esetben, ha alkalmazására olyan érzékeny területeken kerül sor, mint például a közlekedés, az egészségügyi ellátás, vagy az energiaszektor. Szintén fontos szempont a magas kockázatú besorolás során az, hogy a mesterséges intelligencia alkalmazása hordozhatja-e sérülés, halál, jelentős anyagi vagy nem vagyoni kár kockázatát.
„A mesterséges intelligencia (MI) számos olyan potenciális kockázattal is jár, mint az átláthatatlan döntéshozatal, a nemi és más alapú megkülönböztetés, a magánéletünkbe való betolakodás vagy a bűncselekmények céljából történő felhasználás.” – áll a dokumentumban.
Az Európai Bizottság bizonyos területeken megengedő a puha jogi eszközökkel kapcsolatban
A tagállamok javaslata számos puha jogi alternatívát felölel, s a Bizottság februári fehér könyvéből kiderül az is, hogy a mesterséges intelligencia bizonyos formái esetében ezek biztonságos alkalmazhatóságára a testület is lát lehetőséget.
Egyike e megoldásoknak az MI-alkalmazások önkéntes címkézése, de csak a mesterséges intelligencia azon formáival szemben, amelyek nem minősülnek „nagy kockázatúnak”.
Az önkéntes címkézési rendszer bevezetése keretében a gazdasági szereplők dönthetnének úgy, hogy önkéntes alapon alávetik maguknak azoknak a kereteknek, amelyek révén igazolható, hogy az általuk alkalmazott MI-szolgáltatás biztonságos és megbízható.
„A címkézési rendszerben való részvétel önkéntes lenne, de ha a fejlesztő vagy az alkalmazó a címke használata mellett dönt, a követelmények rá nézve kötelező erejűek lennének.”
– fogalmaz a Bizottság.
Németország szigorúan szabályozna
A tisztán jogi kötőerő nélküli, tehát meglehetősen szabadelvű és engedékeny megoldást szorgalmazó tagállamok között olyan uniós „erős emberek” is szerepelnek, mint Franciaország, Hollandia, Dánia vagy Svédország.
Amint az fentiekből kiderül, a Bizottság hajlik arra, hogy a magas kockázatú MI esetét ide nem értve a puha jogi megoldásokat szorgalmazó tagállamok szabályozási logikájával értsen egyet, ugyanakkor
Németország erős ellenpólusát jelentheti a fenti kezdeményezésnek.
A németek ugyanis épp azt kérik számon az Európai Bizottságon, hogy a testület csupán a magas kockázatú mesterséges intelligenciát vonná szigorú szabályozás alá.
„Belügyminiszterként országom alkotmányának – így a németek adatainak – védelme is a feladataim közé tartozik, így azon túl, hogy üdvözlöm a mesterséges intelligencia innovatív erejét, kötelességem mérlegelni az esetleges biztonsági kockázatokat is – figyelemmel a hekkertámadásokra, a szabotázsakciókra és a jogosulatlan adatszivárgásokra is.
Éppen ezért elkötelezett vagyok egy önazonos európai mesterséges intelligencia kidolgozása mellett – ez a közjót szolgálja –, de ennek összhangban kell lennie a törvényeinkkel és értékeinkkel, miközben a fejlődést sem hátráltatja.”
– fogalmazott Horst Seehofer német szövetségi belügyminiszter a Bizottság fehér könyvéhez fűzött kommentárjában.
A mesterséges intelligencia kapcsán Magyarország is állást foglalt. A lehetőségeket és a kockázatokat egyaránt számba vevő, a 2020 és 2030 közötti időszakra vonatkozóan vázolt kormányzati stratégiát itt olvashatja el.
Dobozi Gergely
***
A cikk a Pallas Athéné Domeus Educationis Alapítvány támogatásával valósult meg.