Az etikai kódexek hiábavalóságáról a mesterséges intelligencia szabályozásában

2020. július 09. 15:37

A gombamód szaporodó etikai útmutatók nem megfelelő eszközei a mesterséges intelligencia (MI) szabályozásának.

2020. július 09. 15:37
Ződi Zsolt

"Nemrégiben megjelent egy fontos írás Stefan Larsson svéd professzor tollából. A Lundi Egyetem oktatója szembemenve a jelenleg divatos állásponttal azt állítja, hogy a gombamód szaporodó etikai útmutatók nem megfelelő eszközei a mesterséges intelligencia (MI) szabályozásának. Mivel magam is mélyen egyetértek ezzel a kijelentéssel, ebben a blogbejegyzésben szeretnék a svéd kollégám álláspontja mellett érvelni, és egy másik diskurzus, az „elfogulatlan (nem-diszkrimáló) MI” diskurzusának tévedéseire is rávilágítani.

Az MI-t legalább ugyanakkora szorongás veszi körbe, mint amekkora lelkesedés és várakozás. A szorongás fő forrása az a gondolat, hogy az MI – különösen ennek gépi tanuláson alapuló változata – egy bizonyos ponton túl kicsúszhat a kezeink közül és különböző sérelmeket, károkat okozhat (a munkahelyeink elvételétől a rasszista, elfogult döntéseken keresztül az emberiség pusztulásáig).  A közvélemény tele van tévhitekkel, a politika, az akadémiai szféra és a nagyvállalatok pedig buzgón igyekeznek mutatni, hogy tesznek valamit a kockázatok kezelése érdekében.

A lázas kockázatkezelés és katasztrófa-megelőzés legfontosabb eszközei jelenleg azok az etikai kódexek, amelyek közül az egyik ezzel foglalkozó gyűjtőoldal már több mint 150-et listáz. A legtöbb ilyen etikai kódex nem hosszabb egy-két oldalnál és nagyjából a jól ismert Asimov törvények első passzusát bontja ki részletesen, miszerint a robotnak nem szabad kárt okoznia emberi lényben. A különböző kódexek a lehetséges károkozások változatos formáit igyekeznek felsorolni a nem, faj, etnikum, bőrszín alapján diszkrimináló algoritmusoktól kezdve a homályos, nem érthető szempontok alapján igazságtalan vagy embertelen döntéseket hozó kódokig. A kódexek nagy része ennél a szintnél nem is nagyon megy tovább, míg más kódexek esetleg igyekeznek kissé operatívabb, technikaibb szabályokat is megfogalmazni az adatkezelésre, az adatok betöltésére, értelmezésére, az MI döntések alól mindenképpen kivett területekre, esetleg bizonyos eljárási szabályokra vonatkozóan. Az EU vonatkozó legfrissebb anyagáról (a Fehér Könyvről) blogunkban mi is írtunk már, de Európa egyébként is erős az etikai kódexekben és a szorongásban, ahogy azt az Európai Bizottság  Mesterséges Intelligenciával Foglalkozó Magas Szintű Szakértői Csoportjának Megbízható Mesterséges Intelligenciára Vonatkozó Etikai Iránymutatása is mutatja.

Larsson, részben Thilo Hagendorff, részben pedig Mark Coeckelbergh írásaira támaszkodva azzal érvel, hogy az etikai kódexek egyszerűen túl általánosak, sok pontjukon egymással ellentétes eredményekre is vezethetnek, nem veszik figyelembe a technológia sajátosságait és sok olyan elvárást is tartalmaznak, amelyeknek az MI különböző területein egyszerűen nincsen értelme. Bár tudományos írásként nem mondja ezt ki ilyen erős formában, de a lényege az, hogy ezeknek a kódexeknek bizony nem sok értelmük van.

Vegyük az első két elvet, amely szinte minden kódexben kitüntetett helyen szerepel: a „transzparencia”, és a „megmagyarázhatóság” elveit. Ez azt mondaná, hogy az MI működésének átláthatónak és elmagyarázhatónak kell lennie. Ezután pedig gondoljunk a Google rangsoroló vagy a Facebook newsfeed algoritmusára. Mindkét algoritmus csaknem bizonyosan tartalmaz gépi tanuláson alapuló elemeket és produkálhat nem várt (nem-determinisztikusnak tűnő) kimeneteket. Ugyanakkor mindkét algoritmus nemcsak egyszerűen túl bonyolult ahhoz, hogy el lehessen magyarázni, hanem ráadásul a cégek üzleti titkát is képezi, így valószínűleg még az ehhez értő szakemberek sem fogják soha megtudni, hogy mi van a „belsejükben”. A két legfontosabb algoritmusra a két legfontosabb elv tehát már mindjárt nem alkalmazható.

További gond, hogy ezeknek az általános elveknek a lefordítása a technológia aprópénzére egyáltalán nem triviális. Egy bank rámondhatja a hitelbírálati szoftverére hogy „megfelelő indokolást” nyújtott a hitelbírálati döntéshez, mert felsorolta azokat a paramétereket (személyes körülmények, anyagi helyzet, fedezet nagysága, pénzügyi előélet stb.), amelyeken a döntés alapszik. Ugyanakkor ez valójában nem tette a döntést átláthatóvá, és jól megmagyarázottá, hiszen semmit nem mondott arról, hogy a konkrét döntés során melyik paramétert hogyan, milyen mértékig és főleg milyen adatok alapján hozták meg. A többi elvvel ugyanez a helyzet: nagyon nehezen lehet megmondani, hogy hol van az a határ, ahol egy ilyen általánosan megfogalmazott követelménynek már megfelel egy MI."

 

***

A cikk a Pallas Athéné Domeus Educationis Alapítvány támogatásával valósult meg.

 

 

 

Összesen 2 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
night watch
2020. július 16. 12:02
Ha a jelenlegi tendenciák folytatódnak, a transznacionális szervezetek is outsourcolni fogják az MI-t a Cukkerbergeknek, legfeljebb néhány kívánságlistát csatolnak hozzá.
night watch
2020. július 16. 11:59
Okunk van pesszimistának lenni: a MI-t néhány transznacionális meg nagyhatalmi kafkai bürokrácia, plusz néhány Cukkerberg, meg Szergej Brin fogja irányítani.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!