Diszkriminációnak és faji alapú profilalkotásnak adott zöld utat a holland kormányzat, amikor 2013-ban úgy döntött, hogy a gyermekek után járó állami támogatások rendszerét algoritmusokra bízza – tárta fel az Amnesty International nevű nem kormányzati szervezet (NGO) friss, „Idegengyűlölő gépek” (’Xenophobic Machines’) című jelentésében. A nemzetközi sajtóban „holland családtámogatási botrányként” futó ügy lényege, hogy a kormány hosszú éveken keresztül olyan mesterséges intelligencián alapuló algoritmusokat alkalmazott, amelyek
magas kockázatúnak ítéltek bizonyos „nem holland” társadalmi csoportokat.
Az érintetteket az adóhatóság könnyebben minősítette adócsalónak, annak minden hátrányos jogkövetkezményével együtt.
Október 18-án a Velencei Bizottság is közzétette a maga elemzését a hollandiai családtámogatási botrányra vonatkozóan. Ebben a testület leírja, hogy „habár a családtámogatási ügy a kormányzat összes ágát komolyan és szisztematikusan érinti, úgy tűnik, hogy a jogállamiság követelményei (…) érvényesültek Hollandiában. (…) A kormányzat reakciója azonban sokkal több időt vett igénybe, mint amennyi indokolt lett volna, emiatt komoly kár érte az érintett családokat; azok pedig, akik a problémára felhívták volna a figyelmet, komoly ellenállásba ütköztek.”
A családokat ért kár jelentőségét talán megfelelően érzékelteti, hogy amellett, hogy az érintetteknek akár több százezer eurós nagyságrendben kellett pénz visszafizetni az államnak,
csak 2015 és 2020 között 1115 gyermeket is elmozdítottak a családokból
– derítette ki a holland központi statisztikai hivatal.
Több ezer ember életét tette tönkre a holland adóhatóság által alkalmazott technológia, miközben a feltárt hibákat még mindig nem javították ki, ennek megfelelően akár további jogsérelmek várhatók annak dacára, hogy a kormányzat megkezdte az érintettek kártalanítását.
A holland családsegélyezési rendszerben alapvetően a szülők és a gondviselők viselik a gyermekneveléssel kapcsolatos anyagi terheket. Ezt egészíti ki a holland kormány különböző családsegítési konstrukciókkal, amelyek összegét a szülők, gondviselők bevételéből kiindulva állapítják meg. Minden Hollandiában dolgozó vagy tanuló személy jogosult a gyermeknevelési segélyre amennyiben a gyermekét államilag regisztrált óvodába, napközibe íratta be.
Az alacsony jövedelmű háztartások a gyermeknevelési költségek akár 96 százalékára is jogosultak, míg a magas jövedelmű háztartások esetében ez az arány nagyjából 33 százalék. Ez elviekben azt jelenti, hogy a rendszer kijátszható azzal, ha a jogosultak valótlan adatokat szolgáltatnak a jövedelmi viszonyaikat, vagy a gyermek státuszát illetően.
Éppen ezért a 2013-as módosítást követően az adóhatóságok egy kockázatelemzésen alapuló öntanuló algoritmus útján kívánták csökkenteni a csalás veszélyét.
A rendszer kockázati pontokkal sújtotta a „nem holland” kérelmezőt.
Pont járt többek között a jogosult állampolgárságáért is. A kérelemben az állampolgárságra vonatkozó kérdés igen/nem válaszlehetőségeket tartalmazott. Az a személy, aki a „nem” lehetőséget pipálta be, több kockázati pontot kapott, következésképpen az algoritmus szerint a kormányzati szemében a „nem holland” alanyok kockázati tényezőt jelentenek.
Az Amnesty International szerint ez a megoldás önmagában diszkriminatívnak számít. A pontozás útján ugyanis pusztán a holland állampolgárság ténye eleve kedvezőbb helyzetbe hozta a kérelmezőt, mint az adott esetben szintén rossz anyagi helyzetben lévő nem holland embertársát.
Ami még ennél is súlyosabb jogsérelmet feltételez, az az, ami az elvi feltételek gyakorlati megvalósulásával járt együtt. A származás alapú kockázatelemzés ugyanis számos visszaélésre és csalásra adott alapot Hollandiában, az adóhatóság pedig idővel kiemelt figyelmet kezdett fordítani a „nem holland” kérelmezők szűrésére. Hogy ezt még hatékonyabbá tegye, az algoritmus-alapú rendszert profilalkotásra is használta – ami eleve is tiltott a hatályos uniós adatvédelmi szabályozás értelmében (is), pláne, ha mindez diszkriminatív aktusoknak ágyaz meg.
A kockázatosként megjelölt kérelmező ügyével később már az adóhatóság szakemberei is foglalkozhattak. Történt például, hogy a rendszer nagyjából 120-150 ghánai származású kérelmezőt magas kockázatúnak ítélt, ennek eredményeképpen pedig a holland adóhatóság mind a 6047 ghánai származású kérelmezővel szemben gyanakvóvá vált. Fény derült arra is, hogy az adóhatóság munkatársai eleve becsmérlően fogalmaztak bizonyos népcsoportokkal kapcsolatban: a karibi térségből származó családokra csak úgy hivatkoztak, mint az „antilláki fészkek”.
Miután tehát a rendszer elkezdte kijelölni a „magas kockázatú” társadalmi csoportokat, az adóhatóság, érezve a nyomást, e csoportok megregulázásába kezdett.
Egyfelől magára a kockázatra kellett reagálni, másfelől pedig a rendszer működtetését pénzügyileg is fedezni kellett.
Éppen ezért az adóhatóság a kockázatosnak ítélt csoportok soraiban kezdett el „tisztogatni”, visszakövetelve a vádak szerint jogtalanul kifizetett támogatást. A több ezer (bizonyos esetekben akár százezer) eurós összegeket is elérő, visszafizetést elrendelő határozatok elleni jogorvoslat az esetek igen jelentős részében hatástalannak bizonyult.
A fentiek a Transparency International értesülései szerint éveken keresztül a háttérben zajlottak, köszönhetően az algoritmus öntanulási mechanizmusainak. A mesterséges intelligencia területén alkalmazott úgy nevezett „fekete doboz” megoldás lényege, hogy az MI működtetője nem foglalkozik a rendszer belső működésével. Másképp fogalmazva:
a bemeneti oldalon csak az információ, a kimeneti oldalon pedig csak a döntés szerepel, maga a döntési folyamat pedig a külső szemlélő számára láthatatlan.
Ezen elv szerint működött a holland adóhatóság kockázatértékelési algoritmusa is – a „jó kormányzás”, a jogállamiság és a legalitás elvének figyelmen kívül hagyása mellett.
Reinier van Zutphen ombudsman, elismerve, hogy Hollandiában a fentiek éveken keresztül ez volt a gyakorlat, még márciusban figyelmeztette a kormányt arra, hogy a hatóságoknak sokkal komolyabban kell vennie az etnikai alapú profilalkotást. Zutphen az etnikai profilalkotás 159 áldozatának esetét vizsgálva jutott a fenti következtetésekre.
Az eset Mark Rutte és liberális kormányának lemondásához vezetett még 2021 januárjának elején. Az erről szóló hírt itt olvashatja el.
Kép: Fanatic Studio / Gary Waters / SCIEN / FST / Science Photo Library via AFP
Dobozi Gergely