A világ pénzét követeli Oroszország a Google-től
Akkora bírságot szabtak ki az amerikai cégre, ami sokkal több az egész világ össztermékénél.
Egy-egy érzékeny paraméter nem várt és nem kívánt előrejelzéseket hozhat. A Google nem politikai korrektségből, hanem pontosabb kimenetek miatt dolgozott ki a problémát hatékonyan kezelő megoldást.
„Szemét be, szemét ki – mindig ez volt az informatika törvénye, és a gépi tanulás sem kivétel. A kezdetleges MI-k csak azt tudják, amit mondunk nekik, és ha az adatokban akármilyen elfogultság van, a rendszert is megtanítjuk rá. A Google figyel, hogy az »Esélyegyenlőség« módszerrel elkerülje ezeket a kellemetlen és potenciálisan súlyos következményekkel járó szituációkat.
A gépitanulás-rendszerek alapvetően különféle adatsorok jellegzetességeit megtanuló előrejelző gépek. Új adatdarabot adunk nekik, amit több kategória közül kell egyhez rendelniük: egy képfelismerő rendszer minden egyes képhez »szedán«, »teherautó«, »busz« stb. címkét társítva tanulhatja meg a különféle gépjárművek közti különbséget.
Elkerülhetetlenek a hibák, képzeljünk csak el egy BRAT-t vagy El Camino-t – akármit is dönt a számítógép, téved, mert nincs elég adata ezekről az alulreprezentált járműtípusokról.
A tévedés következményei látszatra banálisak, de mi van, ha a komputer járművek helyett emberek közül válogat, és a kategorizálással például egy lakásbérlet alapfeltételeit kockáztatja? A közös paraméterekbe nem passzoló személyek aránytalan mértében távolodnak el a rendszer által az adatsor többi része alapján jónak megtanulttól. Pontosan így működnek a gépitanulás-rendszerek.
»Ha egy csoporthoz tartozás érzékeny tulajdonságokkal, például bőrszín, nem, fogyatékosság vagy vallás esik egybe, a szituáció igazságtalan vagy előítéletes kimenetekhez vezethet. Annak ellenére sincs az e tulajdonságokon alapuló negatív megkülönböztetést megelőző gépitanulás-módszer, hogy szükség lenne rá« – írta egy blogposztban Moritz Hardt (Google Brain).
Hardt és két kollégája tanulmányban fejtette ki, hogy hogyan kerülhetők el ezek a kimenetek. Lényege, hogy ha létezik kívánatos kimenet, amit e tulajdonságok valamelyike tévesen befolyásolhat, és ezért valaki nem érheti el, az algoritmus úgy módosít magán, hogy legyenek az adott tulajdonságot figyelmen kívül hagyó kimenetek is. Úgy gyakoroltatjuk, hogy egyenlőséget tegyen a nem-releváns tulajdonságok között.
Nem politikai korrektségről van szó, hanem arról, hogy így sokkal pontosabb az előrejelzés. Ha pedig e tulajdonságok valamelyike számít (például, ha ki akarjuk következtetni, hogy lakókörnyezete alapján milyen valláshoz tartozik valaki, vagy ha nemtől függő orvosi előrejelzést végzünk) egyszerűen betesszük az algoritmusba.
Figyelembe véve, hogy a gépi tanulás milyen gyorsan ért el sok iparágat, a Google törekvése megfontolt és követendő. Fontos, hogy ismerjük az új technológiák korlátait és a velük járó kockázatokat. Az említett probléma ugyan aprónak tűnik, de mégis fontos.”