Hardt és két kollégája tanulmányban fejtette ki, hogy hogyan kerülhetők el ezek a kimenetek. Lényege, hogy ha létezik kívánatos kimenet, amit e tulajdonságok valamelyike tévesen befolyásolhat, és ezért valaki nem érheti el, az algoritmus úgy módosít magán, hogy legyenek az adott tulajdonságot figyelmen kívül hagyó kimenetek is. Úgy gyakoroltatjuk, hogy egyenlőséget tegyen a nem-releváns tulajdonságok között.
Nem politikai korrektségről van szó, hanem arról, hogy így sokkal pontosabb az előrejelzés. Ha pedig e tulajdonságok valamelyike számít (például, ha ki akarjuk következtetni, hogy lakókörnyezete alapján milyen valláshoz tartozik valaki, vagy ha nemtől függő orvosi előrejelzést végzünk) egyszerűen betesszük az algoritmusba.
Figyelembe véve, hogy a gépi tanulás milyen gyorsan ért el sok iparágat, a Google törekvése megfontolt és követendő. Fontos, hogy ismerjük az új technológiák korlátait és a velük járó kockázatokat. Az említett probléma ugyan aprónak tűnik, de mégis fontos.”