A londoni DeepMind megoldást talált a legígéretesebb gépitanulás-technológiák egyik főproblémájára, arra a tényre, hogy a szoftverek képtelenek emlékezni. MI-rendszerek így egyetlen cél kivitelezése helyett könnyebben alkalmazhatók többféle feladatra. Feladatok abszolválásánál végre lehetővé válik az ismeretmegosztás.
Fordításhoz, képek osztályozáshoz és képgeneráláshoz az ideghálók a legjobb gépitanulás-technikák. Van azonban egy súlyos problémájuk: folyamatos jelenben működnek, mihelyst a háló kap egy új adatot, felülírja a korábban megtanultakat.
Idegkutatók szerint az emberi agyban az emlékezet azért működhet, mert úgy tűnik, alacsonyabb a valószínűsége, hogy az egyedi képességek szempontjából fontos idegsejtek közötti kapcsolatokat kisebb valószínűséggel „huzalozzák át.” Erre a szinaptikus megszilárdításként ismert jelenségre alapozva dolgozik a DeepMind az ideghálók emlékezetén.
A DeepMind új algoritmusa súlyozza az idegháló adott feladaton belüli minden egyes kapcsolatát, és így kiderül, melyek nagyon és melyek kevésbé fontosak. Ha egy adott csomópont átalakítható, csökken a hozzárendelt érték, és így a hálózat új feladat megtanulásakor sem felejti el korábbi ismereteit.
Az algoritmust klasszikus Atari-játékokon tesztelték. A DeepMind korábban fejlesztett humán játékosoknál jobban teljesítő MI-ágenst ezekre a játékokra. Viszont ez az ágens csak egy játékot tanult meg egyszerre, és ha később dolga volt vele, újra meg kellett tanulnia, és így tovább.
Az új szoftver mind a tíz játékot megtanulta, és valamennyiben emberközeli szintű teljesítményre képes. Annyira viszont nem jó, mint a speciálisan csak egy játékra fejlesztett algoritmusok.