A mesterséges intelligencia kutatói körében a 2010-es években végzett szinte valamennyi felmérésben (1, 2, 3, 4) a hivatásszerűen ezzel a területtel foglalkozó informatikusok, matematikusok, filozófusok és pszichológusok meglehetősen egyöntetűen a század közepére (2040-2060-ra) tették az emberi szintű mesterséges intelligencia megjelenését. Beszédes, hogy az összes ilyen felmérésben mindössze 5% körüli volt azoknak az aránya, akiknek határozott meggyőződésük volt (90%-nál valószínűbbnek tartották), hogy az emberi szintű mesterséges intelligencia soha nem lesz megvalósítható.
A szakértői várakozásoknál kézzelfoghatóbb fogódzó a mesterséges neurális hálózatok tanítása során elvégzett számítások mennyiségének növekedése: a 2020 májusában megjelent GPT-3 betanításához 300 trilliárd (3 x 1023) műveletet végeztek, a GPT-4-éhez ennek nagyságrendileg százszorosát (az OpenAI hivatalosan nem közöl részleteket a modell felépítéséről, méretéről, a felhasznált hardverről és adatmennyiségről). A következő százszorozódás már azt jelentené, hogy az emberi agy által egy élet során feldolgozott információmennyiség nagyságrendjének közelébe érünk.
Ezt egyrészt a rendelkezésre álló számítási kapacitás korlátozza (ha a számítógépek teljesítményének növekedése a következő években is az elmúlt évtizedekben tapasztalt ütemben folytatódik – ami persze kérdéses –, az évtized végére lehet olyan szuperszámítógép, amely kevesebb mint egy év alatt képes elvégezni ennyi műveletet), másrészt korántsem evidens, hogy a mesterséges neurális hálózatok méretének és a betanításukhoz használt adatok mennyiségének további növelése a jelenleginél számottevően értelmesebb működést eredményez (ami azt illeti, az OpenAI már három éve megjósolta, hogy a GPT típusú nyelvi modellek nagyjából a mostani méretnél elérik csúcsteljesítményüket).
Bár a GPT-4 elődeivel ellentétben már nemcsak az olyan tudásintenzív területeken teljesít jól, mint a bölcsészet-, társadalom-, természet- és orvostudomány, de az elvont gondolkodást igénylő feladatok, például a matematika vagy a logika terén is, az OpenAI vezérigazgatója, Sam Altman szerint sem a nagy nyelvi modellek méretének további növelése vezet az emberi szintű mesterséges intelligencia létrehozásához. »Azt hiszem, vége az óriási, hatalmas modellek korának. Másféleképpen fogjuk őket jobbá tenni« – mondta nemrég az MIT egy rendezvényén.