Felejtsük el a szuper mesterséges intelligenciát! Kutatók szerint valószínűbb, hogy a silány MI lesz a vesztünk.
„MI-kutatóknak kínosak voltak az utóbbi évek. Képzeljük el, hogy egy csomó híres technológus és csúcskomoly tudományos szaktekintély hirtelen ráront a kutatási területünkre, és az egész emberi fajra leselkedő fenyegetésnek állítja be. Csak előre akarjuk jelezni a szövegelemzésen alapuló korrekt emoji-használatot, de jön Elon Musk, és azt mondja erről az általa szemmel láthatóan nem nagyon értett területről, hogy ez a tényleges apokalipszis.
Nem mintha számítástudósok ne, érveltek volna az MI hype ellen. Ebben a hónapban Alan Bundy, az Edinburgh Egyetem automatizált következtetéssel foglalkozó kutatója mondott nagyon érdekeset: nem az emberszerű gépi intelligencia lesz ámokfutó, hanem pont az ellenkezője, a gagyi MI a veszély. Az inkompetens, kétbalkezes gépek.
Bundy szerint az elmúlt évek legnagyobb Mi-szenzációi igencsak szűk horderejűek. Vannak őrült pénzeken fejlesztett gót és jeopardyt játszó gépeink, de az általános intelligenciához az égvilágon semmi közük. A szingularitást lineáris intelligenciamodell alapján, fokozatosan fejlődő MI-vel prognosztizálják. Csakhogy az intelligencia más. Többdimenziós térben, többféle intelligenciával, több irányba fejlődő MI-vel kellene modellezni.
A probléma, hogy a nyilvánosság nem nagyon érti, mert senki nem veszi a fáradtságot, hogy elmagyarázza. Sokan túl nagy intelligenciát tulajdonítanak szűk területre összpontosító MI-rendszereknek.
Bundy a korai 1980-as években ellenezte Ronald Reagan és Teller Ede Stratégiai Védelmi Kezdeményezését (SDI), amelyben zárt (értsd embermentes) MI-rendszer detektált és lőtt volna szét lézerrel szovjet interkontinentális ballisztikus rakétákat. Az SDI remek ötletnek tűnt a döntéshozók számára, de a döntéshozók nem értették, hogy MI pont nem volt benne. Gyakran történtek madárrajok, holdfény és hasonlók által generált hamis pozitív jelzések. És egy-egy hamis pozitív akár atomháborút is jelenthetett volna.
Az MI elszigetelten fog fejlődni, új és bámulatos gépektől szörnyülködnek majd a vészmadarak, látván mennyire jól teljesítenek szűk szegmensekben. Viszont akármi mással kell foglalkozniuk, hihetetlenül ostobák maradnak.
A kockázat ugyanaz, mint az 1980-as években volt. A közvélemény és a döntéshozók ledöbbenek sakkban remeklő gépektől, de nem veszik észre, mekkorát buknak, ha általánosabb feladatot kellene megoldani, vagy az emberi érzékeléshez hasonlót várnak tőlük.”