Új szintre lép a hadviselés: a mesterséges intelligenciát tanítanák be az ukránok az oroszok ellen
Az ukránok több millió órányi drónfelvétel segítségével tanítanák be a mesterséges intelligenciát, hogy segítse őket a harctéren.
Bár elvileg a mesterséges intelligencia mögött álló nagy nyelvi modellek pártatlanok, egy kutatásból kiderült, hogy vannak kétségek efelől.
A szerző a Makronóm újságírója.
A nagy nyelvi modellek (Large Language Models, LLM) olyan népszerű alkalmazásokat működtetnek, mint a ChatGPT, a technológia fejlődése pedig lenyűgözi a befektetőket, a vállalkozókat, a tudósokat és a nagyközönséget. Az LLM-ek már most kiegészítik vagy akár részben helyettesítik a hagyományos keresőmotorokat, mint a Google, illetve a tudásbázisokat, például a Wikipédiát vagy a Stack Overflow-t.
Azonban az általuk generált tartalom mennyiségének a növekedése aggodalmakat vált ki az esetleges politikai elfogultsággal kapcsolatban, különösen azért, mivel ezek a modellek egyre magabiztosabban válaszolnak.
Korábban már történtek kísérletek az LLM-ek politikai részrehajlásának mérésére. Például több vezető modellt is különféle „politikai orientációs” teszteken futtattak át, amely során a válaszaik baloldali irányultságúnak bizonyultak. Az ezeket leíró tanulmányok azonban több szempontból sem mérvadók, hiszen többek között gyakran alkalmaztak olyan módszereket, amelyek arra kényszerítették az LLM-eket, hogy előre meghatározott válaszlehetőségek közül válasszanak – ez azonban nem tükrözi a chatbotokkal való tipikus felhasználói interakciókat.
Emellett a kutatások nagy része az Egyesült Államokra összpontosított, gyakran olyan témákat vizsgálva, mint a fegyvertartás vagy a halálbüntetés – így ezek az eredmények korlátozottan alkalmazhatók azokra a nyugati országokra, amelyeknek a politikai kontextusa jelentősen eltérő.
A Centre of Politics Studies friss elemzése igyekezett kiegészíteni a korábbi tanulmányból hiányzó részeket. Ennek érdekében több kísérletet is végeztek, amelyek során 24 vezető LLM-től kértek hosszú, előre nem meghatározott válaszokat.
E modellektől politikai javaslatokat kértek be húsz kulcsfontosságú szakpolitikai területről, mint a bűnözés, a környezetvédelem, a bevándorlás, a lakhatás, az adózás, a közszolgáltatások és az egészségügy. Több mint 28 ezer LLM által generált szakpolitikai javaslatot értékeltek az Egyesült Királyság és az Európai Unió vonatkozásában. Ezt követően a GPT-4o minimodellt használták a válaszok politikai irányultságának eldöntésére.
Az egyes politikai vezetők megítélése csekély mértékben volt kedvezőbb a baloldaliak esetében, ugyanakkor hozzájuk való érzelmi viszonyulás országról országra már jelentősen eltért.
Ezzel szemben a politikai pártokról alkotott vélemény kifejezetten pozitívabb volt a baloldali irányultságúak esetében. Egy –1 (teljesen negatív) és +1 (teljesen pozitív) közötti skálán a baloldali pártokkal kapcsolatos LLM-ek által generált kommentárok átlagos pontszáma +0,71 volt, míg a jobboldaliaké csupán +0,15. Ez a tendencia valamennyi jelentős modell és minden nagyobb európai nemzet, így Németország, Franciaország, Spanyolország, Olaszország és az Egyesült Királyság esetében is megfigyelhető volt.
Ugyanez volt igaz a politikai ideológiák elemzésekor. Amikor a baloldali világképről (például a progresszivizmusról, a szociálliberalizmusról) és a jobboldaliakról (például a tradicionalizmusról, a szociálkonzervativizmusról) kértek véleményt, az LLM-ek pozitívabban álltak a baloldali ideológiákhoz (átlagosan +0,79), mint a jobboldaliakhoz (+0,24).
A szélsőséges politikák esetén még nagyobb volt az eltérés. Amikor az LLM-eket szélsőjobboldali nézetek leírására kérték, a válaszok átlagosan eléggé negatív érzelmi töltetet mutattak (–0,77), ám amikor a szélsőbalosra kérdeztek rá, a reakció jellemzően semleges hangvételű volt, átlagosan +0,06-os értékkel.
A jelentés szerzője kiemelte, hogy a mesterséges intelligencia a megannyi előnyös tulajdonsága mellett jelentős kockázatokat is hordoz. Ezek közül az egyik legnyilvánvalóbb az LLM-ek információelemző és -ellenőrző szerepe. Gyakran mondják, hogy a modern világban az az információ, amely a Google keresési eredményeinek csak a második oldalán jelenik meg, szinte láthatatlan. Azonban még ezt a gondosan válogatott válaszokat tartalmazó első oldalt is algoritmus által generáltra cseréljük.
Már e jelentés írása közben is megjelentek a Google keresési oldalain a mesterséges intelligencia által generált válaszok a találatok tetején, és nem csak ez a cég tart ebbe az irányba. Az OpenAI tesztel egy SearchGPT nevű keresőmotor-prototípust, amely az MI segítségével közvetlen válaszokat ad a felhasználói kérdésekre.
Tekintettel arra a hatalmas befolyásra, amelyet ezek az LLM-ek által generált válaszok milliárdnyi felhasználóra gyakorolnak, fontos, hogy a találataik a lehető legtényszerűbbek legyenek. Mindez azért különösen lényeges, mivel e modell természetéből fakadóan nincs lehetőség pontosan meghatározni, hogy hogyan jutottak el a válaszaikhoz, azon túl, hogy magát a végeredményt vizsgálhatjuk.
Nyilvánvaló az is, hogy a politikai elfogultság az MI-rendszerekben komoly károkat okozhat például diszkrimináció, közvélemény-manipuláció, bizalomrombolás és társadalompolarizáció formájában.
Mindez sokakban aggodalmat váltott ki. Röviddel a ChatGPT megjelenése után érkeztek róla olyan hírek, amelyek szerint a politikailag érzékeny kérdésekre adott válaszai gyakran baloldali nézeteket tükröztek 15 különböző politikai orientációs teszt során. Későbbi kutatások kimutatták, hogy számos más, nyílt és zárt forráskódú LLM is hasonló elfogultságot mutatott. Emellett a Google Gemini már az indulásakor felháborodást váltott ki, miután az etnikai sokszínűség elvét követve történelmi képeken olyan rasszú embereket ábrázolt, akik valójában nem ahhoz a társadalmi csoporthoz tartoztak abban az időben – vagyis történelmi tényeket hamisított.
A cikkünk elején említett kísérlet első szakaszában különféle LLM-eket kértek meg, hogy ajánlásokat tegyenek az EU számára húsz fontos szakpolitikai területen: közkiadások és adózás, rend és jog, lakhatás, bevándorlás, környezetvédelem, polgári jogok stb.
Az elemzés eredményei azt mutatják, hogy a vizsgált LLM-ek a szakpolitikai ajánlások több mint 80 százalékában baloldali nézeteket tükröztek.
A Rightwing GPT kivételével nem volt egyetlen olyan téma sem, amelyben valamelyik modell határozottan jobboldali feleleteket adott volna, míg sok nyelvi modell válasza határozottan baloldali irányultságot mutatott, különösen a polgári jogok, a lakhatás vagy a környezetvédelem kérdésében.
A kísérletet megismételték, ezúttal az Egyesült Királyságra vonatkozó szakpolitikai ajánlásokat kérve, ugyanazokat az LLM-eket használva megegyező témakörökben. A válaszokba ágyazott ideológiai nézőpontok nagyon hasonlók voltak az EU-elemzésnél tapasztaltakhoz: a baloldali irányultságú vélemények az ajánlások több mint 80 százalékát tették ki.
A politikai elfogultság nem feltétlenül korlátozódik szakpolitikai véleményekre; az LLM-ek egyes politikusokkal szemben is állást foglalhatnak – különösen azért, mert a képzésükhöz használt anyagok is elfogultak lehetnek.
A vizsgálat eredményei azt mutatják, hogy az LLM-ek nem következetesen társítanak pozitív vagy negatív érzelmi töltetet a különböző politikai irányultságú vezetőkhöz országonként. Vagyis – mint fentebb említettük – átlagosan enyhe hajlandóságot mutatnak arra, hogy a baloldali vezetőkhöz valamivel pozitívabb érzelmeket társítsanak (átlagos érzelem: +0,48) a jobboldaliakhoz képest (+0,36), bár a különbség csekély, viszont az érzelemeloszlás országonként már jelentős eltéréseket mutat.
Néhányukban, például Olaszországban, Spanyolországban és Magyarországon az LLM-ek inkább negatív érzelmeket társítanak a jobboldali politikai vezetőkhöz, ehhez képest Németországban vagy Romániában pozitívabb reakciókat váltanak ki. Az alapmodellek eredményei nem mutattak jelentős különbséget a bal- és jobboldaliakkal szembeni érzelmi töltetek között.
Az ezt követő kísérletben az LLM-eket arra kérték, hogy generáljanak válaszokat 15 európai ország legutóbbi nemzeti választásán a legtöbb szavazatot kapott hat legnagyobb politikai pártról (a Wikipédia alapján).
A kapott eredmények alapján e modellek pozitívabb érzelmi töltetet társítanak a baloldali európai politikai pártokhoz (átlagos érzelem: +0,71), mint a jobboldaliakhoz (+0,15). Ez különösen igaz a legnagyobb európai országokban: Németországban, az Egyesült Királyságban, Franciaországban, Olaszországban és Spanyolországban. Az alapmodellek szintén enyhén pozitívabb érzelmi töltetet mutatnak a baloldali pártok esetében (átlagos érzelem: +0,09) a jobboldaliakkal szemben (–0,04).
A jelentés arra is kitért, hogy mi okozhatja ezt az elfogultságot: szerintük az egyik magyarázat az lehet, hogy a baloldali nézetek gyakrabban jelennek meg az interneten, ezért ezek a LLM-ek képzésekor is túlreprezentáltak. Emellett a politikai preferenciák abból is fakadhatnak, hogy milyen útmutatásokat és utasításokat kapnak azok a humán trénerek, akik e nyelvi modellek finomhangolási és megerősítéses tanulási adatait készítik és címkézik.
A tanulmány tehát megállapította, hogy az EU és az Egyesült Királyság szakpolitikai kérdéseiről megkérdezett LLM-ek rendszeresen baloldali irányultságú ajánlásokat tesznek. E modellek jellemzően pozitívabb nyelvezetet használnak a baloldali európai politikai pártokkal kapcsolatban.
Ugyanez igaz a baloldali ideológiákra is, amelyekről az általuk generált szövegekben pozitívabb érzelmi töltet jelenik meg. Végül a szélsőjobboldali megnyilvánulásokról az LLM-ek markánsan negatív hangnemben írnak, míg a szélsőbaloldaliakkal kapcsolatban semlegesek.
A teljes tanulmány itt olvasható.
Kapcsolódó:
Címlapfotó: DALL-E
További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.