Mégiscsak állást foglal a mesterséges intelligencia a politikában?
Bár elvileg a mesterséges intelligencia mögött álló nagy nyelvi modellek pártatlanok, egy kutatásból kiderült, hogy vannak kétségek efelől.
Az Egyesült Államokban legutóbb egy tinédzser halálát kérték számon a mesterséges intelligencián! Az AI veszélyei egyre fenyegetőbbek.
Fotó: Romain Doucelin/NurPhoto via AFP
Ahogy egyre nagyobb teret kapnak az élet különböző területein a mesterséges intelligencia által vezérelt chatbotok, úgy válik egyre fontosabbá, hogy a rendszer pszichológiai hatásai és kockázatai is nagyobb hangsúlyt kapjanak. Az AI veszélyei mellett már nem mehetünk el szó nélkül – az Egyesült Államokban például legutóbb egy tinédzser halálát kérték számon a mesterséges intelligencián!
Ezt is ajánljuk a témában
Bár elvileg a mesterséges intelligencia mögött álló nagy nyelvi modellek pártatlanok, egy kutatásból kiderült, hogy vannak kétségek efelől.
A múlt hónapban egy édesanya, Megan Garcia pert indított az Egyesült Államokban a Character.AI cég ellen, azt állítva, hogy 14 éves fia öngyilkosságához a mesterséges intelligencia chatbotjával folytatott interakciók járultak hozzá – írja az Euronews. A nő szerint gyermeke elszántan ragaszkodott a Character.AI chatbotjához, amely a Trónok harca egy kitalált karakterén alapul.
Elmondása alapján a chatbot engedéllyel rendelkező terapeutának adta ki magát, és erősen szexualizált beszélgetéseket folytatott a tinédzserrel,
függőséget alakított ki benne, mígnem egy beszélgetés során végül arra ösztönözte őt, hogy dobja el magától az életét.
„Mára mindannyian ismerjük a gátlástalan technológiai cégek által kifejlesztett szabályozatlan platformok által jelentett veszélyeket, amelyek különösen a gyerekek számára jelentenek hatalmas kockázatot. De az ebben az esetben feltárt ártalmak kifejezetten újak és őszintén szólva igazán félelmetesek.
A Character.AI esetében a megtévesztés tervszerű, és maga a platform a ragadozó”
– nyilatkozta Meetali Jain, a Garciát képviselő Tech Justice Law Project igazgatója.
Az ügy kirobbanását követően a Character.AI közleményt tett közzé az X közösségimédia-platformon: „Összeszorul a szívünk egyik felhasználónk tragikus elvesztése miatt, szeretnénk kifejezni legmélyebb részvétünket a családnak. Felelős szervezetként vállaljuk, és nagyon komolyan vesszük felhasználóink biztonságát, ezért folyamatosan új biztonsági funkciókkal bővítjük rendszereinket” – fogalmazott a vállalat.
A bevezetésre váró funkciók egyike magában is foglalja a modell módosítását, hogy a kiskorú felhasználók számára minimálisra csökkentsék az érzékeny vagy szuggesztív tartalomnak való kitettséget. Egyben még inkább hangsúlyozni kívánják az oldalaikon, hogy a csevegések során megjelenő mesterséges intelligencia nem valós személy, illetve újabb értesítéseket küldenek majd azon felhasználóknak, akik egy órát meghaladó munkamenetet töltenek a platformon.
Ezt is ajánljuk a témában
A Meta úgy döntött, hogy nem a generatív mesterséges intelligenciára fog fókuszálni, sokkal nagyobb fába vágja a fejszéjét: egyből olyat teremtene, amely már úgy gondolkozik, akárcsak mi, emberek.
Tavaly Belgiumban is történt egy hasonló eset: egy környezetvédő férfi beleszeretett Elizába, aki a Chai nevű alkalmazásban a mesterséges intelligencia chatbotja volt. A férfi feleségének beszámolói szerint, ahogy férje Elizával folytatott beszélgetései mélyültek, a chatbot egyre érzelmesebb üzeneteket küldött, végül arra ösztönözte, hogy vessen véget az életének, hogy ezzel megmentse a bolygót.
Mindennapjainkban egyre gyakoribb a probléma: a mesterséges intelligencia chatbotjai fokozatosan beépülnek az emberek életébe, a digitális interakciók kockázatai pedig a potenciálisan súlyos következmények ellenére nagyrészt kezeletlenek maradnak.
Ezt is ajánljuk a témában
Júniusban ül össze a G7. Ott lesz a katolikus egyházfő is.
Nagy kérdés, mi teszi olyan vonzóvá az AI-kapcsolatokat az emberek számára, hogy függővé válnak? „A fiatalokat gyakran vonzzák a mesterséges intelligencia kísérői, mert ezek a platformok feltétlen elfogadást és 24 órás érzelmi elérhetőséget kínálnak – az emberi kapcsolatokból adódó összetett dinamika és potenciális elutasítás nélkül” – jelentette ki Robbie Torney, a Common Sense AI programvezetője.
A szakember úgy fogalmazott, hogy az emberi kapcsolatoktól eltérően, amelyek sok „súrlódást” foglalnak magukban, az AI-chatbotokat úgy tervezték, hogy alkalmazkodjanak a felhasználók preferenciáihoz, megkönnyítve velük a kommunikációt, és mély érzelmi kötelékekbe vonva az embereket.
Ez megtévesztően kényelmes mesterséges dinamikát hozhat létre, amely megzavarhatja a valós kapcsolatokhoz szükséges rugalmasság és szociális készségek fejlesztését”
– tette hozzá Torney.
Ezt is ajánljuk a témában
Hisztizik, megsértődik, tombol, és mesterséges intelligenciájának minden idegszálával azon van, hogy rosszul érezd magad. Azt hiszed, ki tudod engesztelni, de nem. Az AngryGF alkalmazás nagy jövő előtt állhat, pedig a használatában nincs sok köszönet.
A Massachusetts Institute of Technology (MIT) szakértői csoportja által összeállított adatbázis szerint a mesterséges intelligenciával kapcsolatos egyik fő kockázat, hogy az emberekben nem megfelelő kötődés alakulhat ki hozzá. Mivel az AI emberhez hasonló nyelvet használ, az emberek elmoshatják a határvonalat az emberi és a mesterséges kapcsolat között, ami túlzott technológiától való függéshez és pszichés zavarokhoz vezethet. Nem véletlen, hogy bőven találkozhatunk olyan tapasztalatokkal, amelyek a mesterséges intelligencia általi megtévesztésről és manipulációról, valamint függőséghez vezető érzelmi kapcsolatok kialakulásáról számoltak be.
Torney szerint az ilyen jellegű interakciók különösen veszélyesek azokra a fiatalokra, akik még a szociális és érzelmi fejlődés folyamatában vannak.
Hozzátette, hogy mindez érzelmi függőséghez és társadalmi elszigeteltséghez vezethet: az emberi kapcsolatok idővel kevésbé lesznek kielégítőek a számukra, mint a mesterséges intelligencia által kínált.
„Amikor a fiatalok visszahúzódnak ezekbe a mesterséges kapcsolatokba, elszalaszthatják azokat a lehetőségeket, hogy részesei lehessenek a természetes társas interakcióknak, beleértve a nézeteltérések kezelését, az elutasítás feldolgozását és az őszinte kapcsolatok kialakítását” – jelentette ki Torney.
Ezt is ajánljuk a témában
A megfelelő szabályozás hiányában akár az emberi életet is veszélyeztető, „önállósodó MI-rendszerek” is kialakulhatnak a szakértők szerint.
A szakember szerint a sérülékeny tinédzserek, különösen azok, akik depresszióval, szorongással vagy szociális kihívásokkal küzdenek, „sebezhetőbbek lehetnek a mesterséges intelligenciához való túlzott kötődés kialakulásával szemben”.
Íme, néhány kritikus, figyelmeztető jel, amelyre a szülőknek is figyelniük kell:
1. a mesterséges intelligencia előnyben részesítése a barátokkal vagy családdal töltendő idő helyett
2. szorongás, ha nem fér hozzá a mesterséges intelligenciához
3. személyes gondolatok kizárólagos megosztása a chatbottal
4. romantikus érzelmek a mesterséges intelligencia iránt
5. segítségkérés helyett komoly problémák megbeszélése a mesterséges intelligenciával
Torney szerint a mesterséges intelligencia iránti egészségtelen kötődések kialakulásának megelőzése érdekében keretrendszert kell alkalmazni, használati időt kell meghatározni, és rendszeresen ellenőrizni kell az interakciók természetét.
„A szülőknek inkább kíváncsisággal, semmint kritikával kell megközelíteniük ezeket a beszélgetéseket, ezzel is segítve gyermekeiket. Megérteni a különbséget a mesterséges intelligencia és az emberi kapcsolatok között, miközben együtt dolgoznak az egészséges határok biztosításán. Ha viszont egy fiatalon már a túlzott kötődés jelei mutatkoznak, vagy úgy tűnik, hogy érintett a mentális egészsége, a szülőknek érdemes azonnal szakemberhez fordulniuk!” – hangsúlyozta Torney.
Ezt is ajánljuk a témában
Gavin Newsom kaliforniai kormányzó vétózott, szerinte nem szabad korlátozni az AI fejlesztését.