Az AI veszélyei közé korábban nem látott kockázatok férkőztek be – egy fiatalember már áldozatul is esett!
Az Egyesült Államokban legutóbb egy tinédzser halálát kérték számon a mesterséges intelligencián! Az AI veszélyei egyre fenyegetőbbek.
Nagyon fájó a szeretteink elvesztése. Sokszor arra gondolunk, bárcsak elköszönhettünk volna, vagy beszélhetnénk még velük, akár utoljára. A mesterséges intelligencia korában pedig ez az élmény csak egy karnyújtásnyira van. Az viszont már más kérdés, hogy ez mennyire etikus.
Jason Rohrer amerikai programozó 2020 körül kezdett el foglalkozni a ChatGPT-vel, akkor még a 2-es verzióval. Nagyon zavarta, hogy nem lehet vele párbeszédet folytatni, ezért úgy döntött, megpróbálja kicselezni a felületet azért, hogy a felhasználók képesek legyenek csevegni a géppel. Emellett épített hozzá néhány különböző személyiségű karaktert, sőt azt is megoldotta, hogy a felhasználók saját maguk is alkothassanak ilyeneket.
Azonban a felhasználók egy része igen meghökkentő módon használta ki az új lehetőséget: elhunyt szeretteik karakterét hozták létre.
Rohrer igencsak meglepődött ezen. Azonban elemezve a történteket arra jutott, hogy olyan emberek használják a programot erre, akiknek traumatikus módon távoztak a szeretteik.
A Financial Times szerint ez a metódus segíthet a gyászfeldolgozásban. Ez valahol érthető, hiszen gyakran bánjuk, hogy nem köszöntünk el tőlük, vagy azt, hogy ők már nem az életünk részei. Egy szimulált személyiséget létrehozva azonban bárhol és bármikor újra „beszélhetünk velük”, vagy legalábbis egy hozzájuk hasonlóan viselkedő és reagáló mesterséges személlyel.
Morbid megközelítés, de gyakorlatilag a halott nagymamánkat hordhatjuk a zsebünkben, és elővehetjük, amikor épp nehezebben viseljük a hiányát. Jobban belegondolva ez akár az elengedést is megnehezítheti és még tovább húzhatja a gyászidőszakot.
A másik fontos kérdés, hogy ez vajon mennyire etikus. Mennyire biztos, hogy valóban úgy viselkedik a mesterséges énük, mint a valódi? Akárhogyan is nézzük, a gép nem gondolkodik, csupán számol. Ha sértő vagy hibázik, nem fogja magát kijavítani, ha azt nem jelezzük neki. Tehát minden esély megvan arra, hogy a szerettünkről alkotott képet megváltoztassa, és teljesen más stílusban válaszol, mint ahogyan azt a valóságos tette volna.
Bár Rohrer véletlenül alkotott egy halottakat szimuláló szoftvert, valójában már jó ideje iparág épül erre. Egyes vállalatok igen meghökkentő szolgáltatást kínálnak: digitálisan megalkotják az egyik elvesztett családtagot úgy, hogy a többiek beszélgethessenek vele és láthassák akár egy VR-szemüvegen keresztül.
Korábban a Microsoft egy olyan ötletet szabadalmaztatott, amelyben beszélgető chatbotot hozott volna létre az emberek közösségimédia-adatainak felhasználásával. Bár ez az elképzelés nem valósult meg, a terv szerint egy chatbotot tanítottak volna be, amely úgy beszélne, mint az adott személy.
Jelenleg azonban még nem tartunk ott, hogy halálunk előtt hozzájárulhassunk vagy megtagadhassuk azt, hogy a személyiségünket később mesterségesen lemásolják. Vagyis azok, akiket most mesterségesen megalkotunk, lehet, hogy valójában nem szeretnék azt, hogy ez így történjen. Az új világ aranya, az adataink pedig így ingyen kerülnek a cégek kezébe, amiket ebben az esetben felhasználhatnak a hozzájárulásunk nélkül.
És mivel még nem kell a beleegyezésünk ahhoz, hogy megalkossanak minket, vagy mi létrehozzuk így szeretteinket, valójában nem tilos. Gyakorlatilag az etika szab határt annak, hogyan döntünk.