Kiengedték a szellemet a palackból? Megkongatták a vészharangot a mesterséges intelligencia alkotói

2024. június 05. 06:54

A megfelelő szabályozás hiányában akár az emberi életet is veszélyeztető, „önállósodó MI-rendszerek” is kialakulhatnak a szakértők szerint.

2024. június 05. 06:54
OpenAI CEO Samuel Altman Testifies To Senate Committee On Rules For Artificial Intelligence

Nyitókép: Win McNamee/Getty Images

Tizenhárom mesterséges intelligenciával (MI) foglalkozó szakember írt nyílt levelet, melyben felszólította a technológiát fejlesztő cégeket, hogy legyenek átláthatóbbak és támogassák a nyilvános párbeszédet. Az aláírók között az OpenAI, az Anthropic és a Google DeepMind több korábbi és jelenlegi alkalmazottja is szerepel – írta meg a Washington Post.

Az aláírók szerint ennek hiányában az MI növelheti a társadalmi egyenlőtlenségeket, felgyorsíthatja az álhírek terjedését, és akár 

önállósodó MI-rendszerek is kialakulhatnak, amelyek sok ember halálát okozhatják.”

Bár úgy vélik, hogy ezeknek a kockázatoknak a csökkentése egyszerű feladat lenne, szerintük a cégek anyagi érdekei mégis azt diktálják, hogy ne legyen könnyű őket ellenőrizni. Az érvelésük középpontjában az áll, hogy mivel az MI-ipart még nem sikerült megfelelően szabályozni, ezt a vállalatoknak saját maguknak kell megtenniük és felügyelniük kell a saját működésüket. Ennek érdekében a vezetőket arra kérik, hogy töröljék a titoktartási záradékokat, és biztosítsanak lehetőséget az alkalmazottak számára, hogy anonim módon jelezhessék a problémákat.

Az elmúlt hetekben több vezető pozícióban lévő alkalmazott is elhagyta az OpenAI-t, részben azért, mert úgy vélték, hogy a cég vezetése túlzottan a profitmaximalizálásra összpontosít, ennek érdekében pedig elhanyagolták a szükséges biztonsági intézkedéseket.

Liz Bourgeois, az OpenAI szóvivője, kijelentette, hogy a heves vita rendkívül fontos ebben az iparágban. A Google és az Anthropic nem reagáltak az újságírói megkeresésekre.

A levélírók szerint a titoktartási záradékok eltörlése azért szükséges, mert a kormányzati felügyelet hiányában csak az alkalmazottak képesek felelősségre vonni a cégeket. A jelenlegi, szivárogtatókat védő törvények csak azokra az esetekre vonatkoznak, amikor valaki illegális cselekedettel hívja fel a figyelmet fontos ügyekre, de mivel az iparág nincs megfelelően szabályozva, ezek a törvények nem vonatkoznának az MI-vel kapcsolatos szivárogtatókra.

Az aláírók között szerepel többek között Yoshua Bengio és Geoffrey Hinton, az MI „keresztapái”, valamint Stuart Russell, világhírű informatikus is.

***

Ezt is ajánljuk a témában

 

Összesen 128 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
Jacques Foche
2024. június 05. 21:12
Ha elég hülye az ember, hogy az MI kimenetét valósággá alakítani képes rendszert alkosson (pl. önfejlesztő, hibatűrő, autonóm, együttműködő gépek), akkor nem lehet kizárni, hogy az emberellenes „döntést” hoz.
istvanpeter
2024. június 05. 10:41
Először is szögezzük le nyomatékosan, hogy a Mesterséges Intelligencia teljes egészében emberi találmány és a működése is az ember parancsa és az általa biztosított - például, elektromos áram - feltételek szerint valósul meg. Viszont a rendszer kiválóan alkalmas az emberi társadalom felszámolására, valamint a világuralom és a világrabszolga társadalom megvalósítására. A háttérhatalmi maffia ezért is kelt körülötte hatalmas hisztériát és misztifikációt, mert a rendszer segítségével minden egyes ember állandóan ellenőrizhető és manipulálható, amit valamilyen sorscsapásnak igyekeznek feltüntetni.
pandalala
2024. június 05. 09:08
amúgy, már vagy egy éve kong!! csak időnként megismétlik, hogy nagyobb legyen a zaj .... és majd az EU-szintű hatalmas gondolkodók jól belerondítanak.... :-DD :-((
SzkeptiKUSS
2024. június 05. 08:49
Akiknek a vezetésével, kreativitásával megalkották az alap koncepciókat, aggódnak. A kívülállók meg kiröhögik őket. Az utóbbiak magabiztossága vajon mire épül.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!