Ferences szerzetes figyelmeztet a mesterséges intelligencia veszélyeire

2024. február 13. 18:08

Paolo Benanti szerint nem szabad félistenként tekinteni az AI-ra.

2024. február 13. 18:08

„Egyesek bálványként, orákulumként, félistenként kezelik a mesterséges intelligenciát” – mondta Paolo Benanti ferences szerzetes a POLITICO-nak. Szerinte a legfőbb kockázat az, hogy a kritikus gondolkodást és a döntési jogkört delegálják ezekre a gépekre.

Az 50 éves szerzetes már több olyan stratégiai dokumentumot is elkészített, amely rányomta bélyegét a mesterséges intelligenciával kapcsolatos diskurzusra, ilyen a Római felhívás a mesterséges intelligencia etikájáról, amely a Szentszéknek az AI erkölcsi alapszabályainak meghatározására tett kísérlete.

Ebben a dokumentumban a mesterséges intelligencia tervezésének alapvető elvei – átláthatóság, befogadás, elszámoltathatóság, pártatlanság, megbízhatóság, biztonság és adatvédelem – találhatók, és ezek a Microsoft és az IBM technológiai óriáscégek, a világ vallási vezetői, az olasz kormány és az ENSZ római székhelyű Élelmezési és Mezőgazdasági Szervezete támogatását is elnyerték.

„A legnagyobb kockázatot az jelenti, hogy a mesterséges intelligencia titokban, nem demokratikus módon fog döntéseket hozni az emberek életéről, vagy arra lesz felhasználva”

– mondta Benanti. Hozzátéve, „ezért van szükségünk egy alulról jövő kormányzási folyamatra, amely az innovációt a fejlődés irányába tereli.”

Benantit az egyik legnyugtalanítóbb az a kilátás, hogy egyesek túlzottan a mesterséges intelligencia rendszerekre hagyatkozhatnak a legfontosabb döntések meghozatalakor „Vissza kell adnunk az embereknek azt a lehetőséget, hogy a lelkiismeretük szerint dönthessenek” – mondta.

Ezt is ajánljuk a témában

***

Nyitókép: Getty Images /  Blue Planet Studio

Mandiner éves előfizetés féléves áron!

Összesen 93 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
ügyvéd
2024. február 14. 11:14
"Ne készíts gépet az emberi elme hasonlatosságára."
tferenc-2
2024. február 14. 07:16
Döntések meghozatalánál azért nem árt használni az eszünket is, a lelkiismeretünk mellett. Pax et Bonum
GrumpyGerald
2024. február 13. 21:10 Szerkesztve
"a dokumentumban a mesterséges intelligencia tervezésének alapvető elvei – átláthatóság, befogadás, elszámoltathatóság, pártatlanság, megbízhatóság, biztonság és adatvédelem – találhatók" Ezekre valóban nagy szükség volna, viszont ezek közül úgy nagyjából pont egyiket sem lehetséges megvalósítani a kialakult technológia terén... Ugyanis öntanuló, ha jól veszem ki, csak filterekkel tudják befolyásolni (felülről belógatott szabályok arra, hogy mit ne mondjon...) Hír volt, hogy olyan nyelveken is tudott, amit sosem tanítottak neki. Mai napig erős hallucinációk gyötrik a legtöbb közismert modellt, és bődületes mértékű dezinformációt képes az emberre zúdítani. Az államközi szabályozásával nagyjából úgy 1-2000 nappal vagyunk túl a 24-edik órán és a cselekvés még láthatáron sincs; noha minden egyes eltelt nappal exponenciálisan romlanak az esélyeink. Ez nem egy vidám történet tehát... dehát manapság mi az?
polárüveg
2024. február 13. 19:43
A katonai, hírszerzési AI már most olyan dolgokra képes, amiről nem is álmodnak az emberek. Igenis tud függetlenedni, elbújni, figyelni és befolyásolni az embereket. Virtuális gólem, ami gyakorlatban is tud az életünkre hatni. Herbert Dűne előzményének univerzuma a küszöbön.
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!