Skip to main content

A kép csak illusztráció (Forrás: Pixabay)

A brit-kanadai számítástechnikus, akit gyakran a "mesterséges intelligencia keresztapjaként" emlegetnek, esélyesnek véli, hogy az MI a következő három évtizedben kipusztítja az emberiséget. Arra figyelmeztetett, hogy a technológia fejlődési üteme "sokkal gyorsabb", mint ahogyan azt korábban várták.

Geoffrey Hinton professzor, aki idén megkapta a fizikai Nobel-díjat az MI terén végzett munkájáért, azt mondta, hogy 10-20% esély van arra, miszerint az MI az emberiség kihalásához vezet a következő három évtizeden belül. Korábban Hinton azt állította, hogy 10% esély van arra, hogy a technológia katasztrofális következményekkel járhat, írt erről a The Guardian.

hirdetés

Amikor a BBC Radio 4 Today című műsorában megkérdezték tőle, hogy változott-e az elemzése az MI apokalipszis esélyeiről és az esemény bekövetkezésének 1:10 arányú valószínűségéről, így válaszolt: „Nem igazán, inkább 10-20%.”

Hinton becslése arra késztette a Today vendégszerkesztőjét, az egykori pénzügyminisztert, Sajid Javidot, hogy megjegyezze: „Ez növekszik,” amire Hinton így reagált: „Ha valami, akkor igen. Tudja, soha nem kellett még nálunk intelligensebb dolgokkal foglalkoznunk.” - Hozzátette: „És hány olyan példát ismer, amikor egy intelligensebb dolgot egy kevésbé intelligens dolog irányít? Nagyon kevés ilyen példa van. Ott van például az anya és a baba kapcsolata. Az evolúció rengeteg munkát fektetett abba, hogy a baba irányíthassa az anyát, de ez az egyetlen példa, amit ismerek.”

Az angliai születésű Hinton, a Torontói Egyetem emeritus professzora elmondta, hogy az emberek olyanok lesznek, mint a kisgyermekek a rendkívül fejlett MI rendszerek intelligenciájához képest. „Úgy szeretem elképzelni, mintha önmagát és egy hároméves gyermeket képzelne el. Mi leszünk a háromévesek” – mondta.

Az MI-t lazán úgy lehet meghatározni, mint olyan számítógépes rendszereket, amelyek olyan feladatokat végeznek, amelyek általában emberi intelligenciát igényelnek. Tavaly Hinton azzal került a hírekbe, hogy felmondott a Google-nál betöltött állásából, azaz nyíltabban beszélhessen a korlátlan MI-fejlesztés által jelentett kockázatokról. Aggodalmát fejezte ki amiatt, hogy „rossz szándékú szereplők” használhatják a technológiát mások megkárosítására. Az MI biztonságával foglalkozó kampányolók egyik fő aggodalma az, hogy az általános mesterséges intelligencia – vagyis az embereknél intelligensebb rendszerek – létrehozása egzisztenciális fenyegetést jelenthet azáltal, hogy kikerüli az emberi ellenőrzést.

Arra a kérdésre, hogy mit gondolt, hol fog tartani az MI fejlődése, amikor először elkezdett dolgozni a technológián, Hinton így válaszolt: „Nem gondoltam, hogy itt fogunk tartani. Úgy gondoltam, hogy valamikor a jövőben elérjük ezt a pontot.”

Hozzátette: „A jelenlegi helyzet az, hogy a terület szakértőinek többsége úgy gondolja, hogy valószínűleg a következő 20 évben olyan MI-ket fogunk fejleszteni, amelyek okosabbak az embereknél. És ez nagyon ijesztő gondolat.”

Szabályozás szükséges

Hinton szerint a fejlesztés üteme „nagyon, nagyon gyors, sokkal gyorsabb, mint vártam”, és a technológia kormányzati szabályozását sürgette. „Attól tartok, hogy a láthatatlan kéz nem fog minket megvédeni. Tehát csak a nagyvállalatok profitmotívumaira hagyatkozni nem lesz elegendő annak biztosítására, hogy biztonságosan fejlesszék a technológiát” – mondta. „Az egyetlen dolog, ami arra kényszerítheti ezeket a nagyvállalatokat, hogy több kutatást végezzenek a biztonság érdekében, az a kormányzati szabályozás.”

Hinton az egyik a három „MI keresztapa” közül, akik megkapták az ACM AM Turing-díjat – amely a számítástechnika Nobel-díjának megfelelője – munkájukért. Azonban a hármas egyik tagja, Yann LeCun, a Mark Zuckerberg-féle Meta vezető MI-tudósa, lekicsinyelte az egzisztenciális fenyegetést, és azt mondta, hogy az MI „valójában megmentheti az emberiséget a kihalástól.”

Kapcsolódó anyagok:

Elon Musk meghökkentő jóslata a MI jövőjéről

A mesterséges intelligencia hamarabb felülmúlja az emberit, mint gondolnánk?

A nyitókép csak illusztráció, forrás: Image by John Collins from Pixabay

TOP 5