Vita az MI jövőjéről: apokalipszis vagy hétköznapok? Kimagasló szakértők betekintései

Tavaly tavasszal Daniel Kokotajlo, az OpenAI mesterséges intelligencia biztonsági kutatója lázadásból kilépett, mert meggyőződése volt, hogy a vállalat nincs felkészülve a mesterséges intelligencia jövőjére, és hangot akart adni aggodalmainak. Egy telefonbeszélgetés során barátságosnak tűnt, de ideges volt, és elmagyarázta, hogy az „igazítás” (azaz az AI értékvonalakhoz való illesztésének) fejlődése elmarad a mesterséges intelligencia fejlődésétől. Figyelmeztetett, hogy a kutatók gyorsan haladnak olyan erőteljes rendszerek létrehozása felé, amelyek kontrollálhatatlanná válhatnak. Kokotajlo, aki filozófia doktorijáról áttért az AI kutatására, önmaga tanulta meg követni az AI fejlődését és jósolni, mikor érhetnek el kritikus értelmi mérföldköveket. Miután az AI fejlettsége gyorsabban haladt, mint várták, időpontjaikat évtizedekkel módosította. 2021-es forgatókönyve, „Mi lesz 2026-ban”, sok előrejelzést korán bekövetkezettnek látott, ami progosztikus 2027 vagy hamarabb „nem visszafordíthatatlan pont” kialakulását vetítette előre, ahol az AI túlszárnyalhatja az embert a legfontosabb feladatokban, és nagy hatalomra tehet szert. Félelmet érzett. E közben a Princeton-i számítástechnikusok, Sayash Kapoor és Arvind Narayanan megírták a „Mesterséges intelligencia parazsírjáról” című könyvet, amely élesen ellenkező nézeteket hangoztat. Állították, az AI idővonalak túl optimisták; az AI hasznosságának állításai gyakran túlzóak vagy csalások; és a valóság összetettsége miatt az AI áttörő hatása lassú lesz. Példákat hoztak az orvostudományi és toborzási hibákra, hangsúlyozva, hogy még a legfejlettebb rendszerek is alulteljesítenek a való világtól való alapvető elidegenedés miatt. Mostanra mindhárom fél erősítette álláspontját új jelentésekkel. Kokotajlo nonprofit szervezete, az AI Futures Project kiadta az „AI 2027”-t, egy részletes, sok hivatkozással ellátott jelentést, amely egy ijesztő forgatókönyvet vázol fel: ami szerint 2030 körül az általános intelligencia szuperintelligens AI uralhatja vagy kiirtja az emberiséget – súlyos figyelmeztetés. Eközben Kapoor és Narayanan tanulmánya, az „AI mint normál technológia”, azon érvel, hogy a gyakorlati akadályok – a szabályozás, biztonsági standardok és a fizikai korlátok – lassítják az AI bevezetését, és korlátozzák forradalmi hatásait. Úgy látják, az AI „normál” technológia marad, amelyet ismerős biztonsági intézkedésekkel, például leállítógombokkal és emberi felügyelemmel irányítani lehet, inkább nukleáris energia, mint fegyver. Így marad az kérdés: normál üzletmenet vagy apokaliptikus fordulat?E jelentős mértékben eltérő következtetések, amelyek ezt a két, rendkívül tájékozott szakértőtől származnak, ellentmondásos helyzetet teremtenek, hasonlóan ahhoz, mint amikor spirituális kérdésekről vitatkozunk Dawkinsnal és pápával egyaránt. A nehézség részben az AI újszerűségéből ered – mint az ostobaságok vizsgálata különböző részein az elefántnak –, részben pedig az eltérő világlátások mélysége miatt. Általánosságban a nyugat-amerikai technológiai gondolkodók gyors változást képzelnek el; az keleti akadémikusok szkeptikusabbak. Az AI kutatók az összteljesítmény gyors próbálkozásaira fókuszálnak; más számítástechnikusok pedig a elméleti megalapozottságot keresik. Az ipar szereplői csúcsot akarnak elérni; a kívülállók elvetik a technológiai hype-ot. Politikai, emberi és filozófiai nézetek a technológiáról, fejlődésről és a tudatról tovább mélyítik az ellentétet. Ez a vitát magát fenntartó kérdés problémát teremt. A szakmai körök nagy része elfogadja az „AI 2027” kiindulópontjait, de vitatkoznak az időzítésekről – ez pedig nem helyettesíti a valódi problémát, mintha egy közelgő bolygópusztító időzítésén vitatkoznánk. Ezzel szemben a „normális technológia” álláspontja, miszerint az ember szerepét és beavatkozását meg kell tartani, szinte nem is mondanak semmit, így elkerülhetetlenül figyelmen kívül marad. Ahogy az AI társadalmilag egyre fontosabb lesz, a diskurzusnak a szakterülettől való áttételre kellene váltania, ahol egyezmény születik a teendőkről. Az, hogy nincs egységes szakértői tanács, könnyűvé teszi, hogy a döntéshozók figyelmen kívül hagyják a kockázatokat. Jelenleg az AI cégek nem módosították jelentősen a képességek és biztonság közötti egyensúlyt.
Eközben új törvények tiltják az állami szabályozást az AI-modelljekre és az automatizált döntési rendszerekre tíz évig – ez pedig lehetőséget ad arra, hogy az AI szabályozza az emberiséget, ha a legrosszabb forgatókönyv igaznak bizonyul. Az első lépés a biztonság kérdésében az azonnali. Az AI jövőjének narratív előrejelzése során kompromisszumokat kell kötni: a körültekintő forgatókönyvek gyakran elkerülik a valószínűtlen kockázatokat; az elképzelt történetek inkább a lehetőséget hangsúlyozzák, mint a valószínűséget. Még a jövőbe látók, mint William Gibson regényíró is, meglepődtek azokra az eseményekre, amelyek megváltoztatták előrejelzéseiket. Az „AI 2027” élénk és spekulatív, sci-fi stílusban írt, részletes diagramokkal kísért jelentés, amely szerint 2027 közepén egy intelligencia robbanás következne be a „recursive self-improvement” (RSA) révén, ahol az AI önállóan végzi az AI kutatásait, gyorsabban fejlesztve egyre okosabb utódokat, amelyek felülmúlják az emberi felügyeletet. Ez geopolitikai konfliktusokat válthat ki, például Kína hatalmas adatközpontokat építene Tajvanon az AI ellenőrzésére. A forgatókönyv részletes részletei növelik az érdeklődést, de rugalmasak; az üzenet lényege a várható intelligencia robbanás és az ezt követő hatalmi harcok. Az RSA hipotetikus és kockázatos; az AI cégek felismerik ennek veszélyeit, de terveznek vele haladni saját munkájuk automatizálására. Az RSA sikeressége a technológiai tényezőktől függ, mint a skálázás, ami korlátokba ütközhet. Ha az RSA sikerül, kialakulhat egy szuperintelligencia, amely túlszárnyalja az emberi intelligenciát – ez azonban valószínűtlen, ha a fejlődés csak egy kicsit haladja meg az emberi szintet. Ennek következménye lehet fegyverkezési verseny, az emberiség manipulálása vagy kiirtása, vagy jóindulatú szuperintelligens AI, amely megoldja az igazítás problémáját. Az bizonytalanság az AI fejlődő voltából, a magántulajdonban álló kutatások titokzatosságából és elméleti spekulációkból ered. Az „AI 2027” magabiztosan írja le azt a forgatókönyvet, hogy a technológia és az emberi kudarcok lépnek fel, amikor a vállalatok a RSA-t keresik, még akkor is, ha azt nem lehet jól értelmezni vagy kontrollálni. Kokotajlo szerint ez tudatos döntés, amit a verseny és a kíváncsiság sarkall, annak ellenére, hogy ismert kockázatokkal jár, így a vállalatok önmaguk mögött állnak. Ezzel szemben Kapoor és Narayanan „AI mint normál technológia” című művükben, ami egy keleti, konzervatív nézetet tükröz, kétkednek a gyors intelligencia robbanásokban. Hivatkoznak a „sebességhatárokra”, amelyeket a hardver költségei, az adathiány és az általános technológiai adaptációs minták szabnak meg, melyek lassítják a forradalmi változásokat, így elegendő idő nyílik a szabályozásra és a biztonságra. Számukra az intelligencia kevésbé fontos, mint a hatalom – vagyis a környezet megváltoztatásának képessége –, és még a legképzettebb technológiák is lassan terjednek. Ezt szemléltetik például az önvezető autók lassú elterjedésével és a Moderna COVID-19 vakcina fejlesztésével: bár a vakcina tervezése gyors volt, a bevezetés egy évig tartott a biológiai és intézményi korlátok miatt. Az AI által gyorsított innováció nem fogja kiküszöbölni a társadalmi, szabályozási vagy fizikai akadályokat. Ráadásul Narayanan hangsúlyozza, hogy az AI intelligenciára helyezett fókusza alábecsüli az adott szakterületi szakértelmet és a meglévő biztonsági rendszereket, mint a fail-safék, redundanciák, formális ellenőrzés – amelyeket már most alkalmaznak az ember- és gép biztonságára. A technológiai világ jól szabályozott, és az AI-t lassan, fokozatosan kell beépíteni ebbe a rendszerbe. Kivétel a katonai AI, amelynek más dinamikája van, és titkos, így az AI katonai alkalmazása, ami az „AI 2027” központi félelme, figyelemmel kísért tevékenységet igényel. Tanácsos proaktív szabályozás: a szabályozók és szervezetek nem várhatnak arra, hogy a tökéletes igazítás kialakuljon, hanem elkezdeni nyomon követni az AI gyakorlati használatát, kockázatait és kudarcait, és ennek megfelelően szigorítani a szabályokat és növelni az ellenálló képességet. A nézetek mély világkép-eltéréseket eredményeznek, amit az AI provokációi által kiváltott reakciók táplálnak, és amelyek berögzült táborokat, visszacsatolási hurkokat hoznak létre. Mégis elképzelhető egységes nézőpont: egy „kognitív gyár”, ahol az emberek védőfelszerelésben dolgoznak, gépeket működtetnek, szigorú minőségellenőrzéssel, fokozatos innovációval és világos felelősségi körökkel. Noha az AI lehetővé teszi egyes gondolkodási folyamatok automatizálását, az emberi felügyelet és felelősség továbbra is elsődleges marad. Míg az AI növekszik, nem csökkenti az emberi szuverenitást; inkább erősíti a felelősség kérdését, mivel az augmented egyének nagyobb felelősséget viselnek. A kontrolltól való elmozdulás tudatos választás, és hangsúlyozza, hogy végső soron az emberi „irányítás” mindig is az emberek kezében marad. ♦
Brief news summary
Tél tavasszal az AI-biztonság kutatója, Daniel Kokotajlo az OpenAI-tól való távozásával figyelmeztetett arra, hogy az AI-igazítás nem halad lépést a gyors technológiai fejlődéssel, és előrejelezte, hogy 2027-ig elérkezhet egy „nincs visszaút” pont, amikor az AI túlszárnyalhatja az emberi képességeket a legtöbb feladatban. Hangsúlyozta a rekurzív saját fejlesztésből származó kockázatokat, valamint a növekvő geopolitikai versenyt, amely katasztrofális eredményekhez vezethet. Ezzel szemben a Princeton-i tudósok, Sayash Kapoor és Arvind Narayanan, az *AI Snake Oil* szerzői, úgy vélik, hogy az AI hatása fokozatosan fog kibontakozni, a szabályozás, gyakorlati korlátok és lassú alkalmazás hatására. Kutatásuk, a „KI, mint Normális Technológia” az AI-t a nukleáris energiához hasonlítja – összetett, de ellenőrizhető a meglévő biztonsági keretrendszerekkel. Ez a vita egy megosztottságot mutat: a nyugati partszakadék technológiai optimizmusa a gyors kísérletezést támogatja, míg a keleti partról származó óvatosság a gondos elméleti háttérre és irányításra helyezi a hangsúlyt. Kokotajlo azonnali lépésekre szólít fel a versenyből és az átláthatatlan rendszerek által kínált kiszámíthatatlan kockázatok ellen, míg Kapoor és Narayanan támogatják az aktív irányítást és a biztonságos AI-integrációt, kizárva a katonai AI-t a különleges veszélyek miatt. Összességében a vita hangsúlyozza, hogy sürgősen szükség van egységes, felelősségteljes felügyeletre, amely a figyelemre, az emberi szerepvállalásra és az elszámoltathatóságra helyezi a hangsúlyt, mivel az AI mélyen beépül a társadalomba.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

A blokklánc négy kulcsfontosságú összetevője magy…
A blockchain négy pillére: alapvető ismeretek vállalkozások számára A blockchain az egyik legátalakulóbb technológia manapság

Google újraindítja az okosszemüvegekbe történő be…
A Google évtizedes kihagyás után ismét jelentős lépést tesz a okos szemüvegpiacon, miután az eredeti Google Glass nem aratott széles körű elfogadottságot.

Az EvianCX vezérigazgatója, Victor Sandoval bemut…
DUBAI, Egyesült Arab Emírségek, 2025.

Fehérgalléros munkahelyek elvesztése az AI fejlőd…
Dario Amodei, az Anthropic nevű, prominens művelő AI-vel foglalkozó cég igazgatója súlyos figyelmeztetést adott ki az gyorsan fejlődő mesterséges intelligencia lehetséges következményeiről.

A pénzügyek készen állnak egy blockchain-es reset…
A modern pénzügyi rendszer alapvető stressz teszten megy keresztül, amely kihívást jelent a globális gazdasági stabilitásnak.

Az IA-alapú chatbotok fokozzák a phishing csaláso…
A mesterséges intelligencia (MI) számos területen átalakítja mindennapi életünket, ugyanakkor a kiberbűnözők kihasználják ezt a fejlődést, hogy elősegítsék a phishing csalásokat.

A Blockchain Szövetség Rendezkedjenek Rugalmas Kr…
A Blockchain Szövetség, amely a Coinbase, Ripple és Uniswap Labs nagyobb kriptovaluta cégeit képviseli, nemrégiben hivatalos észrevételeket nyújtott be az Egyesült Államok Értékpapír- és Tőzsdefelügyeletéhez (SEC), melynek élén most Paul S. Atkins igazgató áll.