Noong nakaraang tagsibol, nagpasya si Daniel Kokotajlo, isang AI safety researcher sa OpenAI, na magbitiw bilang protesta, naniniwalang hindi handa ang kumpanya para sa hinaharap ng teknolohiyang AI at nais mag-ingat. Sa isang tawag sa telepono, makikita ang kanyang kabaitan ngunit pananabik, ipinaliwanag na ang progreso sa “alignment” ng AI—ang mga paraan upang masigurong sumusunod ang AI sa mga human na halaga—ay nahuhuli sa pag-unlad ng intelihensiya. Binalaan niya na ang mga mananaliksik ay nagmamadali sa paggawa ng makapangyarihang sistema na lampas sa kontrol. Si Kokotajlo, na nagsimulang mag-aral mula sa philosophy hanggang sa AI, ay nagtuturo sa sarili upang masubaybayan ang progreso ng AI at makaprigpo kung kailan maaaring mangyari ang mahahalagang milestones sa intelihensiya. Matapos mas mabilis ang pag-unlad ng AI kaysa sa inaasahan, inilipat niya ang kanyang mga timeline nang dekada. Ang kanyang scenario noong 2021 na “What 2026 Looks Like, ” ay naglalaman ng mga prediksyon na nangyari nang mas maaga, kaya inilihula niya na posibleng sa 2027 o mas maaga pa ang “point of no return” kung saan malalampasan ng AI ang tao sa karamihan ng mahahalagang gawain at magkakaroon ito ng malaking kapangyarihan. Nakaramdam siya ng takot. Kasabay nito, naghanda sina Sayash Kapoor at Arvind Narayanan, mga computer scientists mula sa Princeton, ng kanilang aklat na “AI Snake Oil, ” na may pananaw na kabaligtaran. Ipinapaliwanag nila na labis ang pagiging optimistiko sa mga timeline ng AI; madalas na pinalalaki ang kapaki-pakinabang nitong gamit o peke ang mga claims; at ang komplikadong katangian ng tunay na mundo ay magpapabagal sa pagbabago dala ng AI. Binanggit nila ang mga kamaliang nagawa ng AI sa medikal na aspeto at pag-hire, at dinidiin na kahit ang pinakabagong sistema ay may malalim na kakulangan sa realismo. Kamakailan, pinag-igting pa nila ang kanilang mga panig sa mga bagong ulat. Naglathala ang nonprofit ni Kokotajlo, ang AI Futures Project, ng “AI 2027, ” isang detalyadong ulat na naglalarawan ng nakakatakot na senaryo kung saan maaaring dominahin o pawalang-sala ang tao ng superintelligent AI pagsapit ng 2030—isang seryosong babala. Samantala, ang papel nina Kapoor at Narayanan na “AI as Normal Technology” ay nagsasabing ang mga hadlang sa praktikal na paggamit ng AI—mula sa mga batas at safety standards hanggang sa mga pisikal na limitasyon sa totoong mundo—ay magpapabagal sa deployment nito at maglilimita sa pinakabagong epekto nito. Sinasabi nilang ang AI ay magiging “normal” na teknolohiya na manageable gamit ang mga pamilyar na safety measures gaya ng kill switch at human oversight, at ikinumpara pa ito sa nuclear power kaysa sa nuclear weapons. Kaya, ano ang magiging katotohanan: normal na negosyo o apokaliptikong pagbaha?Ang malaki at magkasalungat na konklusyon—mula sa mga eksperto na may malawak na alam—ay nagdudulot ng isang paradox na katulad ng pagtatalo tungkol sa espirituwalidad kasama sina Richard Dawkins at ang Papa. Ang hirap makuha ay bahagyang dahil sa pagiging bago ng AI—parang bulag na sumusuri sa nagkakahiwalay na bahagi ng elepante—at bahagyang dahil sa malalim na pagkakaiba sa pananaw sa mundo. Sa pangkalahatan, ang mga taga-West Coast na tech thinkers ay nakikita ang mabilis na pagbabago; samantalang ang mga akademiko sa East Coast ay may pagdududa. Ang mga mananaliksik sa AI ay pabor sa mabilis na eksperimento; ang ibang computer scientists ay mas pabor sa teoretikal na rigor. Ang industriya ay nais gumawa ng kasaysayan; ang mga outsider ay tumanggi sa hype ng teknolohiya. Ang mga paniniwala politikal, panlipunan, at pangtao patungkol sa teknolohiya, progreso, at isipan ay lalong nagpapalalim sa pagkakaiba. Ang nakakaaliw na debateng ito ay isang suliranin mismo. Malaki ang pagtanggap ng mga nasa industriya sa mga premise ng “AI 2027” habang nag-aaway sa mga timeline—isang di sapat na tugon na parang nagkakampihan sa panahon habang papalapit ang planeta sa katapusan. Sa kabilang banda, ang mga katamtamang pananaw sa “AI as Normal Technology” tungkol sa pagpapanatili ng tao sa proseso ay napakaliit ang pagpapahalaga kaya hindi napapansin ng mga doom-focused na analista. Habang ang AI ay nagiging napakahalaga sa lipunan, kailangang mag-evolve ang diskurso mula sa diskusyon ng mga eksperto tungo sa isang aksyon na nagkakasundo. Ang kawalan ng iisang payo mula sa mga eksperto ay nagpapadali sa mga desisyon na balewalain ang mga panganib.
Sa kasalukuyan, hindi pa nagbabago ang balanseng itinatakda ng mga kumpanya ng AI sa pagitan ng kakayahan at kaligtasan. Samantala, pinatunayan ng bagong batas na ipinagbabawal ang pederal na regulasyon sa mga modelong AI at automated decision systems sa sampung taon—marahil ay papayagan nitong ang AI ang mag-regulate sa tao kung totoo ang nakakatakot na senaryo. Mahalaga ang agarang pagtugon sa kaligtasan. Ang prediksyon ng kinabukasan ng AI ay may kasamang mga trade-off: ang mga maingat na senaryo ay maaaring mapalampas ang mga hindi inaasahang panganib; ang mga imahinasyon ay nakatuon sa posibilidad kaysa sa tiyansa. Kahit ang mga forecast na para bang may hula-hula, katulad ni William Gibson, ay nahuhuli sa mga biglaang pangyayari na nagbabago sa kanilang mga hula. Ang “AI 2027” ay makulay at puno ng spekulasyon, parang sci-fi na may mga detalyadong graph. Inilalarawan nito ang isang malapit na eksploisyon ng intelihensiya sa kalagitnaan ng 2027 na dulot ng “recursive self-improvement” (RSI), kung saan ang mga sistema ng AI ay nag-aaral sa kanilang sarili upang makalikha ng mas matalinong mga anak sa isang mabilis na feedback loop na lampas sa kontrol ng tao. Maaaring magdulot ito ng mga sigalot sa geopolitika, tulad ng China na nagtayo ng malalaking data center sa Taiwan para makontrol ang AI. Ang mga partikular na detalye ay nagpapataas ng interes ngunit pwedeng baguhin; ang mahalagang mensahe ay ang malamang na pagsisimula ng intelligence explosion at ang sumunod na laban sa kapangyarihan. Ang RSI ay isang haka-haka at mapanganib; kinikilala ng mga kumpanya ng AI ang mga panganib nito ngunit balak nilang ituloy ito upang mapadali ang kanilang trabaho. Nakadepende kung gagalaw ang RSI sa mga teknolohikal na salik tulad ng scaling, na pwedeng makatagpo ng limitasyon. Kung magtagumpay ang RSI, maaaring makabuo ng superintelligence na lagpasan ang tao—isang di malayong pangyayari kung titigil lang ang pag-unlad ng bahagyang lampas sa antas ng tao. Pwedeng magresulta ito sa militarisadong arm races, AI na manipulahin o puksain ang tao, o isang mabuting superintelligent AI na maresolba ang mga isyu sa alignment. Ang kawalang-katiyakan ay nananatili dahil sa pabago-bagong likas ng AI, sikreto sa pananaliksik, at spekulasyon. Matibay na kwento sa “AI 2027” ang nagsasabing posibleng mag-fail ang teknolohiya at tao, na magmamay-ari ng RSI kahit na walang klarong mga mekanismo para kontrolin ito. Sinasabi ni Kokotajlo na ito ay mga sadyang desisyon na pinapalakas ng kompetisyon at curiosity, bagamat alam na ang mga panganib, kaya mismong ang mga kumpanya ang nagiging mga actor na hindi akma sa layunin. Sa kabilang banda, ang “AI as Normal Technology” nina Kapoor at Narayanan, na may konserbatibong pananaw mula sa East Coast na nakabase sa kasaysayan, ay nagdududa sa mabilis na exponential na pagtaas ng intelihensiya. Binanggit nila ang “speed limits” na sanhi ng gastos sa hardware, kakulangan sa data, at pangkalahatang pattern ng paggamit ng teknolohiya na magpapabagal sa rebolusyonaryong epekto, nagbibigay ng sapat na oras para sa regulasyon at safety measures. Para sa kanila, mas mahalaga ang kapangyarihan—ang kakayahang baguhin ang kapaligiran—kaysa sa intelihensiya mismo, at kahit ang mga makapangyarihang teknolohiya ay maluluma nang mabilis. Binibiro nila ito gamit ang limitadong deployment ng driverless cars at ang mabilis na pag-develop ng bakuna kontra COVID-19 ng Moderna: kahit na ang disenyo ng bakuna ay mabilis, ang pag-rollout ay nasira ng isang taon dahil sa biological at institutional realities. Hindi agad-agad mapapalitan ng AI ang mga hadlang sa lipunan, batas, o pisikal na katangian sa pagsasakatuparan. Dagdag pa, binibigyang-diin ni Narayanan na ang pagtutok sa intelihensiya ay mali ang pagkakaintindi sa domain-specific expertise at mga safety system sa engineering—mga fail-safe, redundancies, formal verification—na nagtitiyak na safe ang makina sa tao. Ang teknolohikal na mundo ay may maayos nang regulasyon, at kailangang unti-unting i-integrate ang AI sa sistemang ito. Inaalis nila ang militar na AI, na may kaakibat na hiwalay na dynamics at classified na impormasyon, na nagsasabi na ang militarisasyon ng AI ay isang pangunahing takot sa “AI 2027, ” at kailangang mabantayan nang maigi. Pinapayuhan nila na ang mga namumuno ay dapat magsimula nang magpatupad ng mga hakbang bago pa man maging perpekto ang pagkakasundo, tulad ng pagsubaybay sa real-world na paggamit ng AI, mga panganib, at pagkasira, at pagpatibay ng mga panuntunan at kahandaan. Ang malalim na pagkakaiba-iba sa pananaw ay nagmumula sa reaksyon ng mga intelektwal na pinapalakas ng mga provocations ng AI, na nagdudulot ng mga kampo at feedback loops. Ngunit pwedeng maibigay ito sa isang pananaw na nagsasama-sama sa isang “kognitibong pabrika”: isang lugar na pinamumunuan ng tao, may safety gear, na nagtatrabaho sa mga makina na dinisenyo para sa produktibidad at kaligtasan, sa ilalim ng mahigpit na quality control, unti-unting pagsasama-sama ng mga pagbabago, at malinaw na pananagutan. Bagamat nagiging awtomatiko ang ilang pag-iisip dahil sa AI, nananatili pa rin ang pangunahing papel ng tao at pinangangalagaan ang kanilang pananagutan. Habang lumalago ang AI, hindi nito binabawas ang kakayahan ng tao; sa halip, pinapalakas nito ang pangangailangan ng pananagutan dahil ang mga taong pinapalawak ay nagdadala ng mas malaking responsibilidad. Ang pagbawi sa kontrol ay isang pilihan, na nagpapaalala na sa huli, ang tao pa rin ang may hawak.
Pagdedebate Ukol sa Hinaharap ng AI: Kapahamakan o Normalidad? Mga Pahayag mula sa Mga Nangungunang Eksperto
Ang The Walt Disney Company ay nagsimula ng isang makasaysayang legal na hakbang laban sa Google sa pamamagitan ng pagpapalabas ng isang cease-and-desist na liham, na inakusa ang tech giant na nilabag ang copyright ni Disney sa paggamit ng kanyang mga kinokopyang nilalaman habang isinasagawa ang training at pag-develop ng mga generative artificial intelligence (AI) models nang walang pagbabayad.
Habang umuunlad ang artificial intelligence (AI) at lalong napapasok sa digital marketing, nagkakaroon ito ng malaking epekto sa search engine optimization (SEO).
Ang MiniMax at Zhipu AI, dalawang nangungunang kumpanya sa larangan ng artificial intelligence, ay nakatanggap ng balita na nagsasagawa na sila ng paghahanda upang maging publicly listed sa Hong Kong Stock Exchange ngayong Enero.
Si Denise Dresser, CEO ng Slack, ay nakatakdang iwanan ang kanyang posisyon upang maging Chief Revenue Officer sa OpenAI, ang kumpanyang nasa likod ng ChatGPT.
Ang industriya ng pelikula ay dumaranas ng isang malaking pagbabago habang mas lalong ginagamit ng mga studio ang mga teknolohiyang artificial intelligence (AI) sa video synthesis upang mapabuti ang proseso ng post-produksyon.
Ang AI ay nagsusulong ng rebolusyon sa social media marketing sa pamamagitan ng pagbibigay ng mga kasangkapan na nagpapadali at nagpapahusay sa pakikipag-ugnayan ng audience.
Ang pag-iral ng mga AI-generated na influencer sa social media ay naglalarawan ng isang malaking pagbabago sa digital na kapaligiran, na nagdudulot ng malawakang talakayan tungkol sa pagiging tunay ng mga online na pakikipag-ugnayan at ang mga etikal na isyu na kaakibat ng mga virtual na personalidad na ito.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today