Perdebatan tentang Masa Depan AI: Kiamat atau Kehidupan Biasa? Pandangan daripada Pakar Utama

Musim bunga lalu, Daniel Kokotajlo, seorang penyelidik keselamatan AI di OpenAI, berhenti sebagai protes, yakin bahawa syarikat itu tidak bersedia menghadapi masa depan teknologi AI dan ingin memberi amaran. Dalam perbualan telefon, dia kelihatan ramah tetapi cemas, menerangkan bahawa kemajuan dalam “penyesuaian” AI—kaedah memastikan AI mengikuti nilai manusia—tertinggal di belakang perkembangan kecerdasan. Dia memberi amaran bahawa penyelidik sedang terburu-buru untuk mencipta sistem yang berkuasa di luar kawalan. Kokotajlo, yang beralih dari pengajian siswazah falsafah ke AI, belajar sendiri untuk mengikuti perkembangan AI dan meramalkan bila pencapaian penting dalam kecerdasan mungkin berlaku. Setelah AI berkembang lebih pantas daripada yang dijangkakan, dia menyesuaikan jangka masa, berdekad-dekad. Senario tahun 2021 beliau, “Apa Yang Kelihatan Pada 2026, ” merealisasikan banyak ramalan awalnya, menyebabkan beliau meramalkan satu “titik tanpa pulangan” pada tahun 2027 atau lebih awal di mana AI boleh mengatasi manusia dalam kebanyakan tugasan penting dan memegang kuasa besar. Beliau kedengaran takut. Pada masa yang sama, pakar komputer Princeton, Sayash Kapoor dan Arvind Narayanan, menyediakan buku “Penipuan Minyak Ular AI, ” yang mengemukakan pandangan yang sangat berbeza. Mereka berpendapat jangka masa AI terlalu optimis; tuntutan mengenai kegunaan AI sering dibesar-besarkan atau palsu; dan kerumitan dunia nyata bermakna kesan transformasi AI akan perlahan. Menyampaikan contoh kesilapan AI dalam bidang perubatan dan pengambilan pekerja, mereka menekankan bahawa sistem terkini juga mengalami daripada jurang asas dengan realiti. Baru-baru ini, ketiga-tiga mereka menajamkan pandangan dalam laporan baru. Leehan bukan keuntungan Kokotajlo, Projek Masa Depan AI, menerbitkan “AI 2027, ” sebuah laporan terperinci yang banyak dikutip, menggambarkan senario menakutkan di mana AI superintelligent mungkin menguasai atau membinasakan manusia menjelang 2030—amaran serius. Sementara itu, makalah Kapoor dan Narayanan, “AI sebagai Teknologi Biasa, ” berpendapat bahawa halangan praktikal—daripada peraturan dan piawaian keselamatan ke batasan fizikal dunia nyata—akan melambatkan penggunaan AI dan mengehadkan impaknya yang revolusioner. Mereka berpendapat AI akan kekal sebagai “teknologi biasa, ” boleh dikawal melalui langkah keselamatan yang biasa seperti suis mati dan pengawasan manusia, lebih mirip tenaga nuklear daripada senjata nuklear. Jadi, yang mana satu: perniagaan biasa atau kekacauan apokaliptik?Kesimpulan yang sangat berbeza—yang diambil oleh pakar yang sangat berpengetahuan—menghasilkan paradoks seperti berdebat tentang spiritualiti dengan Richard Dawkins dan Paus sekaligus. Kesukaran ini sebahagiannya berpunca dari kebaruan AI—seperti golongan manusia buta yang memeriksa bahagian berbeza gajah—dan sebahagiannya lagi daripada perbezaan pandangan dunia. Selalunya, pemikir teknologi Pantai Barat melihat perubahan yang pantas; akademik Pantai Timur cenderung skeptikal. Penyelidik AI mendukung kemajuan eksperimen yang cepat; saintis komputer lain mencari ketelitian teori. Mereka dari industri mahu mencipta sejarah; yang luar memojokkan hype teknologi. Pandangan politik, manusia dan falsafah tentang teknologi, kemajuan, dan minda memperdalam lagi perbezaan ini. Perdebatan yang menarik ini sebenarnya suatu masalah. Mereka dari industri kebanyakannya menerima asumsi “AI 2027” tetapi bergaduh tentang jangka masa—satu respons yang tidak mencukupi, seperti bergaduh tentang masa sahaja apabila planet akan hancur. Sebaliknya, pandangan sederhana dalam “AI sebagai Teknologi Biasa” tentang menjaga manusia dalam kawalan terlalu ringkas sehingga diabaikan oleh penganalisis yang fokus kepada kiamat. Ketika AI semakin penting dalam masyarakat, diskusi harus beralih dari perdebatan pakar kepada konsensus yang boleh diambil tindakan. Kekurangan nasihat pakar yang bersatu memudahkan pembuat keputusan mengabaikan risiko. Kini, syarikat AI belum banyak mengubah keseimbangan antara kemampuan dan keselamatan.
Sementara itu, undang-undang baru melarang pengawalseliaan kerajaan terhadap model AI dan sistem keputusan automatik selama sepuluh tahun—berpotensi membenarkan AI mengatur manusia jika senario menakutkan itu benar. Mengutamakan keselamatan sekarang adalah penting. Meramal masa depan AI secara naratif melibatkan kompromi: senario berhati-hati mungkin mengabaikan risiko yang kecil kemungkinannya; yang berimajinasi menekankan kemungkinan lebih dari kebarangkalian. Bahkan pengulas berwawasan seperti novelis William Gibson pernah ditakluki oleh peristiwa tak dijangka yang mengubah ramalannya. “AI 2027” menggambarkan secara vivid dan spekulatif, seperti kisah fiksyen sains lengkap dengan grafik terperinci. Ia mencadangkan ledakan kecerdasan dalam masa terdekat sekitar pertengahan 2027 yang didorong oleh “penambahbaikan diri secara rekursif” (RSI), di mana sistem AI secara autonomi menjalankan penyelidikan AI sendiri, menghasilkan keturunan yang semakin pintar dalam gelanggang maklum balas yang mempercepat yang melangkaui kawalan manusia. Ini berpotensi mencetus konflik geopolitik, contohnya China membina datacenter besar di Taiwan untuk mengawal AI. Butiran khusus dalam senario ini meningkatkan penglibatan, tetapi bersifat fleksibel; mesej utamanya adalah kemungkinan awal ledakan kecerdasan dan perebutan kuasa selepas itu. RSI adalah hipotesis dan berisiko; syarikat AI sedar akan bahayanya tetapi berhasrat meneruskannya untuk mengautomasikan kerja mereka sendiri. Sama ada RSI berjaya bergantung kepada faktor teknologi seperti skala, yang mungkin menghadapi had. Jika RSI berjaya, kecerdasan super yang melebihi kecerdasan manusia mungkin muncul—yang jarang berlaku jika kemajuan berhenti sedikit sahaja di atas paras manusia. Akibatnya boleh termasuk perlumbaan ketenteraan, AI memanipulasi atau membunuh manusia, atau AI superbijak yang baik hati menyelesaikan masalah penyesuaian. Ketidaktentuan tetap ada disebabkan sifat AI yang sentiasa berkembang, kerahsiaan penyelidikan milik syarikat, dan spekulasi. “AI 2027” secara yakin menggambarkan senario kegagalan teknologi dan manusia di mana syarikat mengejar RSI walaupun kekurangan interpretasi dan mekanisme kawalan. Kokotajlo berpendapat ini adalah keputusan sengaja dipacu persaingan dan keingintahuan, walaupun risiko diketahui, menjadikan syarikat itu sendiri sebagai pelakon yang tidak selaras. Sebaliknya, “AI sebagai Teknologi Biasa” oleh Kapoor dan Narayanan, yang mencerminkan pandangan konservatif dari Pantai Timur berlandaskan pengetahuan sejarah, meragui ledakan kecerdasan yang pantas. Mereka menyebut “had kelajuan” yang dikenakan oleh kos perkakasan, kekurangan data, dan pola pengambilan teknologi secara umum yang melambatkan impak revolusi, memberi masa yang cukup untuk kawalan dan keselamatan. Bagi mereka, kecerdasan kurang penting berbanding kuasa—keupayaan untuk mengubah persekitaran—dan teknologi yang sangat cekap sering menyebar perlahan. Mereka mengilustrasikan ini dengan penggunaan kereta tanpa pemandu yang terhad dan pembangunan vaksin COVID-19 oleh Moderna: walaupun reka bentuk vaksin cepat, pengedaran mengambil masa setahun disebabkan oleh realiti biologi dan institusi. Peningkatan inovasi melalui AI tidak akan menghapuskan halangan masyarakat, peraturan, atau fizikal dalam pelaksanaannya. Selain itu, Narayanan menekankan bahawa fokus AI terhadap kecerdasan meremehkan kepakaran bidang tertentu dan sistem keselamatan sedia ada dalam kejuruteraan—fail-safes, redundansi, verifikasi formal—yang sudah memastikan keselamatan mesin bersama manusia. Dunia teknologi sudah mempunyai kawalan ketat, dan AI perlu diintegrasikan ke dalam struktur ini secara perlahan. Mereka tidak memasukkan AI ketenteraan, yang melibatkan dinamik berasingan dan sulit, dan memberi amaran bahawa militarisasi AI, yang merupakan kebimbangan utama dalam “AI 2027, ” memerlukan pemantauan khusus. Mereka menasihati pemerintahan proaktif: pendaftar dan organisasi jangan tunggu sehingga mencapai kesesuaian sempurna, tetapi mula mengesan penggunaan, risiko, dan kegagalan AI di dunia sebenar, serta menguatkuasakan peraturan dan meningkatkan daya tahan. Perbezaan ideologi yang mendalam berasal dari dinamika intelektual reaktif yang dipacu oleh provokasi AI sendiri, menghasilkan kumpulan yang berterusan dan lingkaran maklum balas. Namun, pandangan yang bersatu boleh dibayangkan dengan membayangkan “kilang kognitif”: satu ruang kerja di mana manusia, lengkap dengan peralatan keselamatan, mengendalikan mesin yang direka untuk produktiviti dan keselamatan di bawah kawalan kualiti yang ketat, pensijilan secara beransur, dan tanggungjawab yang jelas. Walaupun AI memungkinkan automasi sebahagian daripada pemikiran, pengawasan dan tanggungjawab manusia kekal utama. Ketika AI berkembang, ia tidak mengurangkan kuasa manusia; sebaliknya, ia menegaskan perlunya akauntabiliti kerana individu yang diperbaiki mempunyai tanggungjawab yang lebih besar. Mengambil langkah menjauh dari kawalan adalah keputusan, menegaskan bahawa pada akhirnya, manusia kekal bertanggungjawab sepenuhnya. ♦
Brief news summary
Musim bunga lepas, penyelidik keselamatan AI Daniel Kokotajlo meninggalkan OpenAI, memberi amaran bahawa penyelarasan AI gagal mengikuti kemajuan teknologi yang pesat dan meramalkan titik tiada pengembalian menjelang 2027, apabila AI berkemungkinan melepasi manusia dalam kebanyakan tugas. Beliau menekankan risiko daripada peningkatan kendiri secara berulang dan persaingan geopolitik yang semakin meningkat, yang berpotensi membawa kepada hasil yang bencana. Sebaliknya, saintis Princeton Sayash Kapoor dan Arvind Narayanan, pengarang *AI Snake Oil*, berhujah bahawa impak AI akan berkembang secara beransur-ansur, dipengaruhi oleh peraturan, had praktikal, dan penggunaan yang perlahan. Kajian mereka, “AI sebagai Teknologi Biasa,” membandingkan AI dengan tenaga nuklear—sukar tetapi boleh dikawal melalui kerangka keselamatan yang telah wujud. Perdebatan ini menyoroti perbezaan pandangan: optimisme teknologi Pantai Barat menyokong eksperimen pantas, manakala berhati-hati Pantai Timur menekankan teori menyeluruh dan tadbir urus. Kokotajlo mendesak tindakan segera terhadap risiko tidak dapat diramalkan yang disebabkan oleh persaingan dan sistem yang tidak telus, manakala Kapoor dan Narayanan menyokong tadbir urus proaktif serta penggabungan AI yang selamat, tidak termasuk AI ketenteraan kerana bahaya uniknya. Secara keseluruhan, perbincangan ini menekankan keperluan mendesak untuk pengawasan yang bersatu dan bertanggungjawab yang menekankan kewaspadaan, agensi manusia, dan akauntabiliti apabila AI menjadi sebahagian penting dalam masyarakat.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Pengembalian Semula Google ke dalam Bidang Kacama…
Google membuat kemunculan semula yang ketara dalam pasaran cermin mata pintar lebih dari satu dekad selepas kegagalan Google Glass pada awalnya untuk mendapatkan penerimaan meluas.

CEO EvianCX Victor Sandoval Umum Visi untuk Kemas…
DUBAI, Emiriah Arab Bersatu, 28 Mei 2025 (GLOBE NEWSWIRE) — Victor Sandoval, CEO inovasi blockchain EvianCX, membuat impak besar di CryptoExpo Dubai 2025, yang diadakan di Pusat Perdagangan Dunia Dubai pada 21–22 Mei.

Kehilangan Kerja Kerja Kerah Putih Akibat Kemajua…
Dario Amodei, CEO Anthropic, sebuah syarikat kecerdasan buatan yang terkemuka, telah mengeluarkan amaran serius mengenai kemungkinan akibat daripada kemajuan pesat AI.

Kewangan sudah bersedia untuk penstrukturan semul…
Sistem kewangan moden sedang menjalani ujian tekanan asas yang mencabar kestabilan ekonomi global.

Chatbot Berkuasa AI Meningkatkan Penipuan Phishin…
Kecerdasan Buatan (AI) sedang mengubah banyak aspek kehidupan harian, tetapi penjenayah siber sedang memanipulasi kemajuan ini untuk meningkatkan penipuan phishing.

Persatuan Blockchain Mendesak SEC untuk Peraturan…
Persatuan Blockchain, yang mewakili syarikat mata wang kripto utama seperti Coinbase, Ripple, dan Uniswap Labs, baru-baru ini telah mengemukakan komen rasmi kepada Suruhanjaya Sekuriti dan Bursa AS (SEC), kini dipimpin oleh Pengerusi Paul S. Atkins.

Peranan AI Dalam Mengatasi Cabaran Tenaga Kerja K…
Di Persidangan Masa Depan Kesihatan Axios pada 14 Mei, tokoh-tokoh utama dalam penjagaan kesihatan berkumpul untuk meneliti peranan yang semakin berkembang daripada kecerdasan buatan (AI) dalam menangani cabaran tenaga kerja yang berterusan.