Penganjur Keselamatan AI Menggesa Pengulangan Pengiraan Ujian Nuklear Oppenheimer untuk Sistem Sangat Berkuasa

Syarikat-syarikat kecerdasan buatan telah diberi galakan untuk mengulangi pengiraan keselamatan yang memberitahu ujian nuklear pertama Robert Oppenheimer sebelum melepaskan sistem yang sangat kuat. Max Tegmark, tokoh terkenal dalam keselamatan AI, mendedahkan bahawa dia telah melakukan pengiraan yang serupa dengan yang dilakukan oleh ahli fizik AS Arthur Compton sebelum ujian Trinity. Tegmark mendapati kemungkinan 90% bahawa AI yang sangat maju boleh menimbulkan risiko kewujudan. Kerajaan AS telah meneruskan ujian Trinity pada tahun 1945 selepas mendapat jaminan bahawa kemungkinan bom atom menyulut atmosfera dan mengancam manusia adalah sangat kecil. Dalam satu kertas yang ditulis oleh Tegmark dan tiga pelajarnya dari MIT, mereka mengesyorkan mengira “konstan Compton, ” yang ditakrifkan sebagai kebarangkalian AI yang berkuasa penuh melarikan diri dari kawalan manusia. Compton, dalam satu temu bual pada tahun 1959 dengan penulis AS Pearl Buck, menyatakan bahawa dia telah meluluskan ujian tersebut selepas menganggarkan peluang reaksi fusi yang tidak terkawal adalah “sedikit kurang” daripada satu dalam tiga juta. Tegmark berpendapat bahawa syarikat AI mesti mengambil tanggungjawab untuk dengan teliti menentukan sama ada Super Artificial Intelligence (ASI)—satu sistem teoritis yang melepasi kepintaran manusia dalam semua bidang—akan mengelak pengawasan manusia. “Syarkat yang membina super-cerdik perlu mengira konstan Compton, kebarangkalian kita kehilangan kawalan ke atasnya, ” katanya.
“Sangat tidak cukup untuk mengatakan ‘kami berasa yakin mengenainya. ’ Mereka mesti mengira peratusan kebarangkalian itu. ” Tegmark mencadangkan bahawa kesepakatan mengenai konstan Compton yang dihasilkan dari beberapa syarikat akan menjana “hasrat politik” untuk mewujudkan piawaian keselamatan AI global. Sebagai seorang profesor fizik dan penyelidik AI di MIT, Tegmark menubuhkan bersama Institut Masa Depan Kehidupan, sebuah organisasi bukan untung yang mempromosikan pembangunan AI yang selamat. Institut ini menerbitkan surat terbuka pada tahun 2023 yang mendesak agar dihentikan sementara penciptaan AI yang kuat. Lebih dari 33, 000 individu menandatangani surat itu, termasuk Elon Musk—penyokong awal institusi tersebut—dan pengasas bersama Apple, Steve Wozniak. Surat yang dikeluarkan beberapa bulan selepas peluncuran ChatGPT, yang menandakan era baharu dalam pembangunan AI, memberi amaran bahawa makmal-makmal AI terlibat dalam “perlumbaan di luar kawalan” untuk menempatkan “mind digital yang semakin kuat” yang tidak ada siapa pun boleh “memahami, meramalkan, atau kawal dengan pasti. ” Tegmark bercakap kepada Guardian ketika sekumpulan pakar AI—termasuk profesional industri teknologi, wakil agensi keselamatan yang disokong kerajaan, dan akademik—mengembangkan pendekatan baharu untuk pembangunan AI yang selamat. Laporan Singapore Consensus mengenai Keutamaan Penyelidikan Keselamatan AI Global yang dihasilkan oleh Tegmark, pakar komputer terkemuka Yoshua Bengio, dan kakitangan dari syarikat AI terkemuka seperti OpenAI dan Google DeepMind, menggariskan tiga bidang penyelidikan utama: membangun kaedah untuk mengukur impak sistem AI semasa dan yang akan datang; menetapkan tingkah laku AI yang diingini dan mereka bentuk sistem untuk mencapainya; dan mengurus serta mengawal tingkah laku AI. Merujuk kepada laporan tersebut, Tegmark menyatakan bahawa dorongan untuk pembangunan AI yang selamat telah mendapatkan momentum semula selepas sidang kemuncak AI kerajaan baru-baru ini di Paris, di mana Naib Presiden AS JD Vance menolak kekhuatiran keselamatan, dan menyatakan bahawa masa depan AI “tidak akan dimenangi dengan meratap tentang keselamatan. ” Tegmark berkata: “Nampaknya suasana suram dari Paris sudah reda dan kerjasama antarabangsa kembali mengaum. ”
Brief news summary
Pakar keselamatan AI Max Tegmark, profesor fizik di MIT dan pengasas bersama Institut Masa Depan Kehidupan, menyeru agar pengiraan keselamatan yang ketat dilaksanakan seperti yang dilakukan sebelum ujian nuklear Trinity pada tahun 1945, dengan menyoroti risiko eksistensial yang ditimbulkan oleh AI canggih. Mengambil parallel dengan penilaian bersejarah Arthur Compton, Tegmark menganggarkan kemungkinan 90% bahawa AI superpintar boleh melepaskan kawalan manusia dan mengancam umat manusia. Beliau mencadangkan sebuah “pasti Compton,” satu ukuran risiko yang dinilai untuk AI yang membangkang, bagi membantu membuat keputusan politik dan perjanjian keselamatan global. Usaha ini selaras dengan surat terbuka Institut Masa Depan Kehidupan tahun 2023, yang ditandatangani lebih daripada 33,000 individu termasuk Elon Musk dan Steve Wozniak, memberi amaran terhadap perlumbaan AI yang tidak terkawal. Tegmark juga menyumbang kepada Konsensus Singapura mengenai Keutamaan Penyelidikan Keselamatan AI Global, bertujuan mengarahkan penyelidikan keselamatan penting di seluruh dunia. Walaupun terdapat sedikit skeptisisme daripada pegawai AS, kerjasama antarabangsa dan sikap optimis kekal kuat berkenaan pembangunan AI yang selamat.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain dan Kecerdasan Buatan (AI): Gabungan y…
Hujung minggu blockchain dan Kecerdasan Buatan (AI) menandakan era baharu dalam inovasi teknologi, menawarkan peluang transformasi dalam pelbagai industri.

Papa Leo XIV mengatakan kemajuan AI memainkan per…
Paus Leo XIV mendedahkan bahawa nama päpanya yang dipilih sebahagian besarnya diilhamkan oleh cabaran yang semakin muncul akibat dunia yang semakin dipengaruhi oleh kecerdasan buatan.

Peranan Blockchain dalam Pengesahan Identiti Digi…
Pengesahan identiti digital adalah penting untuk keselamatan dalam persekitaran dalam talian yang saling berhubung hari ini, kerana semakin banyak data peribadi dikongsi merentasi perkhidmatan digital.

Bagaimana agen AI dibandingkan dalam tugas rutin …
The Financial Times baru-baru ini menjalankan penilaian menyeluruh terhadap agen AI yang dibangunkan oleh syarikat teknologi utama termasuk OpenAI, Anthropic, Perplexity, Google, Microsoft, dan Apple.

Kesan Alam Sekitar Blockchain: Mengimbangkan Inov…
Semakin pesat perkembangan teknologi blockchain, impak alam sekitarnya telah menjadi kebimbangan global yang semakin meningkat.

UEA Akan Memperkenalkan Kelas AI untuk Kanak-Kana…
Emirat Arab Bersatu (UAE) sedang mempelopori pendidikan dengan memperkenalkan kurikulum kecerdasan buatan (AI) untuk kanak-kanak bermula dari tahun awal di sekolah kerajaan.

Ya, AI akhirnya akan menggantikan beberapa pekerj…
Seperti ramai profesional perniagaan lain, saya berminat dengan kecerdasan buatan (AI) dan baru-baru ini meminta ChatGPT untuk petikan daripada pemimpin teknologi tentang kepentingan AI bagi perniagaan.