Жасанды интеллект қауіпсіздігін қорғаушылар аса қуатты жүйелер үшін Оппенгеймердің ядролық сынақ есептеуін қайта жасауға шақыруда

Жасанды интеллект компаниялары Роберт Оppenхаймердің алғашқы ядролық сынағынан бұрын қауіпсіздік есептеуін қайталап жасауға ынталандырылды, ол жүйелер бұрын-соңды болмаған қуаттылыққа ие болмас бұрын. Жасанды интеллект қауіпсіздігінің көрнекті тұлғасы Макс Тегмарк АҚШ физигі Артур Камптон жүргізген Trinity сынағынан бұрын жүргізілген есептеулер тәрізді есептеулер жасағанын айтты. Тегмарк жоғары дамыған жасанды интеллект өмірлік қауіп төндіру ықтималдығы 90% екендігін анықтаған. АҚШ үкіметі 1945 жылы Trinity сынағын жалғастырды, оның қауіпсіздік кепілдіктері бойынша атмосфераны тұтандырып, адамзатқа қауіп төндіретін атом бомбасының ықтималдығы өте төмен деп сендірілді. Тегмарк пен оның MIT студенттерінен тұратын үш әріптесінің мақаласында олар «Камптон тұрақтысы» деп аталатын ұғымды есептеуді ұсынады, ол — барлық күшті жасанды интеллект адамның бақылауынан шығу ықтималдығы ретінде анықталады. Камптон 1959 жылы АҚШ жазушысы Перк Болмен сұхбатында, ол сынақты мақұлдағанын айтты, себебі ол «үш миллионға бірден төмен» жоғалу ықтималдығын бағалаған. Тегмарк жасанды интеллект компанияларынан барлық салаларда адам интеллектінен асып түсетін, Әлеуметтік Жасанды Жүйенің (АШЖ) бақылауынан шығу ықтималдығын мұқият анықтауға жауапкершілік алу керек екенін дәлелдеді. «Жасанды зияткерліктің жоғары деңгейін құрып жатқан компаниялар Камптон тұрақтысын есептеу керек, яғни бақылаудан шығу ықтималдығын есептеу керек», — деді ол. «Біз оны «біз мұны жақсы сезінеміз» деп айтумен шектелуге болмайды.
Олар пайызы мен пайызын есептеуі тиіс». Тегмарк бірнеше компанияның Камптон тұрақтысы бойынша ортақ пікірі жасасса, ол «саяси ынта-жігерді» ынталандырып, жаһандық жасанды интеллект қауіпсіздігі стандарттарын орнатуға алып келетінін ұсынды. MIT физика және жасанды интеллект зерттеушісі ретінде, Тегмарк «Өмірдің болашағы институтын» құрды, ол — қауіпсіз жасанды интеллект дамуын қолдайтын коммерциялық емес ұйым. 2023 жылы институт ашық хат жариялап, қуатты жасанды интеллект жасалынуын тоқтатуды сұрады. Бұл хатқа 33 000-дан астам адам қол қойды, оның ішінде институттың алғашқы қолдаушыларының бірі Илон Маск және Apple-дің негізін қалаушы Стив Возняк болды. ChatGPT-дің шығуынан бірнеше ай кейін жарияланған бұл хат, жасанды интеллект зертханалары “қадағалай алмайтын, бақылауы қиын, әрі қауіпті түрде күшейтілген цифрлық сананың аулақта жүру” үшін бәсекеге түскенін ескертті. Тегмарк Guardian-пен әңгімесінде, жаңа тәсілді әзірлеп жатқан жасанды интеллект саласындағы мамандар — технология саласындағы кәсіпкерлер, мемлекеттік қауіпсіздік агенттіктерінің өкілдері және академиктер, жасанды интеллект қауіпсіздігін қамтамасыз ету үшін — айтып берді. Тегмарк ұсынған Singapore Consensus on Global AI Safety Research Priorities баяндамасы үш негізгі зерттеу саласын анықтады: қазіргі және болашақ жасанды интеллект жүйелерінің әсерін өлшейтін әдістерді дамыту; қажетті жасанды интеллект мінез-құлқын белгілеу және оны жүзеге асыратын жүйелерді жобалау; жасанды интеллект мінез-құлқын басқару мен бақылау. Баяндаманы қарастыра отырып, Тегмарк жақында Париждегі үкіметтік жасанды интеллект саммитінен кейін қауіпсіз жасанды интеллект дамыту ынтасының қайта оралғанын атап өтті, онда АҚШ вице-президенті ЖД Вэнс қауіпсіздік мәселелерін менсінбеуге шақырды, ол «қауіпсіздікке алаңдаушылықпен айналысу арқылы жеңіске жетуге болмайды» деді. Тегмарк: «Париждегі бұл күмән сейілді ме, әлде халықаралық ынтымақтастық қайта жанданды ма, ол жақсы сезіледі», — деп атап көрсетті.
Brief news summary
AI қауіпсіздігі маманы Макс Тегмарк, MIT физика профессоры және Өмір Болашағы Институтының негізін қалаушы, 1945 жылы тринити ядролық сынағынан бұрын жүргізілген қатал қауіпсіздік есептеулеріне ұқсас қауіпсіздік есептеулерін қабылдауға шақырады, ол алғыр AI-дың бар болу қатерлерін атап көрсетеді. Артур Комптонның тарихи бағамдауымен салыстыра отырып, Тегмарк гипотетикалық супер ақылды AI адам бақылауынан шығарылып, адамзатты қауіпке төндіру ықтималдығы 90% деп бағалайды. Ол «Комптон тұрақтысы» деп аталатын, қасақана шиеленісті AI-ға арналған сандық тәуекел өлшемін ұсынады, ол саясаттық шешімдер мен ғаламдық қауіпсіздік келісімдеріне негіз болу үшін қолданылуы мүмкін. Бұл еңбек 2023 жылы Өмір Болашағы Институтының ашық хатына сәйкес келеді, оны 33,000-нан астам адам—Элон Маск пен Стив Возняк сияқты тұлғалар қолдаған, ол бақылаусыз AI жарысына қарсы ескертуді қамтиды. Тегмарк сондай-ақ, Әлемдегі AI қауіпсіздік зерттеулерінің басым бағыттарын анықтау мақсатында Сингапур Декларациясына қосылды, бұл әлем бойынша маңызды қауіпсіздік зерттеулерін бағыттауға ұмтылады. АҚШ өкілдерінің кейбір күмәніне қарамастан, ғаламдастықтың ынтымақтастығы мен оң көзқарастары қауіпсіз AI дамуына қатысты күшті сақталуда.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Кремнийнен саналы болуға дейін: Жасанды интеллект…
Адамзат әрдайым қоныс аударған—ғана емес, физикалық кеңістік арқылы ғана емес, жұмыс пен ойлау бұрышында да көшкен.

Үкіметтік қызметтерде блокчейнді қабылдау: әлемді…
Ғаламдық үкіметтер қоғамдық қызмет көрсетуді жақсартуға арналған трансформациялық құрал ретінде блокчейн технологиясын кеңінен қолдануға мұқтаж болып отыр.

Папа Лев XIV папалықтың болашағын айқындап, жасан…
Папа Лео XIV сенбі күні өзінің папалық қызметінің көзқарасын анықтап, адамзат үшін маңызды сын-қатер ретінде жасанды интеллектті (ЖИ) атап көрсетті және Папа Франциск бекіткен негізгі міндеттемелерді сақтауға уәде берді.

Блокчейннің Интернет заттарының (IoT) қауіпсіздіг…
Блокчейн технологиясын Интернет заттарымен (IoT) біріктіру сандық қауіпсіздікті айтарлықтай арттыра отырып, деректерді ұйымдастыру үшін децентрализацияланған, өзгерісі қиын әдіс ұсынады.

SoundCloud мекенжайлары қолдану шарттары жүктелге…
SoundCloud әрқашан өнерпаздарға басымдық береді және беруді жалғастырады.

Блокчейннің Интернет заттарымен (IoT) интеграциясы
Блокчейн технологиясын Интернет заттарымен (IoT) біріктіру ақылды құрылғылар мен қолданбалар саласын өзгертіп, жаңашылдық пен тиімділіктің жаңа дәуірін ашуда.

Болжам: Бұл Жасанды Интеллект (ЖИ) жартылай өткіз…
2023 жылдан 2024 жылға дейін C&P 500 және Nasdaq Composite сәйкесінше 58% және 87% жалпы кіріс әкелді, көп жағдайда жасанды интеллект (ЖИ) революциясының әсерінен болды.