lang icon Kazakh
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
7

AI-дің болашағы туралы талас: апат па, әлде қалыпты жағдай ма? Ең үздік мамандардың ой-пікірлері

Өткен жылы көктемде OpenAI компаниясының AI қауіпсіздігі зерттеушісі Даниэль Котатайло наразылық ретінде жұмыстан кетті, ол компанияның болашақтағы AI технологиялары үшін дайын еместігін байқап, қауесет таратуға тырысты. Телефон әңгімесінде ол жағымды әрі мазасыз көрінді, AI «үйлесімі»—яғни AI адамның құндылықтарына сай болуын қамтамасыз ету әдістері—жұмсақтаныштап жатқанда, интеллектінің дамуына артта қалуда деп түсіндірді. Ол ғалымдарға күшті жүйелерді бақылаусыз шығару бағытында жүгіріп жатқанын ескертті. Котатайло, философия магистрлігінен AI-ға ауысқан, өз бетінше AI дамуын қадағалап, маңызды интеллектілік белестер қашан болатынын болжауға үйренген. AI күтілгеннен жылдамырақ дамып кеткен соң, ол өз мерзімін бірнеше онжылдыққа ауыстырды. 2021 жылғы «2026 жылы қалай болмақ» сценарийінде көптеген болжамдар ерте орындалды, ол 2027 немесе одан ерте «қайту нүктесіне» жетеді де, онда AI адамзаттан жоғары қуатты әрі маңызды тапсырмаларды орындауға қабілетті байқалды. Ол үрейлі түрде сөйледі. Сонымен қатар, Принстон компьютертанушысы Саяш Капур мен Арвинд Нараянан «AI Жағымсыз Сарымсақ», яғни «AI мыжғы сатылымы» атты кітаптарын жазды, олардың көзқарасы мүлдем басқа болды. Олар AI уақыты тым оптимистік деп, AI қолданудың уәде еткендеріне көбіне жалған немесе асыра айтылған дерек деп айтты; ал нақты әлемнің күрделілігі AI-дың өзгерістілік әсері баяу болатынын көрсетті. Медицина мен жұмысқа қабылдау салаларында AI қателері мысалында, тіпті соңғы жүйелердің де шынайылықпен байланысы әлсіз екенін атап көрсетті. Жақында, үш автор да өз көзқарастарын жаңа есептермен нақтылады. Котатайлоның коммерциялық емес ұйымы, AI болашағы жобасы, «AI 2027» деп аталатын, адамдарды басқаруға немесе жойып жіберуге қабілетті аса интеллектіл AI-дың 2030 жылға қарай күшті болуын болжаған қорқынышты сценарийді баяндады—қатаң ескерту. Ал, Капур мен Нараянанның «AI Тәжірибелі Технология» мақаласы, оның пікірінше, заңдар мен қауіпсіздік стандарттарынан бастап физикалық шектеулерге дейінгі нақты кедергілер AI-дың кең қолданылуына және революциялық әсерінің шектелуіне әкеледі дейді. Олардың ойынша, AI — «қауіпті емес», қауіпсіздік шараларымен басқаруға болатын «қалыпты» технология, оны ядролық қуатпен салыстырды, ядролық қарудан гөрі қауіпсіздеу. Ондаған болайық, қалыпты бизнес пе әлде апокалипсис пе?Бұл екі түпкілікті болжам, бұл есептерді жоғары білікті мамандар жасағандықтан, әлемді рухани ізденістермен салыстыруға ұқсас — екі де екі пікірді бір уақытта дәлелдейтін. Бұл қиындық, бір жағынан, AI-дың жаңалығы мен екінші жағынан, әртүрлі көзқарастардан туындайды. Жалпы алғанда, Батыс жағалауындағы технология ойшылдары жылдам өзгеріске сенсе, Шығыс жағалауындағы ғалымдар күмәнмен қарайды. AI зерттеушілері – тәжірибе арқылы жылдам жетістіктерге ұмтылады, ал басқа компьютер мамандары — теориялық дәлдікке мән береді. Өнеркәсіп өкілдері—тарихты жасауға тырысса, ал сыртқы сарапшылар технологияға құрғақ әңгімелерімен шектеу қояды. Технология, прогресс пен ойлау туралы көзқарастар терең алшақтықты тудырды. Бұл қызықты талас — өзіне проблемасы ғана емес. Индустрия ішіндегі басты топтар көбінесе «AI 2027» қағидаттарын қабылдайды, бірақ уақыт туралы келіспеушілік—жергілікті планетаның апатқа ұшырауы немесе төмендеуі сияқты маңызды мәселеге немқұрайды қарау сияқты. Ал, «AI Тәжірибелі Технология» атты ортақ пікірдегі ойлар—адамдарды бақылауда ұстауды талап етеді, бірақ олар әлсіз әрі ұсақ, соңғы апаттардың алдын алу үшін назардан тыс қалды. AI қоғамда маңызды рөл ойнаған сайын, ол мамандар пікірталобына емес, іс-қимылға негізделген бір ортақ көзқарас қалыптастыру керек. Сарапшылардың бірлігі болмаған соң, шешім қабылдаушылар тәуекелдерді елемеуі оңайырақ болады. Қазіргі кезде AI компаниялары да, қауіпсіздік пен қуаттық мүмкіндіктерді тепе-тең ұстауда айтарлықтай өзгеріс жасаған жоқ.

Сонымен бірге, жаңа заңдар AI модельдерін және автоматтандырылған шешім қабылдау жүйелерін он жыл бойы мемлекеттік реттеуден тыс қалдырып отыр—яғни, егер ең нашар сценарий жүзеге асса, AI адамзатқа өз бетінше бақылау жүргізе алады. Қауіпсіздікті қазір-ақ ойлау керек. AI-дың болашағын әңгіменің мүмкіндіктері мен қауіптері арасындағы алмасуларға негізделген болжау—қауіпсіз сценарийлер сирек, ал мүмкін емес қауіптер жиі ескерілмейді; керісінше, фантастикалық болжаулар ықтималдылыққа қарамайды. Тіпті алдын ала болжайтындар да, мысалға, жазушы Уильям Гибсон күтпеген оқиғалар олардың болжамдарын бұзуына әкелді. «AI 2027» — өміршең әрі фантастикалық сценарий, ғылыми фантастикаға ұқсайды, түрлі диаграммалармен толықтырылған. Онда 2027 жылдың ортасында, «қайталама өзін-өзі жетілдіру» (RSI) арқылы, AI жүйелері өзіне-өзі зерттеу жүргізіп, білімін арттырып, адам қадағалауынан шығуы мүмкін екендігі көрсетіледі. Бұл геосаяси қақтығыстарды — мәселен, Қытайдың Тайваньда АЙ-ды бақылау үшін үлкен деректер орталықтарын салуы мүмкін — тудыруы ықтимал. Бұл сценарийдің нақты сипаттары қызығушылықты арттырады, бірақ олардың әсері икемді; басты ұғым — интеллектінің жарылуы күтілуде және қуатты бәсекелестік басталуы мүмкін. RSI — гипотетикалық және қауіпті құбылыс; AI фирмалары оның қауіптілігін мойындайды, бірақ оны өз жұмыстарын автоматтандыру үшін қолдануды жоспарлайды. RSI іске қосылса, адам интеллектін жеңетін супер интеллект пайда болуы мүмкін — бұл аз ықтимал болса да, маңызды. Бұл жағдайлар — қарулы жарыстар, AI-дың адамзатқа қарсы әрекеттері, немесе жақсылықты тілеген, бірақ қуатты жоғары деңгейге жеткен AI — мүмкін. AI-дың өзгергіш табиғаты, құпия зерттеу жұмыстары және болжамдар негізсіздігі арқасында белгісіздік сақталуда. «AI 2027» технологиялық және адамгершілік тұрғыда сәтсіздік сценарийін сенімді түрде баяндайды, ондағы компаниялар RSI-ды біріншіден, түсіндірмелік және басқару қатынастарын болмастан ұстанады деп болжайды. Котатайло бұлар—бәсекелестік пен қызығушылықтан туады деп, белгілі қауіп-қатерлерді ескермегендіктен, аталмыш компаниялар—өздері уақытша бұрмаланған, қате үйлесімді емес әрекет жасаушылар. Ал, Капур мен Нараянанның «AI Тәжірибелі Технология» тұжырымы — шығыс жағалаудың сақтықпен қараған, тәжірибеге негізделген көзқарасы — жылдам интеллект жарылыстарын күмәнмен қарайды. Олар «жылдамдық шекараларын» — аппараттық шығындар, деректердің жеткіліксіздігі, жалпы технологиялық қолдану — баяулататын факторлар ретінде көрсетеді. Бұл уақыт береді, реттеушілік және қауіпсіздік шараларын жасауға мүмкіндік бар. Олардың ойынша, интеллект маңызды емес, қуат — ортамен әсері; жоғары технологиялық шығарылымдар баяу таралады. Мысал ретінде, жүргізушісіз көліктердің шектеулі қолданылуы және Moderna компаниясының COVID-19 вакцинасын жасауы — вирусты шағын уақыт ішінде жасауға болатынына қарамастан, емдеудің кең таралуы бір жылға созылды, себебі биологиялық және ұйымдық шектеулер бар. AI-дың инновацияға әсері әлеуметтік, нормативтік немесе физикалық шектеулерді жоққа шығармайды. Қосымша, Нараянан көрсеткендей, AI-дың ақылға негізделуі салалық сараптаманы, қауіпсіздік жүйелерін— күштік қорғаулар, қайталанған жүйелер, ресмилендірілген верификация—бар, олар адаммен бірге машиналардың қауіпсіздігін қамтамасыз етеді. Технологиялық әлем реттелді, әрі AI біртіндеп соған кірігуі керек. Милицауға арналған AI — ол басқа, құпия динамикалармен ерекшеленеді, әрі AI-дың қарулануы — басты қорқыныштардан — ерекше бақылауды қажет етеді. Олар белсенді басқаруды ұсынады: реттеушілер мен ұйымдар AI-ды түгел бақылау орнына, нақты қолдануларын, қауіптерін, сәтсіздіктерін бақылап, ережелерді нығайтуы керек. Жұмсау ойлар, яғни жан-жақты ойлау мен реакция—бұл да дағды. AI-дан туындайтын провокациялар арқылы, екі топ көзқарастар қақтығысы тереңдейді. Бірақ, бір ұжым ретінде ойлау туралы бір көзқарас — адам мен жасанды интеллект бірлесіп жұмыс істейтін «ақыл-ой фабрикасын» елестету: мұнда адамдар қауіпсіздік құралдарымен жұмыс істейді, өндіріс пен қауіпсіздікті қатаң бақылайды, жаңалықтар біртіндеп енеді және ашық жауапкершілік қойылады. AI кейбір ойлау процестерін автоматтандырса да, адам бақылауы мен жауапкершілігі негізгі болып қалады. AI қоғамда маңызды болған сайын, ол адам билігін әлсіретпейді; керісінше, жауапкершілікті арттырады, себебі кеңейтілген тұлғалар үлкен міндеттер арқалайды. Қолдануды тоқтату — ойлау, бұл соңы, соңында адамдар әлі де басқарушы — ең басты шындық. ♦



Brief news summary

Өткен көктемде AI қауіпсіздігі зерттеушісі Дэниел Кокотайло OpenAI-дан шығып, AI сәйкестендіру технологияларының жылдам техникалық даму қарқынымен сәйкес келе алмай жатқанын ескертті және 2027 жылға қарай AI адамның көптеген тапсырмаларында асып түсетін "еш қайтар жолы болмайтын шекара" болатынын болжады. Ол қайталанатын өздігінен жетілдіру және геосаяси бәсекенің ушығуы сияқты қауіптерді ерекше атап өтіп, апатты салдарға әкелуі мүмкін екенін айтты. Ал, Принстон ғалымдары Саяш Капур мен Арвинд Нараиян, «AI бақайшылығы» атты еңбектерінің авторлары, AI-дың әсері біртіндеп, реттелу, практикалық шектеулер және баяу қабылдаумен дамитынын дәлелдейді. Олардың «Қалыпты технология ретінде AI» зерттеуі AI-ды ядролық энергиямен салыстырады – күрделі, бірақ қауіпсіз тетіктер арқылы басқарылатын. Бұл пікірталас кеңес: Батыс жағалауындағы технология нарықтық экспериментті қолдаса, Шығыс жағалауында мұқият теориялық негіз және басқару маңызды деп қарастырады. Кокотайло бәсекелестік және түсініксіз жүйелерден төнетін алдын-ала болжау мүмкін емес қауіптерге қарсы шұғыл әрекет ету қажеттілігін айтады, ал Капур мен Нараиян белсенді басқару және қауіпсіз AI интеграциясын қолдайды, әскери AI-ды ерекше қауіптері үшін қоспағанда. Жалпы алғанда, ол қоғамда AI-дың терең енген кезінде біріккен, жауапкершілікті бақылаудың өзектілігін көрсетеді, ол сақтық, адамдық әдеп пен есепке алуды басты назарда ұстауы керек.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 27, 2025, 4:07 p.m.

Екінші крипто инвесторына Нью-Йорк қаласындағы сә…

Екінші криптовалюта инвесторы сәрсенбі күні полицияға тапсырды, бұл Манхэттендегі ластанған шағын үйдің ішінде бірнеше апта бойы азаптауларға ұшыраған ер адамды ұрлап кету күдігімен байланысты болды.

May 27, 2025, 3:26 p.m.

Жасанды интеллектке негізделген денсаулық сақтау …

Жасанды интеллект (ЖИ) медицина саласын тездетіп революциялап жатыр, ол инновациялық шешімдер арқылы науқас күтімін және операциялық тиімділікті айтарлықтай жақсартады.

May 27, 2025, 2:46 p.m.

Blockchain.com Африка бойынша кеңейтілуде, себебі…

Компания криптовалюталарға қатысты нақтырақ реттеулер қалыптаса бастаған сайын құрлықтағы қатысуын арттыруда.

May 27, 2025, 1:40 p.m.

Meta жасанды интеллект командаларын қайта құрып, …

Meta өздерінің жасанды интеллект (ЖИ) командаларын кеңейтіп, жаңа ЖИ өнімдері мен функцияларын дамыту және енгізуді жылдамдату үшін үлкен қайта құрылымдауды жүргізуде, өйткені OpenAI, Google және ByteDance сияқты компаниялардың бәсекелестігі күшеюде.

May 27, 2025, 1:05 p.m.

Blockchain.com Африкада кеңейіп жатыр, себебі жер…

Blockchain.com Африкаға назарын аударып, үкіметтердің крипто реттеуін енгізу басталған нарықтарға бағытталуда.

May 27, 2025, 11:28 a.m.

Билал бин Сакиб Президенттің блокчейн және крипто…

Премьер-министр Шахбаз Шариф Билал Бин Сақибті, Пәкістан Крипто Кеңесінің (PCC) атқарушы директоры, блокчейн мен криптовалюталар бойынша арнайы кеңесшісі ретінде тағайындады, оған мемлекеттік министр мәртебесін берді.

May 27, 2025, 9:43 a.m.

Блокчейн тобы батыл қадам жасап, Bitcoin сатып ал…

Криптовалюта нарығы қазіргі кезде күшті желдер күшейіп барады, ал Blockchain Group дәл отқа отын қосқан сияқты.

All news