lang icon Kazakh
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 10, 2025, 5:50 p.m.
3

Жасанды интеллект чатботтары тұрақты иллюзия мәселелеріне тап болуда, сенімділікті төмендетуде

Жетекші технологиялық компаниялар, мысалы, OpenAI мен Google шығарған жасанды интеллект чатботтары соңғы айларда жауаптың сенімділігін арттыру мақсатында ойлау қабілетін жақсартатын түзетулер енгізуде. Алайда, соңғы сынақтар көрсеткендей, кейбір жаңа үлгілер бұрынғы нұсқалардан нашар жұмыс істеп, «галадыация» деп аталатын құбылысты байқатуда — яғни чатботтар жалған ақпарат таратып, шынайы бола тұра мағынасыз немесе нұсқауларға сай келмейтін жауаптар беруі. Бұл мәселе OpenAI-дің ChatGPT, Google-дың Gemini сияқты ірі тілдік модельдерінің (LLMs) алғашынан бері келе жатқан және толық шешілуі қиын сияқты көрінетін проблема. OpenAI-дің техникалық есептамасында 2024 жылдың наурызында шығарылған o3 және o4-mini модельдерінің қарт модельдерге — мысалы, 2024 жылы соңында шыққан o1 моделіне — қарағанда айтарлықтай жоғары галлюцинация деңгейі байқалғаны көрсетілген: o3 моделінде галлюцинация мөлшері 33%, o4-mini-де 48%, ал o1-де — 16% болды, яғни ашық мәліметтерді қорытындылау кезінде. Сол сияқты, Vectara платформасының рейтингінде көрінгендей, кейбір ойлау моделдері — мысалы, DeepSeek-R1 — әуелгі нұсқалармен салыстырғанда айтарлықтай жоғары галлюцинация көрсеткен, және бұл модельдер бірнеше қадамды талдаудан кейін жауап беретін болғанымен. OpenAI-дің пікірінше, ойлау процесі әуелден галлюцинацияның өсуіне себеп емес және олар барлық моделдердің галлюцинациясын азайту бағытында белсенді зерттеулер жүргізуде. Бұл мәселенің шешілмеуі бірнеше қолданымдарға қауіп төндіреді: жалған ақпарат жиі шығаратын модельдер ғылыми-зерттеу көмегін қиындатады; заңгерлік кеңес беретін чатботтар жалған іс жүргізулерді көрсетуі мүмкін, бұл заңды қатерлер тудырады; ал клиенттерге қызмет көрсету боттары ескі ақпаратпен жұмыс істесе, жұмыс процесіне кедергі болуы ықтимал. Бастапқыда, ИИ компаниялары галлюцинация деңгейі уақыт өте төмендейді деген үмітте болған, себебі алғашқы модель жаңартулары жақсарта түскен еді. Алайда, соңғы кездегі жоғары галлюцинация деңгейлері бұл болжамға қарсы шықты, ойлау қатысқаны немесе қатысқаны жоқ, — еш айырмашылық жоқ.

Vectara рейтингінде OpenAI мен Google моделдерінің галлюцинация деңгейі шамалас және бұлар салыстырмалы орындарда қарастырылуда, нақты сан деректер маңызды емес. Google бұл туралы пікір білдірмеді. Дегенмен, мұндай рейтингтердің шектеулері бар. Олар әртүрлі галлюцинация түрлерін бірдей түрде ескереді; мысалы, DeepSeek-R1 моделінің 14, 3%-дық галлюцинациясы негізінен «жақсы» деп саналатын — яғни логикаға сай және біліммен расталған, бірақ мәліметтер негізінен болмаған жауаптар — жағымды жағдайлар. Сондай-ақ, тек мәтінді қысқарту негізінде жасалған тестілер басқа тапсырмаларда галлюцинация деңгейін нақты көрсетпеуі мүмкін, себебі LLM-дер нақтылы мәтін түсінуде ғана емес, жалпы басқа мекемелер үшін арналған. Вискантин университетінің Emily Bender-і бұл модельдердің алдымен ықтимал келесі сөздерді болжауға бағытталғанын, шын мәнінде мағынаны түсінбейтіні және «галлюцинация» терминін қолдану екіжақты әрі адастырғыш екенін атап көрсетеді. Bender «галлюцинацияны» кемшіліктерді барынша дұрыс емес деп сынға алады, себебі ол жүйе әдеттегідей сенімді емес деген түсінікке және жасанды интеллектке адамға тән қабылдау қасиеттерін жүктеуге әкеледі, ол «көреді» немесе «сезеді» дегенді білдірмейді. Принстон университетінің Arvind Narayanan бұл моделдердің сенімсіз немесе ескірген мәліметтерді пайдалануы арқылы қате жіберетінін және жаттығу деректерін көбейту, есептеу қуатын арттыру бұл мәселелерді шеше алмайтынын айтады. Осылайша, қателіктер жіберетін ИИ-дің ұзақ уақыт бойы жалғаса беруі ықтимал. Narayanan мұндай модельдерді негізгі ақпаратты растау тез әрі оңай болған кезде ғана пайдалану керек деп кеңес береді, ал Bender бұл мәселеде жасанды интеллектке толық сенбеуді ұсынады, әсіресе фактілік мәліметтер үшін.



Brief news summary

OpenAI мен Google сияқты компаниялардың жасанды интеллект чатботтарындағы соңғы жетістіктері ойлауды жетілдіруге және дәлдікке бағытталғанымен, парадоксалды түрде, бұзылыстардың, яғни модельдер жалған немесе адастырушы ақпаратты генерациялап, нұсқауларды дұрыс орындамайтын жағдайлардың жиілігі артты. Мысалы, OpenAI-дың жаңа o3 және o4-mini модельдері сәйкесінше 33% және 48% деңгейінде бұзылыстарды көрсетсе, ал ескі o1 моделі үшін бұл көрсеткіш 16% болған, бокста DeepSeek-R1 модельдерінде де ұқсас тренд байқалады. Бұл қиындықтарға қарамастан, OpenAI ойлау компоненттері кінәлі емес деп есептейді және бұзылыстарды азайту жұмыстарын жалғастыруда. Бұл мәселе әсіресе ғылыми-зерттеу, заң кеңесі және тұтынушыларға қызмет көрсету салаларында маңызды, себебі қателіктер ауыр салдарға әкелуі мүмкін. Vectara жүргізген бағалаулар көрсеткендей, ойлаушы және ойламайтын модельдер арасындағы бұзылыстар жиілігінде айтарлықтай айырмашылық жоқ, дегенмен мәліметтер шектеулі. Мамандар “бұзылыстар” термині күрделі мәселелерді архаикалық немесе сенімсіз деректерге тәуелділікті ескере отырып, тым жеңілдетіп көрсетуі мүмкін деп ескертеді. Анықтықтың тұрақсыздығына байланысты, кейбіреулер AI чатботтарды ақпаратты дәлелдеу оңай болатын сценарийлерге ғана қолдануды ұсынады, себебі тәуелсіз фактілерді тексеру күрделірек. Жалпы алғанда, бұзылыстар әлі де жасанды интеллект тілі моделеріне тән негізгі шешілмеген проблемалардың бірі болып тұр.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 10, 2025, 9:47 p.m.

Робинхуд Еуропада АҚШ бағалы қағаздарымен сауда ж…

Robinhood Еуропалық трейдерлерге АҚШ-тың қаржылық активтеріне қол жетімділікті қамтамасыз ету мақсатында Blockchain негізделген платформаны дамытуда, жағдайға жақын екі дереккөз Bloomberg-ке берген ақпараттар based.

May 10, 2025, 9:02 p.m.

OpenAI o3-mini-ді іске қосты: Жылдам, ақылды әрі …

OpenAI o3-mini деп аталатын жаңа жасанды интеллекті логика моделін жариялады, ол математикалық есептеулерді, кодтау тапсырмдарын және ғылыми мәселелерді шешуде дәлдікті арттыруға арналған.

May 10, 2025, 8:22 p.m.

Tether-дің USDT-і Kaia Blockchain-та іске қосылды…

Тестер — тұрақты валюта шығаратын компания, өткен жылы 2024 жылдың тамызында іске қосылған Layer 1 желісі – Kaia блокчейніне өзінің ұлттық USDT тұрақты валютасын шығарды.

May 10, 2025, 7:29 p.m.

Элтон Джон мен Дуa Липа AI-дан қорғануды сұрайды

Дуа Липа, сэр Элтон Джон, сэр Іан Маккеллен, Флоренс Уелч және 400-ден астам басқа британдық музыканттар, жазушылар мен суретшілер премьер-министр Сэр Кір Стамерге авторлық құқық заңдарын жаңартып, жасанды интеллекттің (AI) шығармаларын пайдалану кезінде авторларды қорғауды сұрады.

May 10, 2025, 6:49 p.m.

Қаржылық қамтуды ынталандыруда блокчейннің рөлі

Блокчейн технологиясы әлем бойынша қаржылық қамту үдерісін ілгерілету үшін қуатты құрал ретінде күннен-күнге танымал болу жағдайында, әсіресе дәстүрлі банктік қызметтерге қол жеткізе алмайтын және қызмет көрсетілмеген халықтарға арналған.

May 10, 2025, 5:14 p.m.

Денсаулық сақтау саласында блокчейн: науқас дерек…

Денсаулық сақтау саласы деректер қауіпсіздігін және басқаруын жақсарту мақсатында блокчейн технологиясын пайдаланып, үлкен өзгерістер жасалып жатыр.

May 10, 2025, 4:16 p.m.

Папа Лео XIV өз көзқарасын білдіріп, жасанды инте…

ВАТИКАН ҚАЛАЕСІ (AP) — Сенбі күні папа Лео XIV өзінің папалығына арналған көрінісін айтып, адамзаттың алдындағы маңызды сын-қатер ретінде жасанды интеллектіні (ЖИ) атап өтіп, папа Франциск белгілеген негізгі басымдықтарды жалғастыруға уәде берді.

All news