lang icon Ukrainian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 6, 2025, 11:47 a.m.
8

Галюцинації штучного інтелекту погіршуються попри прогрес у моделях мислення — пояснення проблем галузі

Штучні моделі штучного інтелекту вже давно стикаються з проблемою галюцинацій, що є галузевим евфемізмом для неправдивої інформації, яку великі мовні моделі часто подають як факт. Судячи з напрямку розвитку останніх «міркувальних» моделей — створених компаніями, такими як Google і OpenAI, для «обмірковування» проблем перед відповіддю — проблема погіршується, а не покращується. За повідомленнями The New York Times, з Посиленням потужності моделей штучного інтелекту їхня схильність до галюцинацій зростає, а не зменшується. Це незручна реальність, особливо коли все більше користувачів звертаються до чат-ботів AI, таких як ChatGPT від OpenAI, застосовуючи їх для все більшої кількості задач. Коли чат-боти генерують сумнівні або неправильні твердження, користувачі ризикують опинитися в ніяковій ситуації або навіть стикнутися з серйозними наслідками. Ще тривожніше те, що компанії, що займаються AI, прагнуть з’ясувати, чому тепер чат-боти дають більше помилок, ніж раніше — ця загадкова ситуація підкреслює факт, що навіть творці AI не до кінця розуміють, як працює ця технологія. Ця тривожна тенденція ставить під сумнів поширену в галузі віру, що масштабування моделей штучного інтелекту автоматично зробить їх більш надійними і здатними. Ризики дуже високі, оскільки компанії продовжують інвестувати десятки мільярдів доларів у створення AI-інфраструктури для все великих і потужніших «міркувальних» моделей. Деякі експерти вважають, що галюцинації можуть бути внутрішньою характеристикою технології, що робить майже неможливим повністю позбавитися цієї проблеми. «Попри наші найкращі зусилля, вони завжди галюцинуватимуть», — повідомив The New York Times Амр Авадаллах, керівний директор AI-стартапу Vectara.

«Це ніколи не зникне. » Ця проблема настільки поширена, що тепер цілі компанії спеціалізуються на допомозі бізнесам у керуванні та пом’якшенні галюцинацій. «Недбале ставлення до цих помилок фактично знецінює цінність систем штучного інтелекту, » — сказав Pratik Verma, співзасновник компанії Okahu, яка консультує бізнеси щодо більш ефективного використання AI, — «це фактично руйнує цінність. » Це стало особливо очевидним після того, як останні міркувальні моделі OpenAI, o3 і o4-mini, що були випущені наприкінці минулого місяця, почали галюцинувати частіше за попередні версії. За внутрішнім рівнем точності OpenAI, модель o4-mini галюцинувала 48 відсотків часу, демонструючи низький рівень правдивості. Модель o3 мала рівень галюцинацій 33 відсотки, що приблизно вдвічі більше, ніж у попередніх моделей компанії. Так само, як відмічає The New York Times, і конкуренти, такі як Google і DeepSeek, стикаються з тими ж проблемами, що свідчить про те, що це проблема у всій галузі. Експерти попереджають, що з збільшенням розмірів моделей штучного інтелекту поліпшення кожної нової моделі стає все менш значним. Оскільки компанії швидко вичерпують доступні дані для навчання, багато хто вдається до синтетичних — або штучно згенерованих AI — даних для тренування моделей, що може мати потенційно руйнівні наслідки. У підсумку, попри постійні зусилля, галюцинації поширеніше, ніж будь-коли, і наразі технологія не демонструє ознак покращення. Більше про галюцинації AI — дивіться: «You Can’t Lick a Badger Twice»: Google’s AI Is Making Up Explanations for Nonexistent Folksy Sayings.



Brief news summary

Моделі штучного інтелекту дедалі більше генерують неправдиву інформацію, відому як «галюцинації», коли вони надають неправильні факти, незважаючи на покращення у здатності до логічного мислення. Ця проблема впливає на широко використовувані інструменти ШІ, такі як ChatGPT від OpenAI, та сприяє поширенню дезінформації. Вдивляючись у несподівану тенденцію, більші та більш просунуті моделі мають схильність до більшої кількості галюцинацій, ставлячи під сумнів уявлення, що великі моделі завжди більш надійні. Експерти вважають галюцинації невід’ємною обмеженістю сучасних технологій ШІ, навіть попри зростання інвестицій у цю галузь. Щоб боротися з цим, компанії запускають сервіси з виявлення та управління галюцинаціями, усвідомлюючи, що ігнорування їх зменшує цінність ШІ. Дослідження показують, що найновіші моделі OpenAI галюцинують майже у 48% випадків, а подібні проблеми спостерігаються й у моделей Google, що вказує на проблему у всій галузі. Такими факторами, як синтетичні навчальні дані та збільшення розміру моделей, може погіршуватися рівень галюцинацій. У підсумку, галюцинації у штучному інтелекті залишаються значною та зростаючою проблемою без чітких рішень на сьогодні.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 27, 2025, 2:46 p.m.

Blockchain.com розширює свою присутність в Африці…

Компанія розширює свою присутність на континенті у міру того, як чіткіші регулювання щодо криптовалют починають формуватися.

May 27, 2025, 1:40 p.m.

Meta реорганізовує команди штучного інтелекту, що…

Meta проводить масштабну реорганізацію своїх команд штучного інтелекту (ШІ) з метою прискорити розробку та впровадження інноваційних продуктів і функцій ШІ на тлі зростаючої конкуренції з компаніями OpenAI, Google і ByteDance.

May 27, 2025, 1:05 p.m.

Blockchain.com розширюється в Африці, оскільки фо…

Blockchain.com посилює свою діяльність в Африці, орієнтуючись на ринки, де уряди починають встановлювати регуляції у сфері криптовалют.

May 27, 2025, 11:28 a.m.

Білал Бін Сакиб призначений спеціальним помічнико…

Прем’єр-міністр Шахбаз Шарів призначив Білаля Бін Сакіба, генерального директора Пакистанської криптовалютної ради (PCC), своїм спеціальним радником із питань блокчейну та криптовалют, надавши йому статус міністра державної ради.

May 27, 2025, 11:21 a.m.

Два шляхи для штучного інтелекту

Минулої весни Даніель Кокотајло, дослідник безпеки штучного інтелекту в компанії OpenAI, пішов у відставку у знак протесту, переконаний, що компанія не готова до майбутнього технологій ШІ і прагне привернути увагу до проблеми.

May 27, 2025, 9:43 a.m.

Група блокчейн-технологій робить сміливий крок: з…

Ринок криптовалют наразі переживає сильний вітер, а Blockchain Group щойно додала значущого цифрового палива до вогню.

May 27, 2025, 9:23 a.m.

Японський стартап використовує штучний інтелект д…

Японський стартап Monoya, заснований наприкінці 2024 року, досягає значних успіхів у подоланні постійних труднощів, з якими стикаються малі підприємства у міжнародній торгівлі, особливо тих, що пов’язані з мовними бар’єрами, культурними відмінностями та складними нормативами.

All news