Halucynacje sztucznej inteligencji pogarszają się mimo postępów w modelach rozumowania – wyjaśniamy wyzwania branżowe

Modele sztucznej inteligencji od dawna borykają się z problemem halucynacji, czyli branżowym eufemizmem na określenie fałszywych informacji, które duże modele językowe często przedstawiają jako fakty. Sądząc po kierunku rozwoju najnowszych modeli „rozumowania” – opracowanych przez firmy takie jak Google i OpenAI, aby najpierw „przemyśleć” problem, a dopiero potem odpowiedzieć – problem ten pogarsza się, a nie poprawia. Jak donosi The New York Times, wraz z rosnącą mocą modeli sztucznej inteligencji, ich skłonność do halucynacji rośnie, a nie maleje. To niekomfortowa rzeczywistość, gdyż coraz więcej użytkowników korzysta z chatbotów AI, takich jak ChatGPT od OpenAI, stosując je do coraz różniejszych zadań. Gdy chatboty generują wątpliwe lub błędne wypowiedzi, użytkownicy ryzykują zawstydzeniem, a nawet poważniejszymi konsekwencjami. Jeszcze bardziej niepokojące jest to, że firmy tworzące AI mają trudności z wyjaśnieniem, dlaczego chatboty popełniają teraz więcej błędów niż wcześniej — co jest frustrującą sytuacją, podkreślającą fakt, że nawet ich twórcy nie do końca rozumieją, jak działa ta technologia. Ten alarmujący trend podważa powszechne przekonanie w branży, że skalowanie modeli AI samo w sobie uczyni je bardziej niezawodnymi i zdolnymi. Stawka jest niezwykle wysoka, ponieważ firmy nadal inwestują dziesiątki miliardów dolarów w budowę infrastruktury AI dla coraz większych i potężniejszych modeli „rozumowania”. Niektórzy eksperci uważają, że halucynacje mogą być nieodłącznie związane z technologią, co czyni całkowite wyeliminowanie tego problemu niemal niemożliwym. „Pomimo naszych najlepszych starań, one zawsze będą halucynować” — powiedział Amr Awadallah, CEO startupu AI Vectara, dla The New York Times.
„To się nigdy nie zmieni. ” Problem jest tak rozpowszechniony, że powstały całe firmy specjalizujące się w pomaganiu przedsiębiorstwom w radzeniu sobie z halucynacjami i ich ograniczaniu. „Niewłaściwe radzenie sobie z tymi błędami praktycznie eliminuje wartość systemów AI” — powiedział Pratik Verma, współzałożyciel Okahu, firmy doradczej wspierającej przedsiębiorstwa w skuteczniejszym wykorzystywaniu AI, dla NYT. Wynika to z faktu, że najnowsze modele, takie jak o3 i o4-mini, które zostały wydane pod koniec ubiegłego miesiąca, wykazują się częstszym halucynowaniem niż wcześniejsze wersje. Na wewnętrznym benchmarku dokładności OpenAI, model o4-mini halucynował w 48 procentach przypadków, wykazując niską prawdomówność. Model o3 miał wskaźnik halucynacji na poziomie 33 procent, co jest mniej więcej dwukrotnie więcej niż wcześniejsze modele rozumowania firmy. Podobnie, jak zauważa The New York Times, konkurenci tacy jak Google i DeepSeek napotykają na te same problemy, co wskazuje, że jest to wyzwanie branżowe. Eksperci ostrzegają, że wraz z powiększaniem się modeli AI, postępy, jakie każdy kolejny model przynosi w porównaniu do poprzednich, maleją. W miarę jak firmy szybko wyczerpują dostępną bazę danych treningowych, wiele z nich sięga po dane syntetyczne — generowane przez AI — co może mieć potencjalnie katastrofalne skutki. Podsumowując, mimo ciągłych wysiłków, halucynacje są obecnie bardziej powszechne niż kiedykolwiek i na razie technologia nie wykazuje oznak poprawy. Więcej na temat halucynacji AI znajdziesz w artykule: „You Can’t Lick a Badger Twice”: Google's AI Is Making Up Explanations for Nonexistent Folksy Sayings.
Brief news summary
Sztuczne modele inteligencji coraz częściej generują fałszywe informacje, nazywane „halucynacjami”, czyli sytuacje, gdy przedstawiają niepoprawne fakty mimo postępów w zdolnościach rozumowania. Problem ten dotyczy szeroko stosowanych narzędzi AI, takich jak ChatGPT od OpenAI, i przyczynia się do rozprzestrzeniania dezinformacji. Zaskakująco, większe i bardziej zaawansowane modele mają tendencję do częstszego halucynowania, co podważa przekonanie, że większe modele są zawsze bardziej wiarygodne. Eksperci uważają halucynacje za inherentną ograniczenie współczesnej technologii AI, mimo rosnących inwestycji w tę dziedzinę. Aby temu przeciwdziałać, firmy uruchamiają usługi mające na celu wykrywanie i kontrolę nad halucynacjami, zdając sobie sprawę, że ich ignorowanie obniża wartość AI. Badania pokazują, że najnowsze modele od OpenAI halucynują prawie w 48% przypadków, a podobne problemy występują w modelach Google, co świadczy o szeroko zakrojonym wyzwaniu w branży. Czynniki takie jak sztuczne dane treningowe i rosnący rozmiar modeli mogą jeszcze pogłębiać problem halucynacji. Podsumowując, halucynacje AI pozostają poważnym, narastającym problemem bez jasno określonych rozwiązań na horyzoncie.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Globalne ożywienie XRP i wzrost blockchainowego w…
W miarę rozwoju rynku kryptowalut, token XRP Ripple ponownie wyrasta na silnego kandydata do masowego przyjęcia.

Sztuczna inteligencja w transporcie: pojazdy auto…
Sztuczna inteligencja (SI) szybko wyłania się jako siła transformująca kształtowanie transportu, oferując znaczące postępy w celu poprawy bezpieczeństwa, efektywności i wygody dla wszystkich użytkowników dróg.

Inwestowanie w Boom na Blockchain
Od debiutu Bitcoina w 2009 roku technologia blockchain i rozproszonych rejestrów ewoluowała z niszowych ciekawostek w podstawowe elementy systemów finansowych, łańcuchów dostaw i ekosystemów cyfrowych.

Egzoszkielet AI daje osobom na wózkach inwalidzki…
Caroline Laubach, osoba po udarze rdzenia kręgowego i pełnoetatowa użytkowniczka wózka inwalidzkiego, pełni funkcję testowej pilotażówki prototypu egzoszkieletu z napędem AI firmy Wandercraft, który oferuje coś więcej niż tylko nową technologię — przywraca wolność i więź, które często są brakujące dla użytkowników wózków inwalidzkich.

Cyberprzestępczość napędzana przez sztuczną intel…
Najnowszy raport FBI ujawnia gwałtowny wzrost cyberprzestępczości opartej na sztucznej inteligencji, powodującej rekordowe straty finansowe szacowane na 16,6 miliarda dolarów.

Jak USA mogą objąć pozycję lidera w rozwoju sztuc…
Weź udział w dyskusji Zaloguj się, aby zostawiać komentarze pod filmami i być częścią emocji

Pokolenie 2025 nie znajduje prac. Niektórzy obwin…
Klasa 2025 obchodzi sezon ukończenia studiów, ale rzeczywistość zdobycia pracy jest szczególnie trudna ze względu na niepewności rynkowe pod rządami Donalda Trumpa, falę sztucznej inteligencji eliminującej stanowiska na poziomie entry-level oraz najwyższe bezrobocie wśród absolwentów od 2021 roku.