Modele AI Dokładnie Imitują Ludzkie Osobowości w Nowym Badaniu
Brief news summary
Naukowcy z Google i Uniwersytetu Stanforda opracowali model AI zdolny do replikacji ludzkiej osobowości z 85% dokładnością po dwugodzinnej rozmowie. W tym badaniu, w którym uczestniczyło 1052 uczestników, wykorzystywano AI do przeprowadzania różnych ocen, takich jak ankiety i gry logiczne. Przełomowe badania, opublikowane na arXiv, mają na celu rozwój modeli AI imitujących ludzkie zachowania, z możliwymi zastosowaniami w zdrowiu publicznym, testowaniu produktów i analizie wydarzeń. Wywiady badały historie życia, wartości i poglądy społeczne uczestników, umożliwiając AI tworzenie zindywidualizowanych modeli, które dokładnie przewidują odpowiedzi. Ta nowatorska metoda skutecznie wychwytuje subtelne niuanse często pomijane przez tradycyjne ankiety. Jednak AI miało trudności ze złożonymi interakcjami społecznymi w scenariuszach gier ekonomicznych. Naukowcy ostrzegali przed potencjalnym nadużyciem, szczególnie w oszustwach internetowych. Pomimo tych obaw, AI oferuje nowe podejście do badania ludzkiego zachowania, stanowiąc alternatywę dla bezpośrednich badań ludzi. Unika problemów etycznych i logistycznych, pokazując znaczący potencjał w zrozumieniu zachowań społecznych i testowaniu nowych idei.Badacze odkryli, że dwugodzinna rozmowa z modelem sztucznej inteligencji (AI) wystarczy, aby dokładnie odtworzyć osobowość danej osoby. Badanie, opublikowane 15 listopada i dostępne w bazie danych preprintów arXiv, przedstawia, jak naukowcy z Google i Stanford University opracowali "agenty symulacyjne". Te repliki AI opierały się na wywiadach z 1052 osobami, wykorzystując rozmowy do instruktażu modelu generatywnego AI, który miał naśladować ludzkie zachowanie. Badanie oceniło dokładność replik AI poprzez poddanie uczestników testom osobowości, ankietom społecznym i grom logicznym dwukrotnie, z ponownym badaniem dwa tygodnie później. Repliki AI przeszły te same testy, pokrywając się z odpowiedziami ludzkimi w 85% przypadków. W publikacji argumentowano, że modele AI imitujące ludzkie zachowanie mogą przynieść korzyści w różnych obszarach badań, takich jak ocena polityk zdrowotnych, zrozumienie reakcji na wprowadzanie produktów czy modelowanie odpowiedzi na istotne wydarzenia społeczne, które inaczej byłyby zbyt trudne, kosztowne lub problematyczne etycznie do zbadania z udziałem ludzi. W pokrewnej dziedzinie generatory mowy AI rzekomo osiągnęły "parytet ludzki", chociaż naukowcy uważają je za zbyt niebezpieczne do publicznego udostępnienia. "Symulacja ogólnego uzyskiwania ludzkich postaw i zachowań — gdzie każda symulowana osoba może angażować się w szeroki zakres kontekstów społecznych, politycznych lub informacyjnych — mogłaby umożliwić stworzenie laboratorium dla badaczy do testowania szerokiego zestawu interwencji i teorii", stwierdzili naukowcy w swojej pracy. Symulacje mogą pomóc w pilotażowaniu nowych interwencji publicznych, rozwijaniu teorii na temat interakcji przyczynowych i kontekstualnych, oraz pogłębianiu naszego zrozumienia, jak instytucje i sieci wpływają na ludzi. Aby zbudować agentów symulacyjnych, naukowcy przeprowadzili dokładne wywiady obejmujące życiorysy uczestników, ich wartości i opinie na temat zagadnień społecznych. Podejście to pozwoliło AI uchwycić niuanse, które standardowe ankiety lub dane demograficzne mogłyby przeoczyć.
Struktura wywiadu umożliwiła również badaczom skupienie się na tym, co było dla nich osobiście istotne. Naukowcy użyli tych wywiadów do stworzenia spersonalizowanych modeli AI zdolnych do przewidywania odpowiedzi uczestników na pytania ankietowe, eksperymenty społeczne i gry behawioralne. Obejmowało to odpowiedzi na General Social Survey, Big Five Personality Inventory oraz gry ekonomiczne takie jak Dictator Game i Trust Game. Pomimo że agenci AI w dużej mierze odzwierciedlali ludzkie zachowania w kilku obszarach, ich dokładność różniła się w zależności od zadania. Doskonale naśladowali odpowiedzi na ankiety osobowościowe i określali postawy społeczne, ale byli mniej skuteczni w przewidywaniu zachowań w grach interaktywnych wymagających podejmowania decyzji ekonomicznych. Naukowcy zauważyli, że AI zazwyczaj ma trudności z zadaniami związanych z dynamiką społeczną i subtelnościami kontekstowymi. Zwrócili także uwagę na potencjalne zagrożenia związane z niewłaściwym użyciem tej technologii. Już teraz AI i technologie "deepfake" są wykorzystywane przez złych aktorów do oszukiwania, podszywania się i manipulowania innymi w internecie. Agenci symulacyjni mogą być podobnie wykorzystani, ostrzegli naukowcy. Niemniej jednak zasugerowali, że technologia ta oferuje sposób na badanie ludzkiego zachowania w sposób wcześniej niemożliwy, tworząc kontrolowane środowisko badawcze pozbawione etycznych, logistycznych czy interpersonalnych wyzwań związanych z zaangażowaniem ludzi.
Watch video about
Modele AI Dokładnie Imitują Ludzkie Osobowości w Nowym Badaniu
Try our premium solution and start getting clients — at no cost to you