AI modeli tačno oponašaju ljudske ličnosti u novoj studiji.
Brief news summary
Istraživači iz Googlea i Univerziteta Stanford razvili su AI model sposoban da replikuje ljudsku ličnost sa 85% tačnosti nakon dvosatnog intervjua. Ova studija, koja uključuje 1.052 učesnika, koristila je AI za sprovođenje različitih procena, poput anketa i logičkih igara. Revolucionarno istraživanje, objavljeno na arXiv-u, ima za cilj unapređenje AI modela koji oponašaju ljudsko ponašanje, s mogućim primjenama u javnom zdravlju, testiranju proizvoda i analizi događaja. Intervjui su istraživali životne priče učesnika, njihove vrijednosti i društvene poglede, omogućavajući AI-u da formira personalizovane modele koji precizno predviđaju odgovore. Ova nova metoda uspješno hvata suptilne nijanse koje tradicionalne ankete često propuštaju. Međutim, AI se suočio s izazovima u složenim društvenim interakcijama unutar ekonomskih igara. Istraživači su upozorili na potencijalne zloupotrebe, posebno u slučajevima online obmane. Uprkos ovim zabrinutostima, AI nudi novi pristup proučavanju ljudskog ponašanja pružajući alternativu direktnim istraživanjima. Izbjegava etičke i logističke probleme, pokazujući značajan potencijal za razumijevanje društvenog ponašanja i testiranje novih ideja.Istraživači su otkrili da je dvosatni razgovor s modelom umjetne inteligencije (AI) dovoljan da se tačno replicira nečija ličnost. Studija, objavljena 15. novembra i dostupna u bazi podataka arXiv preprint, uključivala je istraživače iz Googlea i Univerziteta Stanford koji su razvili "simulacione agente. " Ove AI replike temeljile su se na intervjuima s 1. 052 pojedinca, koristeći diskusije kako bi instruirali generativni AI model namijenjen oponašanju ljudskog ponašanja. Studija je procijenila tačnost AI replika tako što je učesnicima omogućavala da obave testove ličnosti, društvene ankete i logičke igre dvaput, s dvotjednim naknadnim praćenjem. AI replike su završile iste testove, poklapajući se s ljudskim odgovorima 85% vremena. U radu se navodi da AI modeli koji imitiraju ljudsko ponašanje mogu koristiti različitim istraživačkim oblastima, kao što je procjena politika javnog zdravlja, razumijevanje reakcija na lansiranja proizvoda ili modeliranje odgovora na značajne društvene događaje koji bi inače bili previše izazovni, skupi ili etički problematični za proučavanje s ljudskim subjektima. U srodnom razvoju, generatori govora AI navodno su dostigli "ljudsku paritetu", iako ih naučnici smatraju previše opasnima za javno objavljivanje. "Simulacija opće namjene ljudskih stavova i ponašanja — gdje svaka simulirana osoba može učestvovati u različitim društvenim, političkim ili informacijskim kontekstima — mogla bi omogućiti laboratorij u kojem istraživači mogu testirati širok set intervencija i teorija, " naveli su istraživači. Simulacije bi mogle pomoći u pilotiranju novih javnih intervencija, razvijanju teorija o uzročnim i kontekstualnim interakcijama, i produbljivanju našeg razumijevanja o tome kako institucije i mreže utiču na ljude. Kako bi izgradili simulacione agente, istraživači su sproveli detaljne intervjue koji pokrivaju životne priče učesnika, vrijednosti i mišljenja o društvenim pitanjima. Ovaj pristup omogućio je AI da uhvati nijanse koje standardne ankete ili demografski podaci mogu promašiti.
Struktura intervjua je također omogućila istraživačima da se fokusiraju na ono što je za njih lično značajno. Naučnici su koristili ove intervjue za kreiranje personalizovanih AI modela sposobnih da predviđaju odgovore učesnika na anketna pitanja, društvene eksperimente i igre ponašanja. Ovo je uključivalo odgovore na Opštu društvenu anketu, Inventar ličnosti Velikih pet i ekonomske igre kao što su Igra diktatora i Igra povjerenja. Iako su AI agenti blisko oponašali ljudsko ponašanje u nekoliko oblasti, njihova tačnost je varirala u zavisnosti od zadatka. Bili su izvanredni u repliciranju odgovora na anketama ličnosti i utvrđivanju društvenih stavova, ali manje učinkoviti u predviđanju ponašanja u interaktivnim igrama koje zahtijevaju ekonomsko odlučivanje. Istraživači su primijetili da AI obično ima poteškoća sa zadacima koji uključuju društvenu dinamiku i kontekstualne suptilnosti. Također su priznali potencijal za zloupotrebu tehnologije. AI i "deepfake" tehnologije već koriste zlonamjerni akteri za prevaru, imitaciju i manipulaciju drugih online. Simulacioni agenti mogli bi se na sličan način iskoristiti, upozorili su istraživači. Ipak, sugerirali su da tehnologija nudi način za proučavanje ljudskog ponašanja na prije nepraktične načine stvaranjem kontrolisanog okruženja za testiranje bez etičkih, logističkih ili međuljudskih izazova povezanih s ljudskim angažovanjem.
Watch video about
AI modeli tačno oponašaju ljudske ličnosti u novoj studiji.
Try our premium solution and start getting clients — at no cost to you