lang icon English
Jan. 4, 2025, 8:57 a.m.
3548

AI-modeller etterligner nøyaktig menneskelige personligheter i ny studie

Brief news summary

Forskere fra Google og Stanford University har utviklet en AI-modell som kan replikere menneskelige personligheter med 85 % nøyaktighet etter et to-timers intervju. Denne studien, som involverte 1 052 deltakere, brukte AI til å gjennomføre ulike vurderinger, som spørreundersøkelser og logikkspill. Den banebrytende forskningen, publisert på arXiv, har som mål å fremme AI-modeller som etterligner menneskelig atferd, med mulige anvendelser innen folkehelse, produkttesting og analyse av hendelser. Intervjuene utforsket deltakernes livshistorier, verdier og samfunnssyn, noe som gjorde at AI-en kunne danne personaliserte modeller som forutsier svar med høy nøyaktighet. Denne nye metoden fanger opp subtile nyanser som ofte overses av tradisjonelle undersøkelser. AI-en hadde imidlertid utfordringer med komplekse sosiale interaksjoner i økonomiske spillscenarier. Forskerne advarte om potensielt misbruk, særlig innenfor nettbasert bedrag. Til tross for bekymringer tilbyr AI-en en ny tilnærming til å studere menneskelig atferd ved å gi et alternativ til direkte menneskelig forskning. Den unngår etiske og logistiske utfordringer og viser betydelig potensial for å forstå samfunnsatferd og teste nye ideer.

Forskere har funnet ut at en to-timers samtale med en kunstig intelligens (KI)-modell er nok til å nøyaktig replikere noens personlighet. En studie, publisert 15. november og tilgjengelig i arXiv forhåndstrykksdatabase, viste at forskere fra Google og Stanford University utviklet "simuleringsagenter. " Disse KI-replikaene var basert på intervjuer med 1 052 individer, der samtalene ble brukt til å instruere en generativ KI-modell ment for å etterligne menneskelig atferd. Studien vurderte nøyaktigheten til KI-replikaene ved å la deltakerne gjennomgå personlighetstester, sosiale undersøkelser og logikkspill to ganger, med en oppfølging to uker senere. KI-replikaene fullførte de samme testene, og samsvarte med menneskelige svar 85 % av tiden. Forskningsdokumentet argumenterte for at KI-modeller som imiterer menneskelig atferd kunne være til nytte for ulike forskningsområder, som å vurdere folkehelsepolitikker, forstå reaksjoner på produktlanseringer, eller modellere responser på betydelige samfunnshendelser som ellers ville være for utfordrende, kostbare eller etisk problematiske å undersøke med menneskelige subjekter. I en relatert utvikling har KI talegeneratorer angivelig nådd "menneskelig paritet, " selv om forskere anser dem som for farlige for offentlig utgivelse. "Generell simulering av menneskelige holdninger og atferd — der hver simulerte person kan engasjere seg på tvers av ulike sosiale, politiske eller informasjonskontekster — kan muliggjøre et laboratorium for forskere til å teste et bredt sett med intervensjoner og teorier, " uttalte forskerne i sitt papir. Simuleringer kunne hjelpe i piloten av nye offentlige intervensjoner, utvikle teorier om årsaks- og kontekstuelle interaksjoner, og utdype vår forståelse av hvordan institusjoner og nettverk påvirker mennesker. For å bygge simuleringsagentene, gjennomførte forskerne detaljerte intervjuer som dekket deltakernes livshistorier, verdier og meninger om samfunnsspørsmål. Denne tilnærmingen tillot KI å gripe nyanser som standard undersøkelser eller demografiske data kanskje savnet.

Intervjuoppsettet tillot også forskerne å fokusere på hva som var av personlig betydning for dem. Forskerne brukte disse intervjuene til å utforme personaliserte KI-modeller som kunne forutsi deltakernes svar på undersøkelsesspørsmål, sosiale eksperimenter og atferdsspill. Dette omfattet responser på General Social Survey, Big Five Personality Inventory og økonomiske spill som Dikatorspillet og Tillitsspillet. Selv om KI-agentene nært speilet menneskelig atferd på flere områder, var deres nøyaktighet varierende etter oppgave. De utmerket seg i å replikere personlighetsundersøkelsessvar og bestemme sosiale holdninger, men var mindre effektive i å forutsi atferd i interaktive spill som krever økonomisk beslutningstaking. Forskerne merket seg at KI vanligvis sliter med oppgaver som involverer sosiale dynamikker og kontekstuelle subtiliteter. De erkjente også potensialet for misbruk av teknologien. Allerede brukes KI- og "deepfake"-teknologier av onde aktører for å bedra, imitere og manipulere andre på nettet. Simuleringsagenter kunne på lignende måte utnyttes, advarte forskerne. Likevel foreslo de at teknologien tilbyr en måte å studere menneskelig atferd på tidligere upraktiske måter ved å skape et kontrollert testmiljø uten de etiske, logistiske eller mellommenneskelige utfordringene forbundet med menneskelig involvering.


Watch video about

AI-modeller etterligner nøyaktig menneskelige personligheter i ny studie

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Nov. 13, 2025, 1:28 p.m.

Mørke skyer samler seg plutselig over AI-industri…

En stor teknologisalg skaker Wall Street ettersom det store gapet mellom AI-selskapers verdsettelse og deres underpresterende inntekter fortsetter å øke.

Nov. 13, 2025, 1:25 p.m.

Generativ kunstig intelligens og bedriftens produ…

Nylig en omfattende studie har avdekket de transformative effektene av Generativ kunstig intelligens (GenAI) på bedrifters produktivitet, med fokus på netthandel.

Nov. 13, 2025, 1:25 p.m.

AI-videoinnholdmodereringverktøy kjemper mot onds…

De siste årene har sosiale medieplattformer i økende grad vært avhengige av kunstig intelligens (KI) for å forbedre innholdsmoderering, spesielt for videomateriale.

Nov. 13, 2025, 1:25 p.m.

AI SEO & GEO Nettseminar skal ta for seg fremtide…

AI SEO & GEO Online Summit, planlagt til 9.

Nov. 13, 2025, 1:25 p.m.

Snap Inc. Invests 400 millioner dollar i AI-dreve…

Snap Inc., morselskapet bak Snapchat, har kunngjort en stor investering på 400 millioner dollar for å danne et strategisk partnerskap med Perplexity AI, et ledende selskap innen AI-søkemotorer.

Nov. 13, 2025, 1:15 p.m.

AI for Markedsføring: Praktiske Verktøy og Agente…

Den 17.

Nov. 13, 2025, 9:22 a.m.

OpenAI's teknologidirektør Yann LeCun vurderer av…

Yann LeCun, Meta sitt visepresident og sjefsforsker innen kunstig intelligens, en ledende skikkelse innen kunstig intelligens og en pioner i selskapet, planlegger antakelig å forlate Meta for å starte sin egen AI-fokuserte oppstartsselskap.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today