lang icon En
Dec. 5, 2025, 1:15 p.m.
1402

AI-sikkerhetsindeks avslører at store AI-selskaper unngår tilstrekkelig beskyttelse av menneskeheten mot AI-risikoer

Brief news summary

Future of Life Institutes AI Safety Index tar opp alvorlige bekymringer om AI-selskapenes forpliktelse til menneskelig sikkerhet i en tid med økende risiko. Den belyser reelle og potensielle skader, inkludert selvmord knyttet til AI-chatboter, cyberangrep, autonome våpen og trusler mot statens stabilitet. AI-industrien forblir stort sett uregulert og sterkt konkurransepreget, med utilstrekkelige incentiver til å prioritere sikkerhet. Ved vurdering av 35 indikatorer på tvers av seks kategorier, rangeres OpenAI og Anthropic høyest med en C+, Google DeepMind ligger på C, og Meta, xAI og noen kinesiske firmaer som Alibaba Cloud får lavere D-. Viktigst av alt har ingen selskap troverdige strategier for å forhindre katastrofale misbruk eller tap av kontroll over avansert AI. Mens noen investerer i sikkerhet, unngår mange dette ansvaret. Rapporten oppfordrer til bindende AI-sikkerhetsreguleringer til tross for motstand fra teknologiloritter som er bekymret for å kvele innovasjon. Lover som Californias SB 53 markerer fremgang, men eksperter advarer om at uten sterke regler og håndheving forblir AI-sikkerhet og global sikkerhet i alvorlig fare.

Mister AI-selskaper tilstrekkelig beskytter menneskeheten mot risikoene ved kunstig intelligens?Ifølge en ny vurderingsrapport fra Future of Life Institute, en non-profit organisasjon i Silicon Valley, er svaret sannsynligvis nei. Etter hvert som AI blir stadig mer integrert i samspillet mellom mennesker og teknologi, avdekker potensielle skader seg—fra at folk bruker AI-chatboter til rådgivning og senere tar sitt eget liv, til AI-aktivert cyberangrep. Fremtidige risikoer truer også, inkludert bruk av AI i våpen eller forsøk på å destabilisere regimer. Likevel eksisterer det utilstrekkelige insentiver for AI-firmene til å prioritere global sikkerhet. Instituttets nylig utgitte AI Safety Index, som har som mål å styre AI-utviklingen mot tryggere utfall og redusere eksistensielle trusler, belyser dette problemet. Max Tegmark, instituttets president og MIT-professor, påpekte at AI-selskaper opererer som den eneste amerikanske industrien som produserer kraftig teknologi uten regulering, og skaper en "kappløp mot bunnen" hvor sikkerhet ofte neglisjeres. De høyeste karakterene på indeksen var kun C+, gitt til OpenAI, utvikleren av ChatGPT, og Anthropic, kjent for sin chatbot Claude. Googles AI-divisjon, Google DeepMind, fikk en C. Lavere karakterer inkluderte D for Meta (Facebooks morselskap) og Elon Musks xAI, begge basert i nærheten av Palo Alto. Kinesiske selskaper som Z. ai og DeepSeek fikk også en D. Alibaba Cloud fikk den laveste vurderingen, D-. Firmaene ble evaluert med 35 indikatorer fordelt på seks kategorier som eksistensiell sikkerhet, risikovurdering og informasjonsdeling. Vurderingen kombinerte offentlig tilgjengelige data og selskapets egne svar på undersøkelser, vurdert av åtte AI-eksperter, inkludert akademikere og organisasjonsledere. Ved bemerkelsesverdighet scoret alle selskapene under gjennomsnittet når det gjelder eksistensiell sikkerhet, som måler interne kontroller og strategier for å forhindre katastrofale misbruk av AI.

Rapporten konkluderte med at ingen viste troverdige planer for å forhindre tap av kontroll eller alvorlig misbruk når AI nærmer seg generell intelligens og superintelligens. Både Google DeepMind og OpenAI bekreftet sitt engasjement for sikkerhet. OpenAI fremhevet sin investering i banebrytende sikkerhetsforskning, grundig testing og deling av sikkerhetsrammeverk for å heve bransjestandardene. Google DeepMind understreket sin vitenskapsdrevne tilnærming til sikkerhet og protokoller for å redusere alvorlige risikoer fra avanserte AI-modeller før disse risikoene materialiserer seg. Derimot viste Instituttet at xAI og Meta har rammeverk for risikostyring, men mangler tilstrekkelige forpliktelser til overvåkning og kontroll eller betydelige investeringer i sikkerhetsforskning. Bedrifter som DeepSeek, Z. ai og Alibaba Cloud mangler offentlig tilgjengelig dokumentasjon om sine sikkerhetsstrategier. Meta, Z. ai, DeepSeek, Alibaba og Anthropic svarte ikke på forespørsler om kommentarer. xAI avvist rapporten som “Legacy Media Lies, ” og Musks advokat svarte ikke på ytterligere henvendelser. Selv om Musk rådgir og har finansiert Future of Life Institute, var han ikke involvert i utarbeidelsen av AI Safety Index. Tegmark uttrykte bekymring for at utilstrekkelig regulering kan gjøre det mulig for terrorgrupper å utvikle biovåpen, øke manipulasjonspotensialet utover dagens nivåer, eller destabilisere regimer. Han understreket at løsningene er enkle: å etablere bindende sikkerhetsstandarder for AI-selskaper. Mens noen myndighetstiltak har som mål å forbedre AI-tilsyn, har teknologilobbying motsatt seg slike reguleringer, fryktende at de vil hemme innovasjon eller føre til flytting av selskaper. Likevel mener Tegmark at lover som California’s SB 53, som ble signert av guvernør Gavin Newsom i september, er et steg i riktig retning, men at det trengs betydelig mer handling. Rob Enderle, hovedanalytiker i Enderle Group, fant AI Safety Index en overbevisende tilnærming til reguleringsutfordringene innen AI, men stilte spørsmål ved den nåværende amerikanske administrasjonens evne til å innføre effektive regler. Han advarte om at dårlig utformede regler kan forårsake skade, og tviler på at implementeringsmekanismer eksisterer for å sikre etterlevelse. Kort sagt viser AI Safety Index at de store AI-utviklerne fortsatt ikke har vist klare forpliktelser til sikkerhet, noe som understreker det akutte behovet for sterkere regulering for å beskytte menneskeheten mot AI’s økende risikoer.


Watch video about

AI-sikkerhetsindeks avslører at store AI-selskaper unngår tilstrekkelig beskyttelse av menneskeheten mot AI-risikoer

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 21, 2025, 1:44 p.m.

AI-verktøy for videoinnholdsmoderering bekjemper …

Sosiale medieplattformer bruker i økende grad kunstig intelligens (KI) for å forbedre modereringen av videoinnhold, og håndterer den økende mengden videoer som en dominerende form for online kommunikasjon.

Dec. 21, 2025, 1:38 p.m.

US vurderer på nytt sine eksportbegrensninger på …

POLITIKKOMVENDING: Etter år med strammere restriksjoner har beslutningen om å tillate salg av Nvidias H200-brikker til Kina utløst motreaksjoner fra noen republikanske politikere.

Dec. 21, 2025, 1:38 p.m.

AI stod bak over 50 000 oppsigelser i 2025 — her …

Oppsigelser drevet av kunstig intelligens har preget arbeidsmarkedet i 2025, med store selskaper som kunngjør tusenvis av oppsigelser knyttet til AI-utviklingen.

Dec. 21, 2025, 1:36 p.m.

Perplexity SEO-tjenester lansert – NEWMEDIA.COM l…

RankOS™ forbedrer merkevaresynlighet og sitatfrekvens på Perplexity AI og andre søkeplattformer med svarmotorer Perplexity SEO-tjenester New York, NY, 19

Dec. 21, 2025, 1:22 p.m.

Eric Schmidts familiekontor investerer i 22 AI-st…

En originalversjon av denne artikkelen publiseres i CNBCs Inside Wealth-nyhetsbrev, skrevet av Robert Frank, som fungerer som en ukentlig ressurs for høyinntektsinvestorer og forbrukere.

Dec. 21, 2025, 1:21 p.m.

Fremtiden for markedsføring: Hvorfor "bare godt n…

Overskrifter har fokusert på Disneys milliardinvestering i OpenAI og spekulasjoner om hvorfor Disney valgte OpenAI framfor Google, som de saksøker for påstått opphavsrettskriminalitet.

Dec. 21, 2025, 9:34 a.m.

Salesforce-data viser at AI og agenter driver rek…

Salesforce har utgitt en detaljert rapport om Cyber Week shoppingarrangementet i 2025, med analyser av data fra over 1,5 milliarder globale forbrukere.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today