lang icon English
Dec. 14, 2024, 8:19 a.m.
1505

AI-sikkerhetsindeks avslører Anthropic som leder innen AI-sikkerhetstiltak

Brief news summary

AI Safety Index nylig evaluerte sikkerhetspraksis hos seks store AI-selskaper: Anthropic, Google DeepMind, Meta, OpenAI, xAI og Zhipu AI. Resultatene viste at Anthropic ledet med en C-karakter, mens Meta lå etter. Denne evalueringen, utført av Future of Life Institute, har som mål å fremme sikkerhetsforbedringer i hele bransjen. Max Tegmark fra instituttet understreket at slike vurderinger fremhever viktigheten av interne sikkerhetsteam for å bevare selskapenes omdømme. Instituttet er dedikert til å minimere negative konsekvenser fra avanserte teknologier og har tidligere oppfordret til en pause i utviklingen av AI-modeller for å forbedre sikkerheten, et forslag som stort sett gikk uhørt. Evalueringen undersøkte seks nøkkelområder: risikovurdering, nåværende skader, sikkerhetsrammeverk, eksistensiell sikkerhetsstrategi, styring, ansvar og gjennomsiktighet. Forskningsartikler, policydokumenter og bransjerapporter fungerte som bevis, men bare xAI og Zhipu AI fullførte spørreskjemaer om gjennomsiktighet. Eksperter som Stuart Russell og Yoshua Bengio har uttrykt bekymring for eksisterende sikkerhetstiltak og utfordringene med å håndtere AI-teknologier. Anthropic utmerket seg for sin forsiktige tilnærming til AI-skala og distribusjon, med en B-. Likevel bemerket rapporten at ingen av selskapene hadde tilstrekkelige eksistensielle sikkerhetsstrategier, noe som understreker vanskeligheten med å tilpasse superintelligent AI til menneskelige verdier. Den foreslo å innføre reguleringsmålinger lik dem fra FDA for å prioritere sikkerhet og sikre trygg utvikling og distribusjon av AI.

Den nylig utgitte AI Safety Index evaluerte sikkerhetstiltak og risikovurderinger hos seks ledende AI-selskaper, der Anthropic fikk høyeste karakter, C. De andre selskapene – Google DeepMind, Meta, OpenAI, xAI og Zhipu AI – fikk karakterer på D+ eller lavere, med Meta som strøk. Max Tegmark fra Future of Life Institute, som publiserte rapporten, understreker at målet ikke er å henge ut, men å motivere selskapene til å forbedre sikkerhetspraksisene sine, lik universiteter som responderer på rangeringer. Tegmark ønsker å støtte forskere i AI-sikkerhetsteam ved å gi dem innflytelse til å få ressurser og respekt innen sine selskaper. Future of Life Institute, som fokuserer på å forhindre negative utfall fra kraftige teknologier, har tidligere oppfordret til en pause i AI-utviklingen for å etablere sikkerhetsstandarder, selv om selskapene ikke fulgte opp. AI Safety Index vurderte selskapene innen seks områder: risikovurdering, nåværende skader, sikkerhetsrammeverk, strategi for eksistensiell sikkerhet, styring og ansvarlighet, og åpenhet. Til tross for at de brukte ulike kilder til offentlig informasjon, svarte de fleste selskapene ikke på rapporten, bortsett fra Google DeepMind, som uttalte at deres sikkerhetstiltak går utover det indeksen fanger opp. Evalueringen involverte uavhengige vurderere, inkludert kjente navn som Stuart Russell og Yoshua Bengio.

De fant at eksisterende sikkerhetsaktiviteter hos disse selskapene er ineffektive og gir ingen kvantitative sikkerhetsgarantier. Rapporten kritiserte spesielt selskapene for deres strategier for eksistensiell sikkerhet, da de fleste ikke har artikulert tilstrekkelige planer for å sikre at generell kunstig intelligens (AGI) er i samsvar med menneskelige verdier. Kun Anthropic oppnådde relativt høye poeng, spesielt i å adressere nåværende skader, delvis på grunn av deres ansvarlige skaleringspolitikk. Likevel etterlyser Tegmark regulerende tilsyn, lik FDA, for å sikre at AI-produkter er trygge før de slippes på markedet. Han advarer om at selskaper er fanget i et konkurranseløp som hindrer grundige sikkerhetstester, og går inn for sikkerhetsstandarder som prioriterer markedsfordel for selskaper som først oppfyller dem.


Watch video about

AI-sikkerhetsindeks avslører Anthropic som leder innen AI-sikkerhetstiltak

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Nov. 11, 2025, 9:20 a.m.

TSMC registrerer sin svakeste vekst på 18 måneder…

Taiwan Semiconductor Manufacturing Co.

Nov. 11, 2025, 9:18 a.m.

AI-innholdsrevolusjon: Automatisering omformer ma…

Markedsføringsbransjen gjennomgår en dyp transformasjon drevet av den utbredte adopsjonen av kunstig intelligens (AI) teknologi.

Nov. 11, 2025, 9:16 a.m.

AI-nyhetsinnholdsfarmer er enkle å lage og vanske…

En nyere studie har gitt viktige innsikter i kapasitetene til store språkmodeller når de finjusteres på spesifikt språklig og kulturelt materiale – i dette tilfellet italienske nyhetstekster.

Nov. 11, 2025, 9:15 a.m.

AI-forbedret videokomprimering: Reduksjon av bånd…

Fremskritt innen kunstig intelligens har innledet en ny æra av innovasjon innen videokomprimeringsteknologi.

Nov. 11, 2025, 9:13 a.m.

AI-drevet SEO: Forbedre brukeropplevelse og engas…

Kunstig intelligens (AI) omformer raskt landskapet innen digital markedsføring, spesielt innen søkemotoroptimalisering (SEO).

Nov. 11, 2025, 5:32 a.m.

AI-verktøy for videoinnholdsmoderering bekjemper …

I dagens digitale alder, hvor kommunikasjon i stor grad påvirker offentlig opinion, har behovet for å bekjempe feilinformasjon, spesielt i videoer, blitt enda viktigere.

Nov. 11, 2025, 5:24 a.m.

Profound samler inn 20 millioner dollar i Series …

Profound, et ledende selskap som spesialiserer seg på AI-søkoptimalisering, har hentet inn 20 millioner dollar i en Series A finansieringsrunde ledet av Kleiner Perkins og støttet av NVIDIAs venture-divisjon og Khosla Ventures.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today