lang icon Norwegian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
4

AI-sikkerhetsforkjempere oppfordrer til å gjenskape Oppenheimers beregninger av kjernekrafttesting for ultraringe systemer

Kunstig intelligens-selskaper har blitt oppmuntret til å replikere sikkerhetsberegningene som informerte Robert Oppenheimers første kjernefysiske test før de slipper ultra-kraftige systemer. Max Tegmark, en fremtredende figur innen AI-sikkerhet, avslørte at han hadde utført beregninger som lignet de som ble gjort av den amerikanske fysikeren Arthur Compton før Trinity-testen. Tegmark fant ut at det var 90 % sannsynlighet for at en svært avansert AI kunne utgjøre en eksistensiell risiko. Den amerikanske regjeringen gikk videre med Trinity-testing i 1945 etter forsikringer om at sjansen for at en atombombe skulle antenne atmosfæren og true menneskeheten var nærmest uappellerbar. I en artikkel skrevet av Tegmark og tre av hans MIT-studenter anbefaler de å beregne “Compton-konstanten, ” definert som sannsynligheten for at en allmektig AI rømmer menneskets kontroll. Compton uttalte i et intervju i 1959 med den amerikanske forfatteren Pearl Buck at han hadde godkjent testen etter å ha estimert sjansene for en ukontrollert fusjonsreaksjon til “litt mindre” enn én av tre millioner. Tegmark argumenterte for at AI-selskaper må ta ansvar for å nøye fastslå om Kunstig Superintelligens (ASI)—et teoretisk system som overgår menneskets intelligens på alle områder—vil unngå menneskelig overvåkning. “Firmaene som bygger superintelligens må beregne Compton-constanten, sannsynligheten for at vi mister kontrollen over den, ” sa han.

“Det hjelper ikke å si ‘vi føler oss trygge på det. ’ De må kalkulere prosentandelen. ” Tegmark foreslo at en konsensus om Compton-constanten basert på flere selskaper ville skape den “politiske viljen” til å etablere globale AI-sikkerhetsstandarder. Som fysikkprofessor og AI-forsker ved MIT var Tegmark med på å grunnlegge Future of Life Institute, en ikke-kommunal organisasjon som promoterer trygg AI-utvikling. Instituttet utga i 2023 et åpent brev som oppfordret til en pause i utviklingen av kraftige AI-er. Over 33 000 personer undertegnet brevet, inkludert Elon Musk—en tidlig støttespiller av instituttet—and Apple-medgrunnlegger Steve Wozniak. Brevet, som ble utstedt måneder etter lanseringen av ChatGPT og markerte en ny æra innen AI-utvikling, advarte om at AI-laboratorier var engasjert i et “ukontrollerbart kappløp” for å distribuere “mer og mer kraftige digitale hjerner” som ingen kan “forstå, forutsi eller kontrollere pålitelig. ” Tegmark snakket med Guardian mens en gruppe AI-eksperter—inkludert teknologibransjens profesjonelle, representanter for statlige sikkerhetsorganer og akademikere—utviklet en ny tilnærming for tryg AI-utvikling. Rapporten “Singapore Consensus on Global AI Safety Research Priorities, ” utarbeidet av Tegmark, den ledende datavitenskapsmannen Yoshua Bengio, og ansatte fra ledende AI-selskaper som OpenAI og Google DeepMind, skisserte tre hovedområder for forskning: å utvikle metoder for å måle effekten av nåværende og fremtidige AI-systemer; å spesifisere ønsket AI-oppførsel og designe systemer for å oppnå det; og å håndtere og kontrollere AI-oppførsel. Med henvisning til rapporten nevnte Tegmark at presset for sikker AI-utvikling hadde fått ny fart etter det nylige internasjonale AI-topmøtet i Paris, hvor USAs visepresident JD Vance avviste sikkerhetsbekymringer, og uttalte at AI-fremtiden “ikke kommer til å vinnes ved å sitte og vri hendene. ” Tegmark sa: “Det føles virkelig som om mørket fra Paris har lettet, og internasjonalt samarbeid har kommet sterkt tilbake. ”



Brief news summary

AI-sikkerhetsekspert Max Tegmark, MIT-fysikkprofessor og medstifter av Future of Life Institute, oppfordrer til å innføre strenge sikkerhetsberegninger tilsvarende de som ble utført før Trinity atomprøvesprengningen i 1945, og peker på eksistensielle risici forbundet med avansert AI. Ved å trekke paralleller til Arthur Comptons historiske vurdering, anslår Tegmark en 90 % sjanse for at superintelligent AI kan komme ut av menneskets kontroll og true menneskeheten. Han foreslår en «Compton- konstant», en kvantifisert risikomåling for å håndtere farlige AI, for å informere politiske beslutninger og globale sikkerhetsavtaler. Dette initiativet støttes av den åpne brevet fra 2023 fra Future of Life Institute, signert av over 33 000 personer inkludert Elon Musk og Steve Wozniak, som advarer mot en uregulert AI-konkurranse. Tegmark har også bidratt til Singapore-konsensus om globale forskningsprioriteringer for AI-sikkerhet, med mål om å styre viktig sikkerhetsforskning globalt. Til tross for noe skepsis blant amerikanske tjenestemenn, er internasjonalt samarbeid og optimisme fortsatt sterkt når det gjelder trygg utvikling av AI.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 11, 2025, 10:16 p.m.

Fra silisium til selvbevissthet: Arven som leder …

Mennesker har alltid migrert – ikke bare over fysiske rom, men også gjennom endringer i arbeid og tanker.

May 11, 2025, 10:09 p.m.

Adopsjon av blockchain i offentlige tjenester: en…

Regjeringer over hele verden tar i økende grad i bruk blockchain-teknologi som et transformerende verktøy for å forbedre offentlige tjenester.

May 11, 2025, 8:47 p.m.

Pave Leo XIV legger fram sin visjon for pavenes r…

Pave Leo XIV skisserte sitt erkepapiskaps visjon på lørdag, og fremhevet kunstig intelligens (AI) som en avgjørende utfordring for menneskeheten og lovet å ivareta de viktigste prioriteringene etablert av pave Frans.

May 11, 2025, 8:41 p.m.

Blockchain sin rolle i å forbedre sikkerheten for…

Integrasjonen av blockchain-teknologi med Internet of Things (IoT)-enheter forbedrer digital sikkerhet betydelig ved å tilby en desentralisert, manipulasjonssikker måte å håndtere data på.

May 11, 2025, 7:25 p.m.

SoundClouds bruksvilkår tillater AI-trening på op…

SoundCloud har alltid prioritert artister og vil fortsette å gjøre det.

May 11, 2025, 6:13 p.m.

Blockchain sitt samarbeid med tingenes internett …

Fusjonen av blockchain-teknologi med tingenes internett (IoT) changerer området for smarte enheter og applikasjoner, og markerer en æra preget av innovasjon og økt effektivitet.

May 11, 2025, 6 p.m.

Spådom: Dette kunstig intelligens (AI) halvledera…

Mellom 2023 og 2024 steg S&P 500 og Nasdaq Composite med totale avkastninger på henholdsvis 58 % og 87 %, hovedsakelig drevet av kunstig intelligens (KI) revolusjonen.

All news