lang icon English
Dec. 28, 2024, 10:52 a.m.
1885

Studie finner at AI-modeller er sårbare for tyveri via elektromagnetiske signaturer.

Brief news summary

Forskere ved North Carolina State University har oppdaget en ny sikkerhetsrisiko i AI-modeller ved å analysere deres elektromagnetiske utslipp. Ledet av doktorgradsstudent Ashley Kurian, brukte teamet en elektromagnetisk probe for å studere AI-modeller på Googles Edge TPU-er, og oppnådde 99,91 % nøyaktighet i identifisering av modellenes arkitekturer og hyperparametere. Denne oppdagelsen vekker bekymring for uautorisert replikering av AI-modeller, som potensielt kan omgå utviklingskostnader og krenke immaterielle rettigheter. Selv om utnyttelse av denne sårbarheten krever fysisk tilgang til maskinvare, er implikasjonene betydelige og understreker behovet for forbedrede sikkerhetstiltak. Teamet utforsker også anvendelsen av denne teknikken på smarttelefoner, hvilket medfører ytterligere utfordringer på grunn av deres kompakte design. Mehmet Sencan fra Atlas Computing bemerket at selv om sidekanalangrep er kjente, er bruk av elektromagnetisk probing for å fullstendig replikere modeller enestående. Denne oppdagelsen understreker viktigheten av å beskytte AI-modeller mot reverse engineering på usikrede enheter.

Kunstig intelligens-modeller kan være overraskende utsatt for tyveri gjennom deteksjon av deres elektromagnetiske signaturer. Forskere ved North Carolina State University fremhevet denne metoden i en ny artikkel, selv om de understreket at de ikke oppfordrer til angrep på nevrale nettverk. Ved å bruke en elektromagnetisk probe, flere forhåndstrente open-source KI-modeller og en Google Edge TPU, analyserte de elektromagnetiske utslipp mens en TPU-brikke var i bruk. Ashley Kurian, studiens hovedforfatter og Ph. D. -student ved NC State, forklarte til Gizmodo: “Å bygge og trene et nevralt nettverk er kostbart. Det innebærer betydelige tids- og datamaskinressurser—det er en bedrifts intellektuelle eiendom.

For eksempel bruker ChatGPT milliarder av parametere, som er de avgjørende komponentene. Hvis noen stjeler det, eier de i realiteten ChatGPT uten kostnadene og kan til og med selge det. ” Tyveri er en stor bekymring innen KI, ofte på grunn av at utviklere trener modeller på opphavsrettsbeskyttede verk uten tillatelse fra forfatterne, noe som fører til søksmål og verktøy for kunstnere for å motvirke dette ved å "forgifte" kunstgeneratorer. Kurian forklarte at de elektromagnetiske sensordataene gir en "signatur" av KIs behandlingsadferd, som er relativt enkel. For å avsløre modellens hyperparametere — spesielt dens arkitektur og definerende trekk — sammenlignet de elektromagnetiske data fra målet med data fra andre KI-modeller som kjører på samme brikketype. Gjennom denne sammenligningen “bestemte de arkitekturen og spesifikke egenskaper, kjent som lagsdetaljer, som kreves for å replikere KI-modellen, ” sa Kurian, og oppnådde "99. 91% nøyaktighet. " De gjennomførte dette ved fysisk å få tilgang til brikken for å undersøke og kjøre modeller, i samarbeid med Google for å vurdere sårbarheten til deres brikker. Kurian antydet at innfanging av modeller på smarttelefoner kan være mulig, selv om deres kompakte design gjør det vanskelig å overvåke elektromagnetiske signaler. Mehmet Sencan, en sikkerhetsforsker ved KI-standarder nonprofit Atlas Computing, bemerket til Gizmodo at "sidekanalangrep på edge-enheter ikke er noe nytt. " Men metoden for å trekke ut hele modellens arkitekturhyperparametere er bemerkelsesverdig. Sencan forklarte at siden KI-maskinvare "utfører inferens i klartekst, " er enhver modell utplassert på usikrede edge-enheter eller servere sårbar for å få sin arkitektur trukket ut gjennom detaljert probing.


Watch video about

Studie finner at AI-modeller er sårbare for tyveri via elektromagnetiske signaturer.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Nov. 12, 2025, 1:31 p.m.

Coca-Colas AI-julespotkaster utløser reaksjoner

Coca-Cola, som i lang tid har blitt feiret for sine ikoniske juleannonser, har møtt betydelig motstand med sin julekampanje for 2025 som tungt bruker generativ AI.

Nov. 12, 2025, 1:26 p.m.

SMM Pilot tilbyr AI-drevet vekstplattform for små…

SMM Pilot er en avansert vekstplattform drevet av kunstig intelligens som revolusjonerer hvordan små og mellomstore bedrifter (SMB) innen e-handel og affiliate-markedsføring forbedrer sin tilstedeværelse på sosiale medier og sine digitale markedsføringsstrategier.

Nov. 12, 2025, 1:23 p.m.

3 måter markedsføringsledere kan bruke kunstig in…

AI er i ferd med å gå fra å være et lovende konsept til å bli en integrert del av markedsføringsdriften.

Nov. 12, 2025, 1:18 p.m.

Kling AI: Kinas tekst-til-video-modell

Kling AI, utviklet av det kinesiske teknologiselskapet Kuaishou og lansert i juni 2024, er et betydelig gjennombrudd innen AI-drevet innholdsproduksjon, med spesialisering i å konvertere naturlige språktekster til videoer av høy kvalitet.

Nov. 12, 2025, 1:17 p.m.

AI-forbedret SEO-analyse: Gir dypere innsikt for …

Kunstig intelligens er grunnleggende i ferd med å reforme feltet innen SEO-analyse, og baner vei for en ny æra av data-drevne markedsføringsstrategier.

Nov. 12, 2025, 1:11 p.m.

CoreWeave's verdsettelse skyter i været i takt me…

CoreWeave, en ledende leverandør av AI-infrastruktur, har opplevd en betydelig verdsettelsesøkning ettersom selskapet utvider innen den raskt voksende AI-sektoren.

Nov. 12, 2025, 9:24 a.m.

Mennesker tilbake til markedsføring?

De siste årene har kunstig intelligens (KI) endret mange bransjer, spesielt reklame, ved å muliggjøre rask og storstilte innholdsskaping.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today