Bedrifters AI-adopsjon krever kontinuerlig sikkerhetstesting, sier eksperter

Intervju Før AI blir utbredt i virksomheter, må bedriftsledere forplikte seg til en kontinuerlig sikkerhetstestrutine tilpasset de spesifikke nyansene til AI-modeller. Dette perspektivet kommer fra administrerende direktør i Chatterbox Labs, Danny Coleman, og CTO Stuart Battersby, som drøftet i mange minutter med The Register hvorfor selskapene så langt har vært trege med å gå fra pilotprosjekter med AI til full produksjonsutplating. "Virksomhetsadopsjon er bare rundt 10 prosent i dag, " sa Coleman. "McKinsey anslår at det er et marked verdt fire billioner dollar. Hvordan vil du noen gang gjøre fremskritt hvis du stadig slipper løs løsninger som folk ikke vet er trygge å bruke, eller hvis de ikke er klar over ikke bare virksomhetens innvirkning, men også samfunnets innvirkning?" Han la til, "Folk innenfor virksomheter er ikke helt klare for denne teknologien uten riktig styring og sikkerhet. " I januar publiserte konsulentselskapet McKinsey en rapport som undersøker det uutnyttede potensialet til kunstig intelligens (AI) på arbeidsplassen. Rapporten, med tittelen "Superbyrå i arbeidslivet: Styrke folk til å frigjøre AI’s fulle potensial, " fremhevet økende interesse og investeringer i AI-teknologier, men bemerket at adopsjonstakten fortsatt er lav. ". . . det du må gjøre er å ikke stole på retorikken hverken fra modellleverandøren eller retningslinje-leverandøren, fordi alle vil si at det er supertrygt og sikkert. " "Ledelsen ønsker å øke AI-investeringer og fremskynde utviklingen, men de sliter med å finne ut hvordan AI kan være trygg på arbeidsplassen, " heter det i McKinsey-rapporten. Coleman argumenterer for at tradisjonell cybersikkerhet og AI-sikkerhet er sammenflettede felt, men de fleste informasjonssikkerhetsteam har ennå ikke tatt igjen og mangler ofte nødvendig kompetanse for å forstå AI’s unike angrepsflater. Han nevnte Cisco’s oppkjøp av Robust Intelligence og Palo Alto Networks’ kjøp av Protect AI som eksempler på selskaper som tar i bruk de riktige strategiene. Battersby understreket at organisasjoner som ønsker å skalere opp bruken av AI må implementere en regime av kontinuerlig testing basert på hva AI-tjenesten faktisk gjør. "Det første trinnet er å definere hva som er trygt og sikkert for ditt spesifikke brukstilfelle, " forklarte han.
"Deretter må du unngå å stole utelukkende på påstandene fra modellleverandøren eller retningslinjeleverandøren, ettersom alle hevder at deres løsninger er ekstremt trygge. " Denne forsiktigheten er avgjørende, understreket Battersby, fordi selv autoriserte brukere av et AI-system kan forårsake skadelig oppførsel. "Det vi ønsker å formidle er at innholdsfiltre og retningslinjer alene ikke er tilstrekkelig, " sa Coleman. "Dette vil ikke endre seg med det første. Løsningen må være langt mer lagdelt. " Selv om denne tilnærmingen kan påføre kostnader, hevder Battersby at kontinuerlig testing kan redusere utgifter ved for eksempel å vise at mindre, mindre kostnadskrevende modeller fortsatt er sikre for visse bruksområder. Hele intervjuet fortsetter nedenfor…
Brief news summary
Før utbredt adopsjon av AI må bedriftsledere prioritere kontinuerlig sikkerhetstesting tilpasset AI-modellenes unike sårbarheter. Til tross for økende interesse og investeringer, er AI-implementering i selskaper fortsatt rundt 10 %, ifølge Danny Coleman, administrerende direktør i Chatterbox Labs, og CTO Stuart Battersby. En rapport fra McKinsey viser entusiasme for å utvide bruken av AI, samtidig som bekymringer for arbeidsplass-sikkerhet øker. Tradisjonelle cybersikkerhetsteam mangler ofte ekspertise på AI-spesifikke trusler, men selskaper som Cisco og Palo Alto Networks gjør fremskritt gjennom strategiske oppkjøp. Battersby legger vekt på at kontinuerlig, brukstilfelle-spesifikk testing er avgjørende, da det å stole utelukkende på leverandørgarantier og innholdsfiltre er utilstrekkelig. Begge ekspertene er enige om at robuste, lagdelte sikkerhetstiltak er viktige for å skalere AI-distribusjonen på en trygg måte. Selv om kontinuerlig testing medfører kostnader, reduserer det utgifter ved å validere mindre, effektive AI-modeller, noe som til slutt akselererer AI-omgangen i bedrifter.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Vær oppmerksom på disse nivåene hvis bitcoin-pris…
Bitcoin-prisen har ikke vist den samme momentum som den gjorde tidlig i forrige måned gjennom hele juni.

Meta vurderer å investere 10 milliarder dollar i …
Meta Platforms er angivelig i samtaler om å investere over 10 milliarder dollar i kunstig intelligens-startupen Scale AI, ifølge Bloomberg News.

Deutsche Bank utforsker stablecoins og tokenisert…
Deutsche Bank undersøker aktivt stablecoins og tokeniserte innskudd som en del av sin økende strategi for digitale eiendeler, noe som reflekterer en økende interesse for blockchain-basert finansinfrastruktur blant globale banker.

Apple sliter med å oppdatere Siri, noe som fører …
Apple står overfor betydelige utfordringer med oppgraderingen av sin stemmeassistent Siri, spesielt når det gjelder avansert kunstig intelligens (AI), noe som vekker bekymring blant investorer om selskapets generelle AI-strategi og konkurranseevne i et raskt utviklende teknologilandskap.

Winklevoss-ledet kryptovalutaselskap Gemini sende…
© 2025 Fortune Media IP Limited.

Paul Brody, EY: Hvordan blockchain transformerer …
Paul Brody, EY’s globale leder for blockchain og medforfatter av boken *Ethereum for Business* 2023, discuterer blockchain sitt innvirkning på betalinger, remitteringer, banking og bedriftsfinansiering med Global Finance.

Microsoft introduserer AI-sikkerhetsrangeringer f…
Microsoft fremmer AI-sikkerhet på sin Azure Foundry-utviklerplattform ved å introdusere en ny "sikkerhets" rangeringsmetode for å vurdere AI-modeller for potensielle risikoer, som generering av hatprat eller mulig misbruk.