Yritys-AI:n käyttöönotto vaatii jatkuvaa turvallisuustestausta, asiantuntijat sanovat

Haastattelu Ennen kuin tekoäly (AI) leviää laajasti yrityksiin, yritysjohtajien on sitouduttava jatkuvaan turvallisuustestausohjelmaan, joka on räätälöity AI-mallien erityispiirteisiin. Tämän näkemyksen esittää Chatterbox Labsin toimitusjohtaja Danny Coleman ja teknologiajohtaja Stuart Battersby, jotka keskustelivat laajasti The Registern kanssa siitä, miksi yritykset ovat tähän asti olleet hitaita siirtymään AI-kokeiluohjelmista täysimittaiseen tuotantokäyttöön. "Yritysten käyttöönotto on vain noin 10 prosenttia tällä hetkellä", Coleman totesi. "McKinsey arvioi, että markkina on neljä biljoonaa dollaria. Miten edistyt koskaan, jos julkaiset ratkaisuja, joita ei tunnetaan turvallisiksi käyttää, tai jos ihmiset eivät ole tietoisia ei ainoastaan yritysvaikutuksista, vaan myös yhteiskunnallisista vaikutuksista?" Hän lisäsi, "Yrityksen sisällä ihmiset eivät vielä ole täysin valmistautuneita tähän teknologiaan ilman asianmukaista hallintaa ja turvallisuutta. " Tammikuussa konsultointiyritys McKinsey julkaisi raportin, joka tutki tekoälyn (AI) piilevää potentiaalia työpaikoilla. Raportin nimeltä "Superagentti työpaikalla: Mahdollistamassa ihmiset hyödyntämään tekoälyn täyden potentiaalin" korosti kasvavaa kiinnostusta ja investointeja AI-teknologioihin, mutta huomautti, että käyttöönoton vauhti on yhä hidasta. ". . . mitä sinun täytyy tehdä, on olla luottamatta kummankaan osapuolen, mallinmyyjän tai turvakaaren, retoriikkaan, koska kaikki sanovat, että se on äärimmäisen turvallista ja varmaa. " "Johtajat haluavat lisätä AI-investointeja ja nopeuttaa kehitystä, mutta heillä on vaikeuksia varmistaa, että AI on turvallinen työpaikalla, " McKinseyn raportti toteaa. Coleman väittää, että perinteinen kyberturvallisuus ja AI-turvallisuus ovat risteyskohdassa, mutta useimmat tietoturvatiimit eivät ole vielä pysyneet perässä, ja heiltä puuttuu usein asiantuntemus, joka tarvitaan AI:n ainutlaatuisten hyökkäyspintojen ymmärtämiseen. Hän mainitsi Cisco:n oston Robust Intelligence -yrityksestä ja Palo Alto Networksin oston Protect AI:sta esimerkkeinä yrityksistä, jotka ottavat oikeita strategioita käyttöön. Battersby korosti, että organisaatioiden, jotka pyrkivät käyttämään AI:ta laajasti, on toteutettava jatkuvan testauksen järjestelmä, joka perustuu siihen, mitä tekoälypalvelu oikeasti tekee. "Ensimmäinen askel on määritellä, mitä turvallisuus ja varmuus tarkoittavat juuri sinun käyttötapauksessasi, " hän selitti.
"Sitten on vältettävä turvautumasta pelkästään mallin tarjoajan tai turvakaaren myyjän väitteisiin, sillä kaikki väittävät ratkaisujensa olevan erittäin turvallisia. " Tämä varovaisuus on elintärkeää, Battersby painotti, koska jopa AI-järjestelmän valtuutetut käyttäjät voivat saada sen käyttäytymään vahingollisesti. "Mitä haluamme viestiä, on se, että sisällönturvaluokat ja turvakaaret yksin eivät riitä, " Coleman totesi. "Tämä ei muutu lähitulevaisuudessa. Ratkaisun on oltava paljon kerroksellisempi. " Vaikka tämä lähestymistapa saattaa johtaa kustannuksiin, Battersby väittää, että jatkuvalla testauksella voidaan vähentää kuluja, esimerkiksi osoittamalla, että pienemmät, vähemmän kustannustehokkaat mallit ovat silti turvallisia tietyissä käyttötapauksissa. Koko haastattelu jatkuu alla…
Brief news summary
Ennen laajaa tekoälyn käyttöönottoa yritysjohtajien on priorisoitava jatkuvat tietoturvatestaukset, jotka on räätälöity tekoälymallien ainutlaatuisia haavoittuvuuksia varten. Huolimatta kasvavista kiinnostuksesta ja investoinneista, tekoälyn käyttöönotto yrityksissä on noin 10 prosenttia, kertoo Danny Coleman, Chatterbox Labsin toimitusjohtaja, ja CTO Stuart Battersby. McKinsey-raportti paljastaa innostuksen lisätä tekoälyn käyttöä, mutta samalla on huolta työpaikan turvallisuudesta. Perinteiset kyberturvaryhmät eivät usein omaa tekoälyspecifejä uhkiin liittyvää asiantuntemusta, mutta yritykset kuten Cisco ja Palo Alto Networks ovat edistyneet strategisten yritysostojen avulla. Battersby korostaa, että jatkuva, käyttötapauskohtainen testaus on ratkaisevan tärkeää, sillä pelkkä toimittajien vakuutteluihin ja sisältöfiltreihin luottaminen ei riitä. Molemmat asiantuntijat ovat yhtä mieltä siitä, että tiukat, kerroksittaiset turvatoimet ovat olennaisia tekoälyn turvallisen käyttöönoton skaalaamisessa. Vaikka jatkuvat testit aiheuttavat kustannuksia, ne vähentävät kuluja arvioimalla pienempiä, tehokkaita tekoälymalleja, mikä lopulta nopeuttaa tekoälyn käyttöönottoa yrityksissä.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Varo näitä tasoja, jos Bitcoinin hinta kohoaa jäl…
Bitcoinin hinta ei ole osoittanut samaa momentumata kuin viime kuukauden alussa koko kesäkuun ajan.

Meta neuvottelee 10 miljardin dollarin sijoitukse…
Meta Platforms harkitenaan suunnittelevan yli 10 miljardin dollarin sijoitusta tekoälystartup-yritys Scale AI:hun Bloombergin tietojen mukaan.

Deutsche Bank tutkii stablecoinien ja tokenisoitu…
Deutsche Bank tutkii aktiivisesti stablecoineja ja tokenisoituja talletuksia osana kasvavaa digitaalisten varojen strategiaansa, mikä heijastaa kasvavaa kiinnostusta lohkoketjuineihin perustuvaan finanssialustaan globaalien pankkiviranomaisten keskuudessa.

Applen vaikeudet päivittää Sirin johtavat sijoitt…
Apple kohtaa suurempia haasteita päivittäessään Siri-ääniohjaustaan kehittyneillä keinotaidoilla (AI), mikä herättää sijoittajien huolia yhtiön koko AI-strategiasta ja kilpailukyvystä nopeasti kehittyvässä teknologiamaailmassa.

Winklevossin johtama kryptoyhtiö Gemini hakee sal…
© 2025 Fortune Media IP Limited.

Paul Brody, EY: Miten blockchain muuttaa maailman…
Paul Brody, EY:n globaalin lohkoketjut- ja digitaalisointipäällikö ja vuoden 2023 kirjan *Ethereum for Business* toinen kirjoittaja, keskustelee Global Financelle lohkoketjun vaikutuksesta maksuisiin, rahansiirtoihin, pankkitoimintaan ja yritysrahoitukseen.

Microsoft esittelee tekoälyn turvallisuusluokituk…
Microsoft edistää AI-turvallisuutta Azure Foundry -kehittäjämallipohjallaan ottamalla käyttöön uuden "turvallisuus" ranking-mittarin arvioimaan tekoälymallien mahdollisia riskejä, kuten vihapuheen tuottamista tai väärinkäytön mahdollisuuksia.