Bedrijfs-AI-acceptatie vereist voortdurende beveiligingstests, zeggen deskundigen

Interview Voordat AI algemeen wordt toegepast in bedrijven, moeten leidinggevenden zich inzetten voor een continu beveiligingstestregime dat is afgestemd op de specifieke nuances van AI-modellen. Deze visie komt van Danny Coleman, CEO van Chatterbox Labs, en CTO Stuart Battersby, die uitgebreid met The Register bespraken waarom bedrijven tot nu toe traag zijn geweest met de overgang van AI-pilootprogramma’s naar volledige productie-implementatie. "De adoptie door ondernemingen ligt nu slechts op ongeveer tien procent, " zei Coleman. "McKinsey schat dat het een markt van vier biljoen dollar is. Hoe ga je verder als je steeds oplossingen uitbrengt waarvan mensen niet weten of ze veilig zijn om te gebruiken, of dat ze niet alleen niet op de hoogte zijn van de impact op de onderneming, maar ook van de maatschappelijke impact?" Hij voegde toe: "Mensen binnen ondernemingen zijn nog niet helemaal klaar voor deze technologie zonder goede governance en beveiliging. " In januari heeft adviesbureau McKinsey een rapport gepubliceerd dat het onbenutte potentieel van kunstmatige intelligentie (AI) op de werkvloer onderzoekt. Het rapport, getiteld "Superagency op de werkplek: Mensen versterken om het volledige potentieel van AI te ontsluiten, " benadrukte de toenemende interesse en investeringen in AI-technologieën, maar merkte op dat het adoptietempo nog steeds traag blijft. ". . . wat je moet doen, is niet vertrouwen op de retoriek van zowel de modelleverancier als de guardrail-leverancier, omdat iedereen zal zeggen dat het superveilig en beveiligd is. " "Leiders willen AI-investeringen verhogen en de ontwikkeling versnellen, maar ze hebben moeite om te bepalen hoe ze kunnen zorgen dat AI veilig is op de werkvloer, " staat in het McKinsey-rapport. Coleman stelt dat traditionele cybersecurity en AI-beveiliging elkaar kruisen, maar dat de meeste informatiebeveiligingsteams nog achterlopen en vaak niet de expertise bezitten om de unieke aanvalsvlakken van AI te begrijpen. Hij noemde de overname van Robust Intelligence door Cisco en de aankoop van Protect AI door Palo Alto Networks als voorbeelden van bedrijven die de juiste strategieën hanteren. Battersby benadrukte dat organisaties die AI op grote schaal willen inzetten, een regime van continue testen moeten implementeren dat gebaseerd is op wat de AI-dienst daadwerkelijk doet. "De eerste stap is bepalen wat veilig en betrouwbaar betekent voor jouw specifieke geval, " legde hij uit.
"Daarna moet je voorkomen dat je uitsluitend vertrouwt op de claims van de modelleverancier of de guardrail-leverancier, omdat iedereen beweert dat hun oplossingen uiterst veilig zijn. " Deze voorzichtigheid is cruciaal, benadrukte Battersby, omdat zelfs geautoriseerde gebruikers van een AI-systeem het gedrag schadelijk kunnen doen worden. "Wat wij willen communiceren, is dat inhoudsbeveiligingsfilters en guardrails alleen niet voldoende zijn, " zei Coleman. "Dit zal niet snel veranderen. De oplossing moet veel gelaagder zijn. " Hoewel deze aanpak kosten met zich mee kan brengen, stelt Battersby dat continu testen de kosten kan verlagen door bijvoorbeeld aan te tonen dat kleinere, minder kostbare modellen nog steeds veilig zijn voor bepaalde toepassingen. Het volledige interview volgt hieronder…
Brief news summary
Voor wijdverspreide adoptie van AI moeten bedrijfsleiders prioriteit geven aan continue beveiligingstests, afgestemd op de unieke kwetsbaarheden van AI-modellen. Ondanks toenemende belangstelling en investeringen blijft AI-implementatie in bedrijven relatief laag, ongeveer 10%, aldus Danny Coleman, CEO van Chatterbox Labs, en CTO Stuart Battersby. Een rapport van McKinsey toont enthousiasme voor het uitbreiden van AI-gebruik, maar ook bezorgdheid over veiligheid op de werkplek. Traditionele cybersecurityteams missen vaak expertise in AI-specifieke bedreigingen, maar bedrijven als Cisco en Palo Alto Networks boeken vooruitgang door strategische overnames. Battersby benadrukt dat voortdurende, use-case-specifieke testen essentieel zijn, aangezien vertrouwen op alleen de garanties van leveranciers en inhoudsfilters onvoldoende is. Beide experts zijn het erover eens dat rigoureuze, gelaagde beveiligingsmaatregelen cruciaal zijn om AI-uitrol op een veilige manier op te schalen. Hoewel continue testing kosten met zich meebrengt, verlaagt het de kosten doordat het kleinere, effectieve AI-modellen valideert, waardoor de adoptie van AI binnen bedrijven sneller verloopt.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Pas op voor deze niveaus als de Bitcoin-prijs ter…
De Bitcoin-prijs heeft niet dezelfde momentum vertoond als aan het begin van vorige maand gedurende juni.

Meta in onderhandeling over investering van 10 mi…
Meta Platforms is naar verluidt in gesprek om meer dan 10 miljard dollar te investeren in de kunstmatige intelligentie start-up Scale AI, aldus Bloomberg News.

Deutsche Bank onderzoekt stablecoins en getokenis…
Deutsche Bank onderzoekt actief stablecoins en getokeniseerde deposito’s als onderdeel van haar groeiende strategie voor digitale activa, wat wijst op een toenemende interesse in blockchain-gebaseerde financiële infrastructuur onder wereldwijde bancaire instellingen.

De problemen van Apple bij het updaten van Siri z…
Apple staat voor grote uitdagingen bij het upgraden van zijn spraakassistent Siri met geavanceerde kunstmatige intelligentie (AI)-mogelijkheden, wat zorgen onder investeerders oproept over de algehele AI-strategie en de concurrentiepositie in een snel veranderend technologisch landschap.

Winklevoss-geleide cryptobedrijf Gemini dient in …
© 2025 Fortune Media IP Limited.

Paul Brody, EY: Hoe blockchain de wereldwijde han…
Paul Brody, EY’s wereldwijde blockchainleider en coauteur van het boek *Ethereum for Business* uit 2023, bespreekt de impact van blockchain op betalingen, overmakingen, bankieren en bedrijfsfinanciën met Global Finance.

Microsoft introduceert AI-veiligheidsranglijsten …
Microsoft bevordert AI-veiligheid op zijn Azure Foundry-ontwikkelaarsplatform door een nieuwe 'veiligheids'-rankingmeter te introduceren om AI-modellen te evalueren op potentiële risico's, zoals het genereren van haatzaaiende uitingen of het mogelijk maken van misbruik.