Uzņēmumiem var būt izveidotas kibertroņu komandas, taču daudzi joprojām nav sagatavoti reaģēt uz to, kā AI sistēmas patiesībā neizdodas, norāda AI drošības pētnieks. Sanderšulofs, viens no pirmajiem palīgprogrammu inženierijas vadlīniju autoriem un eksperts par AI sistēmu ievainojamībām, nesen "Lenny's Podcast" epizodē, kas tika izlaista svētdien, teica, ka daudzas organizācijas trūkst prasmīgu speciālistu, kuri spētu izprast un novērst AI drošības riskus. Tradicionālās kibertroņu komandas ir apmācītas novērst kļūdas un risināt zināmas ievainojamības, bet AI uzvedas citādi. "Tu vari labot kļūdu, bet tu nevar labot smadzenes, " skaidroja Šulofs, uzsverot, kas viņam šķiet būtiskākā plaisa starp drošības komandu pieeju problēmām un to, kā lielie valodu modeļi neizdodas. "Pastāv plaisa starp AI darbību un klasisko kiberdrošību, " viņš piebilda. Šī atšķirība kļūst acīmredzama praksē. Kiberdrošības speciālisti var pārbaudīt AI sistēmu tehnisko problēmu dēļ, nenodarbojoties ar jautājumu: "Kas notiktu, ja kāds manipulētu ar AI, lai tas veiktu nepareizas darbības?" norādīja Šulofs, kurš pārvalda palīgprogrammu inženierijas platformu un AI komandu pārbaudes hakatona. Atšķirībā no parastās programmatūras, AI sistēmas var ietekmēt ar valodas palīdzību un smalkiem uzdevumiem, uzsvēra viņš. Šulofs piebilda, ka pieredzējuši eksperti gan AI drošībā, gan tradicionālajā kiberdrošībā zinātu, kā rīkoties, ja AI modelis tiek apmānīts ar ļaunprātīgu kodu — piemēram, izvairoties no iespējas, ka kods iedarbojas ārpus izolētas vides, lai novērstu kaitējumu plašākai sistēmai. Viņš uzskata, ka AI drošības un tradicionālās kiberdrošības apvienojums ir "drošības nākotnes darbi. " AI drošības startupu rašanās Šulofs arī kritizēja daudzus AI drošības starta uzņēmumus par to, ka tie piedāvā aizsargjoslas, kas patiesībā nedod patiesu aizsardzību.
Tā kā AI sistēmas var manipulēt ar bezgalīgām taktiku kombinācijām, apgalvojumi, ka šie rīki "rezisēs visu, " ir maldinoši. "Tas ir pilnīgi nepatiesi, " viņš sacīja, prognozējot tirgus korekciju, kurā "ieņēmumi no šīm aizsargjoslām un automatizētās komandas, kas veic drošības pārbaudes, ievērojami samazināsies. " AI drošības starta uzņēmumi ir guvuši labumu no spēcīgas investoru intereses. Gan Lielās tehnoloģiju kompānijas, gan riska kapitāla uzņēmumi aktīvi iegulda šajā sektorā, jo uzņēmumi sacenšas nodrošināt savu AI sistēmu drošību. Marta mēnesī Google iegādājās kiberdrošības startupu Wiz par 32 miljardiem dolāru, lai stiprinātu savu mākoņpakalpojumu drošības pakalpojumus. Google izpilddirektors Sundars Pičais atzina, ka AI rada "jaunus riskus" brīdī, kad daudzmākoņu un hibrīdvides kļūst arvien izplatītākas. "Šajā kontekstā organizācijas meklē kibertroņu risinājumus, kas uzlabo mākoņdrošību vairākās mākoņu platformās, " viņš piebilda.
Meža drošības izaicinājumi: kāpēc tradicionālās kiberdrošības komandas cīnās ar AI ievainojamībām
Jāņa Mūlera no Google vadīts ar Danu Sullivanu, arī no Google, viesojas podkāstā Search Off the Record, lai apspriestu "Domas par SEO un SEO AI priekšā
Īss iepazīšanās: Lexus ir uzsākusi brīvdienu mārketinga kampaņu, kas izveidota ar ģeneratīvās mākslīgās intelekta tehnoloģijas palīdzību, liecina preses relīze
2025.
Šo vietni uzlādei ir būtiska sastāvdaļa neizdevās ielādēt.
Foto ar Paulinu Ochoa, Digital Journal Kamēr daudzi cenšas veidot karjeru, izmantojot mākslīgā intelekta tehnoloģijas, cik pieejamas ir šīs darba iespējas? Jauna pētījuma sniegusi digitālās apmācības platforma EIT Campus, norāda uz vieglāk pieejamajiem mākslīgā intelekta darbiem Eiropā līdz 2026
Spēļu industrija ātri mainās, integrējot mākslīgo intelektu (AI) tehnoloģijas, kas būtiski pārveido spēļu izstrādi un pieredzi spēlētāju vidū.
Alphabet Inc., Google mātesuzņēmums, paziņoja par vienošanās noslēgšanu par Intersect, datu centru enerģijas risinājumu uzņēmuma, iegādi par 4,75 miljardiem dolāru.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today