Ettevõtetel võivad olla olemas küberkaitse meeskonnad, kuid paljud jäävad ettevaatlikuks AI süsteemide tegeliku ebaõnnestumise viiside suhtes, väitis AI turvalisuse uurija. Sander Schulhoff, üks esimesi juhendeid prompt-inseneri koostamisel ning AI süsteemide haavatavuste eksperdina, ütles pühapäeval avaldatud "Lenny's Podcasti" viimases saates, et paljud organisatsioonid ei oma oskuslikke töötajaid, kes suudaksid mõista ja vähendada AI turvalisuse riske. Tavalised küberkaitse meeskonnad on koolitatud vigu parandama ja teadaolevaid haavatavusi lahendama, kuid AI käitub teistmoodi. "Sa saad parandada vea, kuid sa ei saa parandada aju, " selgitas Schulhoff, rõhutades seda, mida ta näeb põhimõttelise lahkheli tõttu, kuidas turvameeskonnad lähenevad probleemidele ja kuidas suured keelemudelid ebaõnnestuvad. "AI funktsioneerimise ja klassikalise küberkaitse vahel on lahknevus, " lisas ta. See lõhe muutub ilmseks praktilistes rakendustes. Küberkaitse eksperdid võivad AI süsteemi tehnilisi probleeme uurida, teadmata küsimust: "Mis siis, kui keegi manipuleerib AI-d, sundides seda tegema midagi sobimatut?" märkis Schulhoff, kes hallatab prompt-inseneri platvormi ja AI red-teaming-hackathonit. Erinevalt tavalisest tarkvarast saab AI-süsteeme mõjutada keele ja õrnade juhiste kaudu, rõhutas ta. Schulhoff märkis, et AI turvalisuse ja traditsioonilise küberturvalisuse kogemusega inimesed teaksid, kuidas reageerida, kui AI mudelit pettusega suunatakse koostama pahatahtlikku koodi — näiteks jooksutades koodi isoleeritud konteineris, et kaitsta laiemat süsteemi võimaliku kahju eest. Ta usub, et AI turvalisuse ja tavapärase küberturvalisuse ristumine kujutab endast "tuleviku töökohti". AI turvalisuse startup’ide teke Schulhoff kritiseeris samuti paljusid AI turvafirmasid, kes reklaamivad kaitsesüsteeme, mis ei paku tõelist kaitset.
Kuna AI süsteeme saab manipuleerida lõputult erinevate taktikatena, on väited, et need tööriistad suudavad "kogu asja kinni püüda", pettuslikud. "See on täielikult valesti, " ütles ta, ennustades turu korrigeerimist, kus "selle kaitsesüsteemide ja automatiseeritud red-teaming’ ettevõtete tulud oluliselt kahaneb. " AI turvalisuse startup’id on olnud tugeva investorihuvi tõttu suuresti edukad. Suured tehnoloogiaettevõtted ning riskikapitali ettevõtted on sellesse sektori palju investeerinud, sest ettevõtted võistlevad oma AI süsteemide kindlustamise nimel. Märtsis ostis Google küberkaitse startup Wiz 32 miljardi dollariga, et tugevdada oma pilveteenuste turvalisust. Google’i tegevjuht Sundar Pichai tunnustas, et AI toob kaasa "uusi riske" ajal, mil mitme pilve ja hübriidikeskkonna kasutamine muutub üha populaarsemaks. "Sel kontekstis otsivad organisatsioonid küberkaitsealaseid lahendusi, mis parandavad pilveturvalisust mitme pilve vahel, " lisas ta.
Tehisintellekti turvaprobleemid: Miks traditsioonilised küberkübertalentid võitlevad AI nõrkustega
Viimase 18 kuu jooksul on SaaStri meeskond end süvendatult AI ja müügi alal arendanud ning juunis 2025 algas seal tõsine kiirenemine.
OpenAI valmistub käivitama GPT-5, järgmist suuremat sammu oma suurte keelemudelite sarjas, mille avaldamine on oodata 2026.
Tehisintellekt (TI) shapingub kiiresti sisuloome ja optimeerimise valdkonda otsingumootori optimeerimise (SEO) sees.
Kaugtöö muutmine on toonud esile tõhusa suhtlusvahendite olulisuse ning viinud AI-toega videokonverentsilahenduste arenguni, mis võimaldavad sujuvat koostööd kaugustes.
Ülevaade Globaalse tehisintellekti turg meditsiinis oodatakse jõuab kuni 2033
John Mueller Google’ist korraldas koos Danny Sullivaniga, kes samuti Google’ist on, Search Off the Record podcasti, arutamaks teemat „ Mõtted SEO-st ja AI jaoks
Lühike ülevaade: Lexus on lansseerinud pühade turunduskampaania, mis on loodud generatiivse tehisintellekti abil, teatab pressiteade
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today