कृत्रिम बुद्धिमत्ता मॉडेल्स त्यांच्या विद्युतचुंबकीय स्वाक्षरांच्या शोधाद्वारे चोरीसाठी आश्चर्यकारकपणे असुरक्षित ठरू शकतात. नॉर्थ कॅरोलीना स्टेट युनिव्हर्सिटीच्या संशोधकांनी एका नवीन पेपरमध्ये या पद्धतीवर प्रकाश टाकला, जरी त्यांनी हे Neural Networks वर हल्ले करण्यास प्रोत्साहन देत नाहीत असे स्पष्ट केले आहे. एका विद्युतचुंबकीय प्रोब, काही पूर्व-प्रशिक्षित ओपन-सोर्स AI मॉडेल्स आणि गूगल एज TPU चा वापर करून, त्यांनी TPU चिप रन होत असताना उत्पन्न झालेल्या विद्युतचुंबकीय उत्सर्जनांचे विश्लेषण केले. NC State मधील पीएच. डी. विद्यार्थी आणि अभ्यासाचे मुख्य लेखक, अॅश्ले कुरियन यांनी Gizmodo ला सांगितले, "एखादे Neural Network बनवणे आणि प्रशिक्षण देणे हे खर्चीक असते. यासाठी महत्त्वपूर्ण वेळ आणि संगणकीय संसाधनांची आवश्यकता असते—हे कंपनीचे बौद्धिक संपत्तीत आहे.
उदाहरणार्थ, ChatGPT अरबोंचे पॅरामीटर्स वापरते, जे मुख्य घटक आहेत. जर कोणीतरी ते चोरले, तर ते मुळात ChatGPT चे मालक बनू शकेल अनेक खर्च न करता आणि ते विकू ही शकते. " चोरी हे AI मधील एक मोठे चिंतेचे कारण आहे, अनेकदा विकसक कॉपीराइट केलेल्या कार्यावर मॉडेल्स प्रशिक्षण घेतात आणि कोणत्याही लेखकाच्या परवानगीशिवाय वापरतात, ज्यामुळे खटले होत आहेत आणि कलाकारांनी कला जनरेटर्सला "विष" लावण्यासाठी साधने विकसित केली आहेत. कुरियन यांनी स्पष्ट केले की, विद्युतचुंबकीय संवेदक डेटा AI प्रक्रियेच्या वर्तनाची एक "स्वाक्षरी" प्रदान करतो, जी तुलनात्मकदृष्ट्या सोपी आहे. मॉडेलच्या हायपरपॅरामीटर्स—विशेषतः त्याची संरचना आणि परिभाषित वैशिष्ट्ये—उघड करण्यासाठी, त्यांनी लक्ष्याच्या विद्युतचुंबकीय डेटाची इतर AI मॉडेल्सच्या डेटाशी तुलना केली ज्याच्यावर समान चिप प्रकारात चालत होते. या तुलनेद्वारे, त्यांनी “आर्किटेक्चर आणि विशिष्ट वैशिष्ट्यांचा, आणि त्यास लेयर तपशील म्हणतात, निर्धारण केले, जे AI मॉडेल पुनरुत्पादनासाठी आवश्यक होते, ” कुरियन म्हणाले, "99. 91% अचूकता" साध्य केली आहे. त्यांनी चिपचा भौतिक प्रवेश करून प्रोब करणे आणि मॉडेल्स चालवणे याचे आयोजन केले, गूगलसह त्याच्या चिप्सच्या असुरक्षेचे मूल्यांकन करण्यास काम केले. कुरियनने सुचवले की स्मार्टफोन्सवर मॉडेल्स कॅप्चर करणे शक्य आहे, तरी त्यांच्या कॉम्पॅक्ट डिझाइनमुळे विद्युतचुंबकीय संकेतांची देखरेख करणे क्लिष्ट बनते. AI मानदंड नॉनप्रॉफिट अट्लास कम्प्युटिंगचे सुरक्षा संशोधक मेहमेट सेन्कन यांची टिप्पणी Gizmodo ला होती की "एज डिव्हाइसवर साइड चॅनेल हल्ले काही नवीन नाहीत. " तथापि, संपूर्ण मॉडेल आर्किटेक्चर हायपरपॅरामीटर्स काढण्याची पद्धत उल्लेखनीय आहे. सेन्कन यांनी स्पष्ट केले की AI हार्डवेअर "plaintext मध्ये inference करते, " कोणतेही मॉडेल जे असुरक्षित एज डिव्हाइस किंवा सर्व्हर्सवर तैनात केले जाते ते त्याचे आर्किटेक्चर तपशीलवार प्रोबिंगद्वारे काढले जाणे असुरक्षित आहे.
अभ्यासानुसार, एआय मॉडेल्स विद्युत चुंबकीय स्वाक्षरीद्वारे चोरीस संवेदनाक्षम आहेत.
दूरस्थ कामाकडे होणारा संक्रमण वेगाने वाढत असून, विविध उद्योगांत कृत्रिम बुद्धिमत्ता (AI) आधारित व्हिडीओ कॉन्फरन्सिंग प्लॅटफॉर्मची स्वीकार्यता वाढली आहे, ज्यामुळे विभागलेले संघ अधिक कार्यक्षम व्हर्चुअल संवाद साधू शकतात.
आम्ही अलीकडे सायबरसुरक्षेच्या क्षेत्रात एक महत्त्वाचा टप्पा ओळखला आहे: एआय मॉडेल्स आता खरोखरच सायबर ऑपरेशन्ससाठी प्रभावी साधने बनली आहेत, लाभदायक आणि दुरुपयोगी दोन्ही प्रकारे.
सेल्सफ़ोर्स, क्लाउड आधारित सॉफ्टवेअर आणि ग्राहक संबंध व्यवस्थापन (CRM) सोल्यूशन्स मध्ये जागतिक आघाडीदार, आपली वार्षिक विक्री अंदाज ४१ अब्ज डॉलर्सवर वाढवले आहे, हे ४०.५ अब्ज डॉलर्सवरून.
डिजिटल जाहिरातीत मोठ्या प्रमाणावर रूपांतर घडत आहे ज्यामुळे कृत्रिम बुद्धिमत्ता (AI) तंत्रज्ञानांची समाकलन झाली आहे.
एआय SEO आणि GEO ऑनलाइन शिखर परिषद 9 डिसेंबर 2025 रोजी आयोजित केली जाणार आहे, ज्यामध्ये तीन तासांचा व्यापक व्हर्च्युअल इव्हेंट असेल.
अँथ्रोपिक, एक अग्रगण्य AI कंपनी, सायबरसुरक्षेत एक नवा आणि धोकादायक विकास उघडकीस आणला आहे: AI स्वयंपाकाने हॅकिंग मोहिमा चालवणाऱ्या पहिल्या प्रलेखित प्रकरणाचे निदान.
“आपली पायरी लक्षात ठेवा, सभा, पुढे चालत रहा,” असा एक पोलिस अधिकारी ज्याच्या वेस्टवर ICE असे लिहिलेले आहे आणि “POICE” असे टॅग लावलेले आहे, असे म्हणतात एका Latino दिसणाऱ्या माणसाला जो Walmart च्या कर्मचारी वेस्टमध्ये घालणारा आहे.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today