ఎంటర్ప్రైజ్ AI గృహావరణం నిరంతర భద్రత పరీక్షలను కోరుటకు, నిపుణులు చెబుతున్నారు

ఇంటర్వ్యూ AI ప్రపంచవ్యాప్తంగా వ్యాపించడునలు ప్రారంభమయ్యే ముందు, కార్పొరేట్ నేతలు AI మోడళ్ల యొక్క ప్రత్యేక స్వభావాలకి అనుగుణంగా నిరంతర భద్రతా పరీక్షల నియమావళిని పాటించడంపైijding తెలియజేయాలి. ఈ అభిప్రాయం చాటర్బాక్స్ ల్యాబ్స్ సీఈఓ డేనీ కులమెన్ మరియు సిటి స్టీవర్ట్ బ్యాటర్స్బీ మా పాల్గొనడం ద్వారా రావడం, అవి The Registerతో గురిస్తున్న కథనంలో, కంపెనీలు ఇప్పటివరకు AI పైలట్ కార్యక్రమాల నుంచి పూర్తి ఉత్పత్తి అమలుకు బందాం కదలికనుంచి ఎందుకు ఆలస్యం అవుతున్నాయి అనేదే గురించి వివరించారు. "ఎంటర్ప్రైజ్ ఆమోదం ఈ రోజుల్లో సుమారు 10 శాతం మాత్రమే, " అన్నారు కులమెన్. "మకిన్సే దీన్ని నాలుగ Trillion డాలర్ల మార్కెట్గా అంచనా వేసింది. మీరు ఎలా ముందుకు పోతారు అంటే, ప్రజలు సురక్షితంగా ఉపయోగించగలుగుతున్న పరిష్కారాలను విడుదల చేయడం ఎలా, లేకపోతే, అవి ఎంతటి సమాజిక ప్రభావం చూపుతాయో తెలియకపోతే?" అనూహ్యంగా కులమెన్ జోడించారు, "ఎంటర్ప్రైజ్లలోని యజమానులు అవసరమైన పాలన లేక భద్రత లేకుండా ఈ టెక్నాలజీకి సిద్ధంగా లేరు. " జనవరిలో, కన్సల్టింగ్ సంస్థ మెకిన్సే ఏఐ యొక్క అనుపయోగశీల శక్తిని పరిశీలించే నివేదికను ప్రచురించింది. అది “ప工作లో సూపర్ ఏజెన్సీ: ప్రజలను సాధన చేయడం ద్వారా AI యొక్క పూర్తిస్థాయిని Unlock చేయడం” అనే శీర్షికతో, AI సాంకేతికతలపై పెరుగుతున్న ఆసక్తి మరియు పెట్టుబడులను హైలైట్ చేసింది, కానీ అక్కడ ఆమోదం దశ కొంత మెల్లగా ఉంది అని తెలిపింది. ". . . మీకు చేయాల్సింది ఏమిటంటే, మోడల్ విక్రేత లేదా గార్డ్రెయిల్ విక్రేత యొక్క వాంఛనిర్ధారికలను విశ్వసించకూడదు, ఎందుకంటే ప్రతి ఒక్కరూ మీకు అది చాలా సురక్షితమైందని చెప్తారు. " "నేతలు AI పెట్టుబడులను పెంచి, అభివృద్ధిని వేగవంతం చేయాలనుకుంటున్నారు, కానీ AIని పనిచేసే స్థలంలో సురక్షితంగా ఉంచడం ఎలా చేయాలో వారు సవాలు పడుతుంటారు, " mకిన్సే రిపోర్ట్ అంటోంది. కులమెన్ ఎంటర్ఫ్రెస్ సైబర్సెక్యూరిటీ మరియు AI భద్రత అనేవి పరస్పరం అనుసంధానిత రంగాలు కానీ, చాలా సమాచారం భద్రతా బృందాలు ఇప్పటివరకు సరైన దారిని అనుసరించలేవు అని, AI యొక్క ప్రత్యేక దాడి ప్రాంతాలను అర్థం చేసేందుకు అవి ఎంతటి నైపుణ్యం అవసరమో తెలియదు అని పేర్కొన్నారు. సిస్కో యొక్క robuste intelligence కొనుగోలు ಮತ್ತು Palo Alto Networks యొక్క Protect AI కొనుగోలు సంస్థలు సరైన వ్యూహాలు అనుసరించడా అనే ఉదాహరణలు ఇచ్చారు. బ్యాటర్స్బీ జాగ్రత్తగా పేర్కొన్నారు, AIని పెద్ద ఎత్తున అమలుచేసే సంస్థలు, AI సేవ ఏ దానికి సంబంధించి పనిచేస్తున్నదో బాగా గుర్తించాల్సిన నిరంతర పరీక్షలను రీతిలో అమలు చేయాలి. "మొదటి దశ మీదే తగిన సురక్షితమైన మరియు భద్రతగా భావించబడే అర్థం ఏదో నిర్వచించడం, " అని ఆయన వివరిస్తున్నారు.
"తర్వాత, మోడల్ ప్రొవైడర్ లేదా గార్డ్రెయిల్ విక్రేత యొక్క వాదనలపై మాత్రమే ఆశ్రయించకూడదు, ఎందుకంటే ప్రతి ఒక్కరూ తమ పరిష్కారాలు అత్యంత సురక్షితమని వాచుతుండడం సాధారణం. " ఈ జాగ్రత్త అత్యవసరం, ఎందుకంటే, పూర్తిగా అనధికారికులే కాకుండా, అధికారిక వినియోగదారులూ కూడా AI సిస్టమ్ ను హానికరం చేయగలరో, తెలిపారు బ్యాటర్స్బీ. "నమస్కారం చెప్పాలంటే, కంటెంట్ సేఫ్టీ ఫిల్టర్లు మరియు గార్డ్రెయిల్స్ మాత్రమే సరిపోదు, " అని కులమెన్ చెప్పారు. "ఇది త్వరగా మార్చేది కాదు. పరిష్కారం మరింత పొరలు కలిగి ఉండాలి. " ఈ విధానం ఖర్చులకు కారణం అవుతుందేమో అనుకుంటే, బ్యాటర్స్బీ ప్రస్తావించినట్లుగా, నిరంతర పరీక్షల ద్వారా చిన్న, తక్కువ ఖర్చుతో ఉన్న మోడళ్లను కూడా సురక్షితంగా నిరూపించవచ్చు, అందులో కొన్ని ఉపయోగాలకే సరిపడవచ్చు. పూర్తి ఇంటర్వ్యూ దిగువన కొనసాగుతుంది…
Brief news summary
వరల్డ్ వైడ్ AI అనుసరణకు ముందు, ఎంటರ್ಪ్రైజ్ నాయకులు AI మోడల్స్ యొక్క ప్రత్యేక సున్నితతలకు అనుకూలమైన నిరంతర భద్రత పరీక్షలను ప్రాధాన్యంగా తీసుకోవాలి. పెరుగుతున్న ఆసక్తి మరియు పెట్టుబడులున్నప్పటికీ, కంపెనీల్లో AI అమలు సుమారు 10% మాత్రమే ఉందని చాటర్బాక్స్ ల్యాబ్స్ CEO డానీ కోల్మెన్ మరియు CTO స్టువర్ట్ బ్యాటర్స్లీ పేర్కొంటున్నారు. మెకిన్సీ నివేదికలా, కార్మికసురక్షణపై చింతలతో పాటు AI ఉపయోగాన్ని విస్తరించడానికి ఉత్సాహం వీక్షించబడుతోంది. సాంప్రదాయ సైబర్ భద్రతా టీమనికలు సాధారణంగా AI-శ్రీమంత గురి దాడులపై నిపుణులవ్వడం లేదు, కానీ సిస్కో, పALE ఆంటో నెట్వோரక్స్ వంటి సంస్థలు వ్యూహాత్మక కొనుగోగుల ద్వారా పురోగతి సాధిస్తున్నాయి. బ్యాటర్స్లీ హెచ్చరిస్తున్నారు, నిరంతర, ఉపయోగ-కేసు-ప్రామాణిక పరీక్షలు అత్యవసరం, ఎందుకంటే విక్రేతలకు ప్రత్యేకమైన భnianతలు మరియు కంటెంట్ ఫిల్టర్ మాత్రమే ఆధారపడటం సాటిస్ట్ కాదు. ఇద్దరూ పేర్కొంటున్నారు, కఠినమైన, మార్గాల మట్టమైన భద్రతా చర్యలు AI డిప్లాయ్నెంట్ను సురక్షితంగా పెద్ద స్థాయిలో చేయడానికి ఏకంగమై ఉండవలెనై ఉంటాయి. నిరంతర పరీక్షలు ఖర్చులను కలుగజేస్తాయి, కానీ చిన్న, సమర్థవంతమైన AI మోడల్స్ను ధ్రువీకరించడం ద్వారా ఖర్చులను తగ్గిస్తాయి, చివరికి సంస్థల్లో AI అనుసరణ వేడుక చేసేందుకు వేగవంతం చేస్తాయి.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

బిట్కాయిన్ ధర తిరిగి $100K కు తిరిగి వెళ్ళరిస్తే ఈ స్…
బిట్కోయిన్ ధర గత నెల ప్రారంభంలో చూపించిన వేగంతో జూన్ నెల మొత్తాన్ని తిరిగి చూపలేకపోయింది.

మెటా స్కేల్ ਏఐలో 10 బిలియన్ డాలర్ల పెట్టుబడిపై చర్చలు చ…
మేటా ప్లాట్ఫారమ్లు, బ్లూమ్బెర్గ్ వార్తల ప్రకారంగా, ఆర్టిఫిషియల్ ఇన్టెలిజెన్స్ స్టార్టప్ స్కేల్ AIలో 100 కోట్ల డాలర్లు పైగా పెట్టుబడికి ఉత్సుకత చూపు చేస్తున్నాయని సమాచారం.

డయ్యెusche బ్యాంక్ బ్లాక్చెయిన్ ప్రోత్సాహంలో స్థిరకాయిన్లు…
డయ్యూచ్ బ్యాంక్ తన వ్యాప్తి చెందుతున్న డిజిటల్ ఆస్తి వ్యూహానికి భాగంగా స్తిర.coinల్స్ మరియు టోకనైజ్డ్ డిపాజిట్లను సక్రియంగా పరిశోధిస్తోంది, ప్రపంచ బ్యాంకింగ్ సంస్థలలో బ్లాక్చైన్-ఆధారిత ఆర్థిక మౌలిక సదుపాయాల్లో పెరుగుతున్న ఆసక్తిని ప్రతిబింబిస్తూ.

ఆపిల్ కంపెనీ సిరిని నవీకరించడంలో ఎదుర్కొంటున్న లేనివ్…
అపిల్ తన వాయి అసిస్టెంట్ సిరి ను ఆధునిక కృత్రిమ మేధస్సు (AI) సామర్థ్యాలతో అప్గ్రేడ్ చేయడంలో ప్రధాన సవాళ్లను ఎదుర్కొంటోంది, ఇది పెట్టుబడిదారుల మనసుల్లో మొత్తం AI వ్యూహం మరియు వేగంగా మారుతూ ఉండే టెక్నాలజీ సన్నివేశంలో పోటీతత్వంపై చింతనని పెంచుతోంది.

వింక్ల్వాస్ నేతృత్వంలోని క్రిప్టో కంపెనీ గెమిని బ్లాక్చ…
© 2025 ఫార్చ్యూన్ మీడియా ఐపి లిమిటెడ్.

పాల్ బ్రోడి, EY: బ్లాక్చెయిన్ globల్ వాణిజ్యాన్ని ఎలా మా…
పాల్ బ్రాడీ, EY గ్లోబల్ బ్లాక్చైన్ లీడర్ మరియు 2023 రచయిత *ఎథిరియమ్ ఫర్ బిజినెస్* గైడ్ యొక్క సహ రచయిత, గ్లోబల్ ఫైనాన్స్తో బ్లాక్చైన్ యొక్క చెల్లింపులు, రిమిటెన్సులు, బ్యాంకింగ్, మరియు కార్పొరేట్ ఫైనాన్స్పై ప్రభావాన్ని చర్చించారు.

మைக్రోసాఫ్ట్ క్లౌడ్ మోడల్స్ కోసం AI భద్రత ర్యాంకింగ్స్ను పర…
माइक्रोसॉफ्ट अपनी Azure Foundry डेवलपर प्लेटफार्म पर AI सुरक्षा को आगे बढ़ाते हुए एक नया 'सुरक्षा' रैंंकिंग मेट्रिक प्रस्तुत कर रहा है, जो AI मॉडल्स के संभावित खतरों का मूल्यांकन करता है, जैसे नफ़रत भरे भाषण या दुरुपयोग की संभावना। यह मेट्रिक ग्राहक का भरोसा बनाने के लिए है, जो विभिन्न AI मॉडल्स की सुरक्षा प्रोफाइल का पारदर्शी मूल्यांकन करता है। यह रैंकिंग दो मुख्य मानकों पर आधारित होगी: माइक्रोसॉफ्ट का ToxiGen मानक, जो विषैली भाषा और नफ़रत भरे भाषण का पता लगाता है, और AI सुरक्षा केंद्र (Center for AI Safety) का Weapons of Mass Destruction Proxy मानक, जो हानिकारक दुरुपयोग से संबंधित खतरों का मूल्यांकन करता है। ये उपकरण जिम्मेदार और सुरक्षित जेनेरेटीव AI तकनीकों की तैनाती को सुनिश्चित करते हैं। इन कठोर मूल्यांकन को एकीकृत करके, माइक्रोसॉफ्ट डेवलपर्स और संगठनों को AI मॉडल्स की सुरक्षा के बारे में सटीक जानकारी प्रदान करता है, जिन्हें वे अपने अनुप्रयोगों और सेवाओं में शामिल कर सकते हैं। यह पहल माइक्रोसॉफ्ट की व्यापक रणनीति के अनुरूप है, जिसमें वह एक तटस्थ और जिम्मेदार प्लेटफार्म प्रदाता बनना चाहता है। एकल स्रोत पर निर्भर रहने के बजाय, माइक्रोसॉफ्ट कई प्रदाताओं से मॉडल्स प्रदान करने की योजना है—जिसमें ओपनएआई भी शामिल है, जिसमें माइक्रोसॉफ्ट ने 14 बिलियन डॉलर का निवेश किया है—यह एक विविध पारिस्थितिकी तंत्र का निर्माण करता है जो नवाचार को प्रोत्साहित करता है, साथ ही उच्च सुरक्षा और नैतिक मानकों का पालन करता है। यह सुरक्षा मेट्रिक अब उस समय आया है जब AI के दुरुपयोग को लेकर चिंताएँ बढ़ रही हैं, जिनमें हानिकारक सामग्री का उत्पादन, गलत जानकारी, और दुर्भावनापूर्ण अनुप्रयोग शामिल हैं। माइक्रोसॉफ्ट का यह दृष्टिकोण सीधे इन चुनौतियों का सामना करता है, जिम्मेदारी से AI का उपयोग सुनिश्चित करने के लिए मापन योग्य सुरक्षा मानकों को लागू करता है। ToxiGen और Weapons of Mass Destruction Proxy मानकों का संयोजन व्यापक जोखिम मूल्यांकन प्रदान करता है, जिसमें हानिकारक भाषा और अनैतिक दुरुपयोग दोनों शामिल हैं। Azure Foundry के माध्यम से, डेवलपर्स विस्तृत सुरक्षा स्कोर प्राप्त करेंगे, जो मॉडल का चयन करने में सूझबूझ प्रदान करेगा और AI उपयोगकर्ताओं तथा हितधारकों में विश्वास बढ़ाएगा। माइक्रोसॉफ्ट का यह प्लेटफार्म कई AI प्रदाताओं को होस्ट करता है, जो इसकी विविधता और तटस्थता के प्रति प्रतिबद्धता को दर्शाता है, जिससे प्रतिस्पर्धा और नवाचार को बढ़ावा मिले, और किसी एक कंपनी का बाजार पर वर्चस्व न हो। यह विविधता प्रदर्शन के साथ-साथ सुरक्षा और नैतिकता को भी प्राथमिकता देती है। माइक्रोसॉफ्ट का ओपनएआई के साथ मजबूत साझेदारी यह दर्शाती है कि उसे जेनेरेटीव AI के परिवर्तनकारी संभावनाओं में भरोसा है, और व्यापक प्रदाता पारिस्थितिकी तंत्र एक जीवंत, जिम्मेदार AI बाज़ार बनाने का लक्ष्य रखता है। यह सुरक्षा रैंकिंग मेट्रिक AI मॉडल्स के लिए स्पष्ट सुरक्षा अपेक्षाओं और जवाबदेही तय करने में आधारभूत भूमिका निभाता है। यह पहल वैश्विक उद्योग और नियामक प्रयासों के साथ भी मेल खाती है, जो AI को जिम्मेदारी से नियंत्रित करने के गंभीर प्रयास कर रहे हैं। जैसे-जैसे सरकारें और संगठन AI संबंधित खतरों को रोकने के लिए ढांचा विकसित कर रहे हैं, माइक्रोसॉफ्ट खुद को सुरक्षित AI तैनाती के श्रेष्ठ आचरण स्थापित करने में अग्रणीPosition करता है। AI तकनीकों की तीव्र प्रगति के साथ, मजबूत सुरक्षा उपाय अत्यंत आवश्यक हो गए हैं। अंत में, माइक्रोसॉफ्ट का Azure Foundry पर नई सुरक्षा रैंकिंग मेट्रिक AI शासन में एक सक्रिय और दूरदर्शी दृष्टिकोण का उदाहरण है। नफ़रत भाषण, दुरुपयोग, और हानिकारक निष्पादन से संबंधित जोखिमों का मूल्यांकन करने के लिए मान्य मानकों का उपयोग कर, माइक्रोसॉफ्ट जिम्मेदार AI विकास और तैनाती के लिए एक अनुकूल माहौल तैयार कर रहा है। यह कदम ग्राहक का भरोसा बढ़ाता है और माइक्रोसॉफ्ट की स्थिति को एक तटस्थ, नैतिक AI प्लेटफ़ॉर्म प्रदाता के रूप में मजबूत बनाता है, जो तेजी से बदलते तकनीकी परिदृश्य में जवाबदेही सुनिश्चित करता है।