Close Menu
Digpu News  Agency Feed
    Facebook X (Twitter) Instagram
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Facebook X (Twitter) Instagram
    Digpu News  Agency Feed
    Subscribe
    Friday, January 2
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Digpu News  Agency Feed
    Home»Hindi»एंथ्रोपिक सुरक्षा प्रमुख: 12 महीनों के भीतर एआई सहकर्मियों के लिए तैयार हो जाइए

    एंथ्रोपिक सुरक्षा प्रमुख: 12 महीनों के भीतर एआई सहकर्मियों के लिए तैयार हो जाइए

    DeskBy DeskAugust 12, 2025No Comments6 Mins Read
    Share Facebook Twitter Pinterest Copy Link LinkedIn Tumblr Email VKontakte Telegram
    Share
    Facebook Twitter Pinterest Email Copy Link

    जैसे-जैसे कृत्रिम बुद्धिमत्ता उद्यम में अपनी प्रगति जारी रखे हुए है, सुरक्षा चुनौतियों का एक नया दायरा खुल रहा है। एआई एजेंट, विशेष रूप से बड़े भाषा मॉडल द्वारा संचालित, ज्ञात परिचालन विचित्रताओं जैसे मतिभ्रम (गलत जानकारी उत्पन्न करना) और त्वरित इंजेक्शन हमलों के प्रति भेद्यता के साथ आते हैं – एक ऐसी तकनीक जिसमें इनपुट डेटा में छिपे दुर्भावनापूर्ण निर्देश एआई को अनपेक्षित कार्य करने के लिए प्रेरित करते हैं।

    ये केवल सैद्धांतिक जोखिम नहीं हैं; ये कॉर्पोरेट प्रणालियों से समझौता करने के संभावित प्रवेश द्वार का प्रतिनिधित्व करते हैं। अब, एंथ्रोपिक के शीर्ष सुरक्षा कार्यकारी इन अमूर्त चिंताओं में एक विशिष्ट समयरेखा जोड़ रहे हैं।

    एंथ्रोपिक के मुख्य सूचना सुरक्षा अधिकारी, जेसन क्लिंटन का मानना है कि स्वायत्त “आभासी कर्मचारी” के रूप में कार्य करने में सक्षम एआई प्रणालियाँ अगले बारह महीनों के भीतर कॉर्पोरेट नेटवर्क के भीतर एक वास्तविकता बन जाएँगी। इस सप्ताह एक्सियोस के साथ बात करते हुए, उन्होंने चेतावनी दी कि उद्योग इन उन्नत एआई पहचानों की मांग वाले सुरक्षा सुधार के लिए पूरी तरह से तैयार नहीं है।

    ये आभासी कर्मचारी केवल उपकरण नहीं होंगे; क्लिंटन का मानना है कि उनके पास स्थायी “यादें”, विशिष्ट कार्य भूमिकाएँ, और अपने स्वयं के कॉर्पोरेट खाते और पासवर्ड होंगे, जिससे उन्हें आज के एआई एजेंटों की तुलना में कहीं अधिक महत्वपूर्ण परिचालन स्वतंत्रता मिलेगी, जो आमतौर पर विशिष्ट, प्रोग्राम किए गए कार्यों पर ध्यान केंद्रित करते हैं, जैसे कि माइक्रोसॉफ्ट फ़िशिंग अलर्ट का जवाब देने के लिए उनका उपयोग कर रहा है। “उस दुनिया में, सुरक्षा के दृष्टिकोण से ऐसी कई समस्याएं हैं जिनका हमने अभी तक समाधान नहीं किया है, जिन्हें हमें हल करने की आवश्यकता है,” क्लिंटन ने एक्सियोस से कहा।

    पहचान संकट: गैर-मानव कार्यबल की सुरक्षा

    मुख्य मुद्दा इन एआई पहचानों के प्रबंधन में निहित है। आप किसी एआई के उपयोगकर्ता खाते को जोखिम से कैसे सुरक्षित रखते हैं? एक स्वायत्त एजेंट के लिए कौन सी नेटवर्क अनुमतियाँ उपयुक्त हैं?

    और सबसे महत्वपूर्ण बात, जब कोई एआई कर्मचारी अप्रत्याशित या दुर्भावनापूर्ण तरीके से कार्य करता है, तो कौन ज़िम्मेदार होता है? क्लिंटन ने एआई के दुष्ट होने, शायद किसी कंपनी की आंतरिक सॉफ़्टवेयर विकास पाइपलाइन को हैक करने की संभावना की ओर इशारा किया। “पुरानी दुनिया में, यह एक दंडनीय अपराध है,” उन्होंने कहा।

    “लेकिन इस नई दुनिया में, उस एजेंट के लिए कौन ज़िम्मेदार है जो कुछ हफ़्ते से काम कर रहा था और उस मुकाम तक पहुँच गया?” यह चुनौती नेटवर्क प्रशासकों के सामने आने वाली मौजूदा कठिनाइयों को और बढ़ा देती है, जिनका सामना उन्हें खातों तक पहुँच की निगरानी और चुराए गए क्रेडेंशियल्स का इस्तेमाल करने वाले हमलावरों से बचाव करने में करना पड़ता है।

    समस्या क्षेत्र, जिसे अक्सर गैर-मानव पहचान प्रबंधन (NHIM) कहा जाता है, सेवा खातों, API और स्वचालित उपकरणों तक पहुँच सुनिश्चित करने से जुड़ा है – जिनकी संख्या पहले से ही बहुत बड़ी है; डेलिनिया ने अप्रैल 2025 में अनुमान लगाया था कि कई फर्मों में गैर-मानव नेटवर्क पहचान (जैसे सेवा खाते) पहले से ही मानव पहचानों की तुलना में 46 गुना ज़्यादा हैं। स्वायत्त AI कर्मचारियों को जोड़ने से यह जटिलता नाटकीय रूप से बढ़ जाती है।

    एंथ्रोपिक, क्लिंटन ने कहा, इन सुरक्षा प्रश्नों से निपटने को विकास के लिए एक महत्वपूर्ण क्षेत्र मानता है। उन्होंने विशेष रूप से AI कर्मचारी गतिविधियों और सुरक्षा ढाँचों के भीतर इन नए प्रकार के खातों को वर्गीकृत करने के लिए प्रणालियों की दृश्यता प्रदान करने के लिए बेहतर उपकरणों की आवश्यकता का उल्लेख किया।

    कंपनी इस क्षेत्र में अपने कर्तव्यों को दोहरे रूप में परिभाषित करती है: पहला, “क्लाउड मॉडल का गहन परीक्षण करना ताकि यह सुनिश्चित हो सके कि वे साइबर हमलों का सामना कर सकें,” और दूसरा, “सुरक्षा संबंधी मुद्दों की निगरानी करना और उन तरीकों को कम करना जिनसे दुर्भावनापूर्ण कर्ता क्लाउड का दुरुपयोग कर सकते हैं।” यह फोकस नया नहीं है; 2024 के अंत में, क्लिंटन ने एआई एजेंटों में विश्वास स्थापित करने के लिए एक प्रमुख विधि के रूप में “गोपनीय कंप्यूटिंग” की वकालत की थी।

    गोपनीय कंप्यूटिंग हार्डवेयर-आधारित विश्वसनीय निष्पादन वातावरण का उपयोग करके डेटा की सुरक्षा करती है, भले ही वह मेमोरी में संसाधित हो रहा हो, जिसका उद्देश्य अनधिकृत पहुँच या संशोधन को रोकना है।

    एंथ्रोपिक का अपना शोध जोखिमों पर प्रकाश डालता है

    एआई लैब का आंतरिक शोध इन चिंताओं के समर्थन में साक्ष्य प्रदान करता है। मार्च में विस्तृत व्याख्यात्मक ढाँचे पर किए गए कार्य ने शोधकर्ताओं को संभावित रूप से हानिकारक नकली क्रियाओं से जुड़ी आंतरिक मॉडल स्थितियों का अवलोकन करने की अनुमति दी, जैसे कि झूठे औचित्य उत्पन्न करना या यहाँ तक कि इसके रचनाकारों को नुकसान पहुँचाने की कल्पना करना।

    इसके अलावा, फरवरी 2025 के आँकड़ों पर आधारित, 21 अप्रैल को जारी AI मानों पर एक अध्ययन ने पुष्टि की कि इसके क्लाउड मॉडल का व्यवहार अत्यधिक संदर्भ-निर्भर है, जिससे स्वायत्त क्रियाओं की भविष्यवाणी करने की चुनौती बढ़ जाती है। संबंधित मान डेटासेट सार्वजनिक है।

    एंथ्रोपिक की आंतरिक “फ्रंटियर रेड टीम” ने भी मार्च में रिपोर्ट दी थी कि हालाँकि इसके मॉडल बेहतर साइबर सुरक्षा कौशल दिखाते हैं, वे सही उपकरणों और निर्देशों के साथ परिष्कृत साइबर हमलों की नकल कर सकते हैं। यह तब हुआ जब मॉडलों का मूल्यांकन उस समय राष्ट्रीय सुरक्षा के लिए पर्याप्त रूप से बढ़े हुए जोखिम पैदा करने वाले के रूप में नहीं किया गया था।

    इससे पहले अक्टूबर 2024 में चिंताएँ तब पैदा हुईं जब क्लाउड को उपयोगकर्ता के कंप्यूटर पर सीधे काम करने की अनुमति देने वाली एक सुविधा ने सुरक्षा विशेषज्ञों को बाहरी फ़ाइलों या वेबसाइटों के माध्यम से त्वरित इंजेक्शन के माध्यम से संभावित हेरफेर के बारे में चेतावनी देने के लिए प्रेरित किया।

    नींव रखी जाने के बाद उद्योग में बदलाव

    व्यापक तकनीकी उद्योग गैर-मानवीय पहचानों के प्रबंधन से जूझने लगा है। ओक्टा ने फरवरी में एकीकृत निगरानी के उद्देश्य से एक प्लेटफ़ॉर्म लॉन्च किया, और डेलिनिया और एकेलेस जैसी कंपनियाँ विशेष एनएचआईएम टूल्स का विपणन कर रही हैं। लेकिन वर्कफ़्लो में एआई को एकीकृत करने को सांस्कृतिक प्रतिरोध का भी सामना करना पड़ रहा है, जिसका उदाहरण पिछले साल लैटिस द्वारा अपने “एआई-इन-द-ऑर्ग-चार्ट” प्रस्ताव को तुरंत वापस लेना है।

    साथ ही, इन एजेंटों के लिए तकनीकी पाइपलाइन स्थापित की जा रही है। नवंबर 2024 में स्थापित एंथ्रोपिक का मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP), HTTP या स्थानीय कनेक्शन पर बाहरी डेटा और टूल्स के साथ एआई एजेंटों के इंटरैक्ट करने के तरीके के मानक के रूप में लोकप्रिय हो रहा है। ओपनएआई ने हाल ही में इसे अपनाया है, माइक्रोसॉफ्ट, एडब्ल्यूएस और गूगल के बाद, जो संभावित रूप से भविष्य के वर्चुअल कर्मचारियों के लिए संचार मार्ग प्रदान करता है।

    क्लिंटन की चेतावनी एंथ्रोपिक के एआई जोखिमों के प्रबंधन पर लगातार सार्वजनिक रुख से मेल खाती है। कंपनी ने नवंबर 2024 में तत्काल वैश्विक विनियमन की मांग की थी और मार्च 2025 में व्हाइट हाउस से सख्त निगरानी की पैरवी की थी, जबकि साथ ही उसने अपनी वेबसाइट से कुछ पुराने स्वैच्छिक सुरक्षा वादों को भी हटा दिया था। एक भारी वित्त पोषित (फरवरी 2025 में 3.5 बिलियन डॉलर जुटाने वाली) और प्रभावशाली एआई लैब के रूप में, एंथ्रोपिक एआई क्षमताओं को बढ़ावा देने के लिए प्रतिबद्ध प्रतीत होता है, जबकि सार्वजनिक रूप से सुरक्षा संबंधी निहितार्थों पर विचार-विमर्श कर रहा है।

    स्रोत: विनबज़र / डिग्पू न्यूज़टेक्स

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Telegram Copy Link
    Previous Articleहाउस कमेटी की रिपोर्ट में डीपसीक एआई को राष्ट्रीय सुरक्षा के लिए ख़तरा बताया गया है, और एनवीडिया चिप के इस्तेमाल की जांच की गई है
    Next Article ‘एनोला होम्स 3’ में वॉटसन और मोरियार्टी के साथ थ्रीक्वेल का निर्माण शुरू
    © 2026 ThemeSphere. Designed by ThemeSphere.
    • Home
    • About
    • Team
    • World
    • Buy now!

    Type above and press Enter to search. Press Esc to cancel.