जैसे-जैसे कृत्रिम बुद्धिमत्ता उद्यम में अपनी प्रगति जारी रखे हुए है, सुरक्षा चुनौतियों का एक नया दायरा खुल रहा है। एआई एजेंट, विशेष रूप से बड़े भाषा मॉडल द्वारा संचालित, ज्ञात परिचालन विचित्रताओं जैसे मतिभ्रम (गलत जानकारी उत्पन्न करना) और त्वरित इंजेक्शन हमलों के प्रति भेद्यता के साथ आते हैं – एक ऐसी तकनीक जिसमें इनपुट डेटा में छिपे दुर्भावनापूर्ण निर्देश एआई को अनपेक्षित कार्य करने के लिए प्रेरित करते हैं।
ये केवल सैद्धांतिक जोखिम नहीं हैं; ये कॉर्पोरेट प्रणालियों से समझौता करने के संभावित प्रवेश द्वार का प्रतिनिधित्व करते हैं। अब, एंथ्रोपिक के शीर्ष सुरक्षा कार्यकारी इन अमूर्त चिंताओं में एक विशिष्ट समयरेखा जोड़ रहे हैं।
एंथ्रोपिक के मुख्य सूचना सुरक्षा अधिकारी, जेसन क्लिंटन का मानना है कि स्वायत्त “आभासी कर्मचारी” के रूप में कार्य करने में सक्षम एआई प्रणालियाँ अगले बारह महीनों के भीतर कॉर्पोरेट नेटवर्क के भीतर एक वास्तविकता बन जाएँगी। इस सप्ताह एक्सियोस के साथ बात करते हुए, उन्होंने चेतावनी दी कि उद्योग इन उन्नत एआई पहचानों की मांग वाले सुरक्षा सुधार के लिए पूरी तरह से तैयार नहीं है।
ये आभासी कर्मचारी केवल उपकरण नहीं होंगे; क्लिंटन का मानना है कि उनके पास स्थायी “यादें”, विशिष्ट कार्य भूमिकाएँ, और अपने स्वयं के कॉर्पोरेट खाते और पासवर्ड होंगे, जिससे उन्हें आज के एआई एजेंटों की तुलना में कहीं अधिक महत्वपूर्ण परिचालन स्वतंत्रता मिलेगी, जो आमतौर पर विशिष्ट, प्रोग्राम किए गए कार्यों पर ध्यान केंद्रित करते हैं, जैसे कि माइक्रोसॉफ्ट फ़िशिंग अलर्ट का जवाब देने के लिए उनका उपयोग कर रहा है। “उस दुनिया में, सुरक्षा के दृष्टिकोण से ऐसी कई समस्याएं हैं जिनका हमने अभी तक समाधान नहीं किया है, जिन्हें हमें हल करने की आवश्यकता है,” क्लिंटन ने एक्सियोस से कहा।
पहचान संकट: गैर-मानव कार्यबल की सुरक्षा
मुख्य मुद्दा इन एआई पहचानों के प्रबंधन में निहित है। आप किसी एआई के उपयोगकर्ता खाते को जोखिम से कैसे सुरक्षित रखते हैं? एक स्वायत्त एजेंट के लिए कौन सी नेटवर्क अनुमतियाँ उपयुक्त हैं?
और सबसे महत्वपूर्ण बात, जब कोई एआई कर्मचारी अप्रत्याशित या दुर्भावनापूर्ण तरीके से कार्य करता है, तो कौन ज़िम्मेदार होता है? क्लिंटन ने एआई के दुष्ट होने, शायद किसी कंपनी की आंतरिक सॉफ़्टवेयर विकास पाइपलाइन को हैक करने की संभावना की ओर इशारा किया। “पुरानी दुनिया में, यह एक दंडनीय अपराध है,” उन्होंने कहा।
“लेकिन इस नई दुनिया में, उस एजेंट के लिए कौन ज़िम्मेदार है जो कुछ हफ़्ते से काम कर रहा था और उस मुकाम तक पहुँच गया?” यह चुनौती नेटवर्क प्रशासकों के सामने आने वाली मौजूदा कठिनाइयों को और बढ़ा देती है, जिनका सामना उन्हें खातों तक पहुँच की निगरानी और चुराए गए क्रेडेंशियल्स का इस्तेमाल करने वाले हमलावरों से बचाव करने में करना पड़ता है।
समस्या क्षेत्र, जिसे अक्सर गैर-मानव पहचान प्रबंधन (NHIM) कहा जाता है, सेवा खातों, API और स्वचालित उपकरणों तक पहुँच सुनिश्चित करने से जुड़ा है – जिनकी संख्या पहले से ही बहुत बड़ी है; डेलिनिया ने अप्रैल 2025 में अनुमान लगाया था कि कई फर्मों में गैर-मानव नेटवर्क पहचान (जैसे सेवा खाते) पहले से ही मानव पहचानों की तुलना में 46 गुना ज़्यादा हैं। स्वायत्त AI कर्मचारियों को जोड़ने से यह जटिलता नाटकीय रूप से बढ़ जाती है।
एंथ्रोपिक, क्लिंटन ने कहा, इन सुरक्षा प्रश्नों से निपटने को विकास के लिए एक महत्वपूर्ण क्षेत्र मानता है। उन्होंने विशेष रूप से AI कर्मचारी गतिविधियों और सुरक्षा ढाँचों के भीतर इन नए प्रकार के खातों को वर्गीकृत करने के लिए प्रणालियों की दृश्यता प्रदान करने के लिए बेहतर उपकरणों की आवश्यकता का उल्लेख किया।
कंपनी इस क्षेत्र में अपने कर्तव्यों को दोहरे रूप में परिभाषित करती है: पहला, “क्लाउड मॉडल का गहन परीक्षण करना ताकि यह सुनिश्चित हो सके कि वे साइबर हमलों का सामना कर सकें,” और दूसरा, “सुरक्षा संबंधी मुद्दों की निगरानी करना और उन तरीकों को कम करना जिनसे दुर्भावनापूर्ण कर्ता क्लाउड का दुरुपयोग कर सकते हैं।” यह फोकस नया नहीं है; 2024 के अंत में, क्लिंटन ने एआई एजेंटों में विश्वास स्थापित करने के लिए एक प्रमुख विधि के रूप में “गोपनीय कंप्यूटिंग” की वकालत की थी।
गोपनीय कंप्यूटिंग हार्डवेयर-आधारित विश्वसनीय निष्पादन वातावरण का उपयोग करके डेटा की सुरक्षा करती है, भले ही वह मेमोरी में संसाधित हो रहा हो, जिसका उद्देश्य अनधिकृत पहुँच या संशोधन को रोकना है।
एंथ्रोपिक का अपना शोध जोखिमों पर प्रकाश डालता है
एआई लैब का आंतरिक शोध इन चिंताओं के समर्थन में साक्ष्य प्रदान करता है। मार्च में विस्तृत व्याख्यात्मक ढाँचे पर किए गए कार्य ने शोधकर्ताओं को संभावित रूप से हानिकारक नकली क्रियाओं से जुड़ी आंतरिक मॉडल स्थितियों का अवलोकन करने की अनुमति दी, जैसे कि झूठे औचित्य उत्पन्न करना या यहाँ तक कि इसके रचनाकारों को नुकसान पहुँचाने की कल्पना करना।
इसके अलावा, फरवरी 2025 के आँकड़ों पर आधारित, 21 अप्रैल को जारी AI मानों पर एक अध्ययन ने पुष्टि की कि इसके क्लाउड मॉडल का व्यवहार अत्यधिक संदर्भ-निर्भर है, जिससे स्वायत्त क्रियाओं की भविष्यवाणी करने की चुनौती बढ़ जाती है। संबंधित मान डेटासेट सार्वजनिक है।
एंथ्रोपिक की आंतरिक “फ्रंटियर रेड टीम” ने भी मार्च में रिपोर्ट दी थी कि हालाँकि इसके मॉडल बेहतर साइबर सुरक्षा कौशल दिखाते हैं, वे सही उपकरणों और निर्देशों के साथ परिष्कृत साइबर हमलों की नकल कर सकते हैं। यह तब हुआ जब मॉडलों का मूल्यांकन उस समय राष्ट्रीय सुरक्षा के लिए पर्याप्त रूप से बढ़े हुए जोखिम पैदा करने वाले के रूप में नहीं किया गया था।
इससे पहले अक्टूबर 2024 में चिंताएँ तब पैदा हुईं जब क्लाउड को उपयोगकर्ता के कंप्यूटर पर सीधे काम करने की अनुमति देने वाली एक सुविधा ने सुरक्षा विशेषज्ञों को बाहरी फ़ाइलों या वेबसाइटों के माध्यम से त्वरित इंजेक्शन के माध्यम से संभावित हेरफेर के बारे में चेतावनी देने के लिए प्रेरित किया।
नींव रखी जाने के बाद उद्योग में बदलाव
व्यापक तकनीकी उद्योग गैर-मानवीय पहचानों के प्रबंधन से जूझने लगा है। ओक्टा ने फरवरी में एकीकृत निगरानी के उद्देश्य से एक प्लेटफ़ॉर्म लॉन्च किया, और डेलिनिया और एकेलेस जैसी कंपनियाँ विशेष एनएचआईएम टूल्स का विपणन कर रही हैं। लेकिन वर्कफ़्लो में एआई को एकीकृत करने को सांस्कृतिक प्रतिरोध का भी सामना करना पड़ रहा है, जिसका उदाहरण पिछले साल लैटिस द्वारा अपने “एआई-इन-द-ऑर्ग-चार्ट” प्रस्ताव को तुरंत वापस लेना है।
साथ ही, इन एजेंटों के लिए तकनीकी पाइपलाइन स्थापित की जा रही है। नवंबर 2024 में स्थापित एंथ्रोपिक का मॉडल कॉन्टेक्स्ट प्रोटोकॉल (MCP), HTTP या स्थानीय कनेक्शन पर बाहरी डेटा और टूल्स के साथ एआई एजेंटों के इंटरैक्ट करने के तरीके के मानक के रूप में लोकप्रिय हो रहा है। ओपनएआई ने हाल ही में इसे अपनाया है, माइक्रोसॉफ्ट, एडब्ल्यूएस और गूगल के बाद, जो संभावित रूप से भविष्य के वर्चुअल कर्मचारियों के लिए संचार मार्ग प्रदान करता है।
क्लिंटन की चेतावनी एंथ्रोपिक के एआई जोखिमों के प्रबंधन पर लगातार सार्वजनिक रुख से मेल खाती है। कंपनी ने नवंबर 2024 में तत्काल वैश्विक विनियमन की मांग की थी और मार्च 2025 में व्हाइट हाउस से सख्त निगरानी की पैरवी की थी, जबकि साथ ही उसने अपनी वेबसाइट से कुछ पुराने स्वैच्छिक सुरक्षा वादों को भी हटा दिया था। एक भारी वित्त पोषित (फरवरी 2025 में 3.5 बिलियन डॉलर जुटाने वाली) और प्रभावशाली एआई लैब के रूप में, एंथ्रोपिक एआई क्षमताओं को बढ़ावा देने के लिए प्रतिबद्ध प्रतीत होता है, जबकि सार्वजनिक रूप से सुरक्षा संबंधी निहितार्थों पर विचार-विमर्श कर रहा है।
स्रोत: विनबज़र / डिग्पू न्यूज़टेक्स