गूगल ने अपने प्रमुख कृत्रिम बुद्धिमत्ता मॉडल, जेमिनी 2.5 प्रो पर एक सुरक्षा दस्तावेज़ साझा किया है। विशेषज्ञों का कहना है कि इसमें प्रमुख जोखिमों की व्याख्या नहीं की गई है।
कंपनी ने यह तकनीकी दस्तावेज़ गुरुवार को प्रकाशित किया, ग्राहकों के लिए जेमिनी 2.5 प्रो जारी करने के कई हफ़्ते बाद। दस्तावेज़ में उन आंतरिक परीक्षणों का उल्लेख है जो गूगल ने मॉडल पर किए थे, लेकिन इस बारे में बहुत कम तथ्य दिए गए हैं कि सिस्टम ओवरलोड या दुरुपयोग की स्थिति में कैसे काम करता है। दस्तावेज़ की समीक्षा करने वाले शोधकर्ताओं ने टेकक्रंच को बताया कि इन विवरणों की कमी के कारण यह तय करना मुश्किल है कि जेमिनी 2.5 प्रो व्यापक उपयोग के लिए वास्तव में सुरक्षित है या नहीं।
तकनीकी रिपोर्टें जनता को यह जानने का एक प्रमुख तरीका हैं कि उन्नत एआई सिस्टम क्या कर सकते हैं और क्या नहीं। एक विस्तृत रिपोर्ट अक्सर यह दिखाती है कि कोई मॉडल कहाँ विफल होता है और कहाँ इसका दुरुपयोग हो सकता है। कई एआई शोधकर्ता इन दस्तावेज़ों को कंपनी के सुरक्षा दावों का समर्थन करने के ईमानदार प्रयासों के रूप में देखते हैं।
Google सुरक्षा रिपोर्टिंग को अलग तरीके से संभालता है।
Google किसी मॉडल को “प्रायोगिक” टैग से मुक्त करने के बाद ही रिपोर्ट जारी करता है, और कुछ “खतरनाक क्षमता” निष्कर्षों को एक अलग ऑडिट में स्थानांतरित कर देता है जिसे तुरंत प्रकाशित नहीं किया जाता। परिणामस्वरूप, सार्वजनिक दस्तावेज़ में Google द्वारा परीक्षण किए गए सभी खतरों को शामिल नहीं किया जाता है।
कई विश्लेषकों ने कहा कि नया जेमिनी 2.5 प्रो दस्तावेज़ सीमित प्रकटीकरण का एक स्पष्ट मामला है। उन्होंने यह भी देखा कि रिपोर्ट में Google के फ्रंटियर सेफ्टी फ्रेमवर्क, या FSF, का कभी उल्लेख नहीं किया गया है, एक नीति जिसे कंपनी ने पिछले साल भविष्य की AI शक्तियों की पहचान करने के लिए घोषित किया था जो “गंभीर नुकसान” पहुँचा सकती हैं।
इंस्टीट्यूट फॉर AI पॉलिसी एंड स्ट्रैटेजी के सह-संस्थापक पीटर वाइल्डफोर्ड ने कहा, “यह रिपोर्ट बहुत ही कम जानकारी वाली है, इसमें बहुत कम जानकारी है, और मॉडल के सार्वजनिक होने के हफ्तों बाद आई है।” “यह पुष्टि करना असंभव है कि Google अपने वादों को पूरा कर रहा है या नहीं, और इसलिए इसके मॉडलों की सुरक्षा का आकलन करना असंभव है।”
सिक्योर एआई प्रोजेक्ट के सह-संस्थापक थॉमस वुडसाइड ने कहा कि उन्हें खुशी है कि कोई भी पेपर प्रकाशित हुआ, फिर भी उन्हें गूगल की लगातार फॉलो-अप जारी करने की योजना पर संदेह है। उन्होंने बताया कि कंपनी ने आखिरी बार जून 2024 में खतरनाक-क्षमता परीक्षणों के परिणाम साझा किए थे, और उस पेपर में उसी वर्ष फरवरी में घोषित एक मॉडल शामिल था।
विश्वास तब और कम हो गया जब पर्यवेक्षकों ने जेमिनी 2.5 फ्लैश के लिए कोई सुरक्षा पेपर नहीं देखा, जो कि गूगल द्वारा पिछले सप्ताह प्रदर्शित किया गया एक पतला और तेज़ मॉडल था। कंपनी के एक प्रवक्ता ने कहा कि फ्लैश पेपर “जल्द ही आ रहा है।”
वुडसाइड ने कहा, “मुझे उम्मीद है कि यह अधिक लगातार अपडेट देने की शुरुआत का एक सच्चा वादा है।” “उन अपडेट में उन मॉडलों के परिणाम शामिल होने चाहिए जो अभी तक जनता तक नहीं पहुँचे हैं, क्योंकि वे मॉडल भी गंभीर जोखिम पैदा कर सकते हैं।”
गूगल अब पारदर्शिता के मामले में पीछे है
मेटा का अपने नए लामा 4 मॉडलों के लिए सुरक्षा नोट केवल कुछ पृष्ठों का है, जबकि ओपनएआई ने अपनी GPT‑4.1 श्रृंखला के लिए कोई रिपोर्ट प्रकाशित नहीं करने का फैसला किया है।
विवरण की कमी एक तनावपूर्ण समय में सामने आई है। दो साल पहले, Google ने अमेरिकी सरकार से कहा था कि वह अपने दायरे में आने वाले हर “महत्वपूर्ण” AI मॉडल के लिए सुरक्षा दस्तावेज़ प्रकाशित करेगा। कंपनी ने अन्य देशों के अधिकारियों से भी इसी तरह के वादे किए थे, और कहा था कि वह अपने AI उत्पादों के बारे में “सार्वजनिक पारदर्शिता” प्रदान करेगी।
सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी में AI गवर्नेंस के वरिष्ठ सलाहकार केविन बैंकस्टन ने प्रमुख प्रयोगशालाओं द्वारा जारी किए गए दस्तावेज़ों को सुरक्षा के मामले में “निम्नतम स्तर की दौड़” बताया।
उन्होंने आगे कहा, “OpenAI जैसी प्रतिद्वंद्वी प्रयोगशालाओं द्वारा रिलीज़ से पहले सुरक्षा-परीक्षण के समय को महीनों से घटाकर कुछ दिनों में करने की रिपोर्टों के साथ, Google के शीर्ष मॉडल के लिए यह अल्प दस्तावेज़ीकरण AI सुरक्षा और पारदर्शिता के मामले में निम्नतम स्तर की दौड़ की एक परेशान करने वाली कहानी कहता है, क्योंकि कंपनियाँ अपने मॉडलों को बाज़ार में लाने की जल्दी में हैं।”
Google का कहना है कि उसका अधिकांश सुरक्षा कार्य बंद दरवाजों के पीछे होता है। कंपनी का कहना है कि किसी भी सार्वजनिक लॉन्च से पहले प्रत्येक मॉडल का “प्रतिकूल रेड टीमिंग” सहित कड़े परीक्षण किए जाते हैं।
स्रोत: क्रिप्टोपोलिटन / डिग्पू न्यूज़टेक्स