Close Menu
Digpu News  Agency Feed
    Facebook X (Twitter) Instagram
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Facebook X (Twitter) Instagram
    Digpu News  Agency Feed
    Subscribe
    Saturday, January 3
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Digpu News  Agency Feed
    Home»Hindi»जेमिनी रिपोर्ट के बाद गूगल के एआई सुरक्षा वादे जांच के दायरे में

    जेमिनी रिपोर्ट के बाद गूगल के एआई सुरक्षा वादे जांच के दायरे में

    DeskBy DeskAugust 12, 2025No Comments4 Mins Read
    Share Facebook Twitter Pinterest Copy Link LinkedIn Tumblr Email VKontakte Telegram
    Share
    Facebook Twitter Pinterest Email Copy Link

    गूगल ने अपने प्रमुख कृत्रिम बुद्धिमत्ता मॉडल, जेमिनी 2.5 प्रो पर एक सुरक्षा दस्तावेज़ साझा किया है। विशेषज्ञों का कहना है कि इसमें प्रमुख जोखिमों की व्याख्या नहीं की गई है।

    कंपनी ने यह तकनीकी दस्तावेज़ गुरुवार को प्रकाशित किया, ग्राहकों के लिए जेमिनी 2.5 प्रो जारी करने के कई हफ़्ते बाद। दस्तावेज़ में उन आंतरिक परीक्षणों का उल्लेख है जो गूगल ने मॉडल पर किए थे, लेकिन इस बारे में बहुत कम तथ्य दिए गए हैं कि सिस्टम ओवरलोड या दुरुपयोग की स्थिति में कैसे काम करता है। दस्तावेज़ की समीक्षा करने वाले शोधकर्ताओं ने टेकक्रंच को बताया कि इन विवरणों की कमी के कारण यह तय करना मुश्किल है कि जेमिनी 2.5 प्रो व्यापक उपयोग के लिए वास्तव में सुरक्षित है या नहीं।

    तकनीकी रिपोर्टें जनता को यह जानने का एक प्रमुख तरीका हैं कि उन्नत एआई सिस्टम क्या कर सकते हैं और क्या नहीं। एक विस्तृत रिपोर्ट अक्सर यह दिखाती है कि कोई मॉडल कहाँ विफल होता है और कहाँ इसका दुरुपयोग हो सकता है। कई एआई शोधकर्ता इन दस्तावेज़ों को कंपनी के सुरक्षा दावों का समर्थन करने के ईमानदार प्रयासों के रूप में देखते हैं।

    Google सुरक्षा रिपोर्टिंग को अलग तरीके से संभालता है।

    Google किसी मॉडल को “प्रायोगिक” टैग से मुक्त करने के बाद ही रिपोर्ट जारी करता है, और कुछ “खतरनाक क्षमता” निष्कर्षों को एक अलग ऑडिट में स्थानांतरित कर देता है जिसे तुरंत प्रकाशित नहीं किया जाता। परिणामस्वरूप, सार्वजनिक दस्तावेज़ में Google द्वारा परीक्षण किए गए सभी खतरों को शामिल नहीं किया जाता है।

    कई विश्लेषकों ने कहा कि नया जेमिनी 2.5 प्रो दस्तावेज़ सीमित प्रकटीकरण का एक स्पष्ट मामला है। उन्होंने यह भी देखा कि रिपोर्ट में Google के फ्रंटियर सेफ्टी फ्रेमवर्क, या FSF, का कभी उल्लेख नहीं किया गया है, एक नीति जिसे कंपनी ने पिछले साल भविष्य की AI शक्तियों की पहचान करने के लिए घोषित किया था जो “गंभीर नुकसान” पहुँचा सकती हैं।

    इंस्टीट्यूट फॉर AI पॉलिसी एंड स्ट्रैटेजी के सह-संस्थापक पीटर वाइल्डफोर्ड ने कहा, “यह रिपोर्ट बहुत ही कम जानकारी वाली है, इसमें बहुत कम जानकारी है, और मॉडल के सार्वजनिक होने के हफ्तों बाद आई है।” “यह पुष्टि करना असंभव है कि Google अपने वादों को पूरा कर रहा है या नहीं, और इसलिए इसके मॉडलों की सुरक्षा का आकलन करना असंभव है।”

    सिक्योर एआई प्रोजेक्ट के सह-संस्थापक थॉमस वुडसाइड ने कहा कि उन्हें खुशी है कि कोई भी पेपर प्रकाशित हुआ, फिर भी उन्हें गूगल की लगातार फॉलो-अप जारी करने की योजना पर संदेह है। उन्होंने बताया कि कंपनी ने आखिरी बार जून 2024 में खतरनाक-क्षमता परीक्षणों के परिणाम साझा किए थे, और उस पेपर में उसी वर्ष फरवरी में घोषित एक मॉडल शामिल था।

    विश्वास तब और कम हो गया जब पर्यवेक्षकों ने जेमिनी 2.5 फ्लैश के लिए कोई सुरक्षा पेपर नहीं देखा, जो कि गूगल द्वारा पिछले सप्ताह प्रदर्शित किया गया एक पतला और तेज़ मॉडल था। कंपनी के एक प्रवक्ता ने कहा कि फ्लैश पेपर “जल्द ही आ रहा है।”

    वुडसाइड ने कहा, “मुझे उम्मीद है कि यह अधिक लगातार अपडेट देने की शुरुआत का एक सच्चा वादा है।” “उन अपडेट में उन मॉडलों के परिणाम शामिल होने चाहिए जो अभी तक जनता तक नहीं पहुँचे हैं, क्योंकि वे मॉडल भी गंभीर जोखिम पैदा कर सकते हैं।”

    गूगल अब पारदर्शिता के मामले में पीछे है

    मेटा का अपने नए लामा 4 मॉडलों के लिए सुरक्षा नोट केवल कुछ पृष्ठों का है, जबकि ओपनएआई ने अपनी GPT‑4.1 श्रृंखला के लिए कोई रिपोर्ट प्रकाशित नहीं करने का फैसला किया है।

    विवरण की कमी एक तनावपूर्ण समय में सामने आई है। दो साल पहले, Google ने अमेरिकी सरकार से कहा था कि वह अपने दायरे में आने वाले हर “महत्वपूर्ण” AI मॉडल के लिए सुरक्षा दस्तावेज़ प्रकाशित करेगा। कंपनी ने अन्य देशों के अधिकारियों से भी इसी तरह के वादे किए थे, और कहा था कि वह अपने AI उत्पादों के बारे में “सार्वजनिक पारदर्शिता” प्रदान करेगी।

    सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी में AI गवर्नेंस के वरिष्ठ सलाहकार केविन बैंकस्टन ने प्रमुख प्रयोगशालाओं द्वारा जारी किए गए दस्तावेज़ों को सुरक्षा के मामले में “निम्नतम स्तर की दौड़” बताया।

    उन्होंने आगे कहा, “OpenAI जैसी प्रतिद्वंद्वी प्रयोगशालाओं द्वारा रिलीज़ से पहले सुरक्षा-परीक्षण के समय को महीनों से घटाकर कुछ दिनों में करने की रिपोर्टों के साथ, Google के शीर्ष मॉडल के लिए यह अल्प दस्तावेज़ीकरण AI सुरक्षा और पारदर्शिता के मामले में निम्नतम स्तर की दौड़ की एक परेशान करने वाली कहानी कहता है, क्योंकि कंपनियाँ अपने मॉडलों को बाज़ार में लाने की जल्दी में हैं।”

    Google का कहना है कि उसका अधिकांश सुरक्षा कार्य बंद दरवाजों के पीछे होता है। कंपनी का कहना है कि किसी भी सार्वजनिक लॉन्च से पहले प्रत्येक मॉडल का “प्रतिकूल रेड टीमिंग” सहित कड़े परीक्षण किए जाते हैं।

    स्रोत: क्रिप्टोपोलिटन / डिग्पू न्यूज़टेक्स

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Telegram Copy Link
    Previous Articleट्रम्प का कहना है कि चीन ने व्यापार समझौतों के लिए हाथ बढ़ाया है
    Next Article म्युटुम फाइनेंस (MUTM) प्रमुख मेट्रिक्स में एथेरियम (ETH) और सोलाना (SOL) से बेहतर प्रदर्शन कर रहा है
    © 2026 ThemeSphere. Designed by ThemeSphere.
    • Home
    • About
    • Team
    • World
    • Buy now!

    Type above and press Enter to search. Press Esc to cancel.