गूगल ने इस हफ़्ते अपने नवीनतम जेमिनी 2.5 प्रो रीजनिंग मॉडल के लिए प्रारंभिक दस्तावेज़ जारी किए, लेकिन यह कदम मॉडल के व्यापक रूप से उपलब्ध होने के कुछ हफ़्ते बाद आया और इसकी एआई गवर्नेंस विशेषज्ञों ने तीखी आलोचना की है। “मॉडल कार्ड” नामक यह दस्तावेज़ 16 अप्रैल के आसपास ऑनलाइन दिखाई दिया, फिर भी विशेषज्ञों का तर्क है कि इसमें महत्वपूर्ण सुरक्षा विवरणों का अभाव है और यह सुझाव देता है कि गूगल सरकारों और अंतर्राष्ट्रीय निकायों से किए गए पारदर्शिता के वादों को पूरा करने में विफल हो रहा है।
यह विवाद समय-सीमा से उपजा है: जेमिनी 2.5 प्रो का पूर्वावलोकन रोलआउट 25 मार्च को ग्राहकों के लिए शुरू हुआ (विशेष प्रायोगिक संस्करण, gemini-2.5-pro-exp-03-25, गूगल क्लाउड दस्तावेज़ों के अनुसार, 28 मार्च को जारी हुआ) और 29 मार्च से जेमिनी वेब ऐप के माध्यम से सभी मुफ़्त उपयोगकर्ताओं के लिए इसकी पहुँच का विस्तार किया गया।
हालाँकि, सुरक्षा मूल्यांकन और सीमाओं का विवरण देने वाला मॉडल कार्ड इस व्यापक सार्वजनिक पहुँच के शुरू होने के दो हफ़्ते से भी ज़्यादा समय बाद ही सामने आया।
सेंटर फॉर डेमोक्रेसी एंड टेक्नोलॉजी के वरिष्ठ सलाहकार केविन बैंकस्टन ने सोशल प्लेटफ़ॉर्म X पर प्रकाशित छह-पृष्ठों के दस्तावेज़ को “अल्प” दस्तावेज़ बताया और कहा कि यह “कंपनियों द्वारा अपने मॉडलों को बाज़ार में लाने की हड़बड़ी में AI सुरक्षा और पारदर्शिता के मामले में सबसे निचले स्तर पर पहुँची दौड़ की एक परेशान करने वाली कहानी” बताता है।
अनुपलब्ध विवरण और अधूरे वादे
बैंकस्टन द्वारा व्यक्त की गई एक प्रमुख चिंता महत्वपूर्ण सुरक्षा आकलनों के विस्तृत परिणामों का अभाव है, जैसे कि “रेड-टीमिंग” अभ्यास, जिसका उद्देश्य यह पता लगाना है कि क्या AI को जैव-हथियार बनाने के निर्देशों जैसी हानिकारक सामग्री उत्पन्न करने के लिए प्रेरित किया जा सकता है।
उन्होंने सुझाव दिया कि समय और चूक का मतलब यह हो सकता है कि Google ने “अपना सबसे शक्तिशाली मॉडल जारी करने से पहले अपना सुरक्षा परीक्षण पूरा नहीं किया था” और “अभी भी वह परीक्षण पूरा नहीं किया है,” या कंपनी ने व्यापक परिणामों को तब तक रोके रखने की नई नीति अपनाई है जब तक कि मॉडल आम तौर पर उपलब्ध न हो जाए।
पीटर वाइल्डफोर्ड और थॉमस वुडसाइड सहित अन्य विशेषज्ञों ने मॉडल कार्ड में Google के अपने फ्रंटियर सेफ्टी फ्रेमवर्क (FSF) के तहत मूल्यांकन से जुड़े विशिष्ट परिणामों या विस्तृत संदर्भों की कमी पर प्रकाश डाला, जबकि कार्ड में FSF प्रक्रिया के इस्तेमाल का उल्लेख था।
यह दृष्टिकोण Google द्वारा AI सुरक्षा और पारदर्शिता के संबंध में की गई कई सार्वजनिक प्रतिबद्धताओं के साथ असंगत प्रतीत होता है। इनमें जुलाई 2023 में व्हाइट हाउस की बैठक में शक्तिशाली नए मॉडलों के लिए विस्तृत रिपोर्ट प्रकाशित करने, अक्टूबर 2023 में सहमत G7 की AI आचार संहिता का पालन करने और मई 2024 में सियोल AI सुरक्षा शिखर सम्मेलन में किए गए वादे शामिल हैं।
सिक्योर AI प्रोजेक्ट के थॉमस वुडसाइड ने यह भी बताया कि खतरनाक क्षमता परीक्षण पर Google का अंतिम समर्पित प्रकाशन जून 2024 का है, जिससे कंपनी की नियमित अपडेट के प्रति प्रतिबद्धता पर सवाल उठता है। Google ने यह भी पुष्टि नहीं की कि पूर्वावलोकन रिलीज़ से पहले Gemini 2.5 Pro को बाहरी मूल्यांकन के लिए अमेरिका या ब्रिटेन के AI सुरक्षा संस्थानों को प्रस्तुत किया गया था या नहीं।
Google की स्थिति और मॉडल कार्ड की सामग्री
हालांकि पूरी तकनीकी रिपोर्ट अभी लंबित है, जारी किया गया मॉडल कार्ड कुछ जानकारी प्रदान करता है। Google ने अपनी नीति इस प्रकार बताई है: “प्रत्येक मॉडल परिवार के रिलीज़ होने पर एक विस्तृत तकनीकी रिपोर्ट प्रकाशित की जाएगी, और अगली तकनीकी रिपोर्ट 2.5 श्रृंखला के सामान्य रूप से उपलब्ध होने के बाद जारी की जाएगी।”
इसमें आगे कहा गया है कि “खतरनाक क्षमता मूल्यांकन” पर अलग-अलग रिपोर्ट “नियमित रूप से” जारी की जाएँगी। Google ने पहले बताया था कि नवीनतम जेमिनी का “रिलीज़-पूर्व परीक्षण” हुआ था, जिसमें आंतरिक विकास मूल्यांकन और आश्वासन मूल्यांकन शामिल थे जो मॉडल के रिलीज़ होने से पहले किए गए थे।
प्रकाशित कार्ड इस बात की पुष्टि करता है कि जेमिनी 2.5 प्रो, मिक्सचर-ऑफ-एक्सपर्ट्स (MoE) ट्रांसफ़ॉर्मर आर्किटेक्चर पर आधारित है, जो मॉडल के कुछ हिस्सों को चुनिंदा रूप से सक्रिय करके दक्षता प्राप्त करने का लक्ष्य रखता है। यह मॉडल की 1 मिलियन टोकन इनपुट संदर्भ विंडो और 64K टोकन आउटपुट सीमा के साथ-साथ Google के AI सिद्धांतों के अनुरूप सुरक्षा फ़िल्टरिंग के साथ विविध मल्टीमॉडल डेटा पर इसके प्रशिक्षण का विवरण देता है।
कार्ड में प्रदर्शन मानक (`जेमिनी-2.5-प्रो-एक्सपी-03-25` संस्करण पर आधारित) शामिल हैं जो मार्च 2025 तक के प्रतिस्पर्धी परिणाम दर्शाते हैं। यह संभावित “भ्रम” जैसी सीमाओं को स्वीकार करता है और ज्ञान की अंतिम तिथि जनवरी 2025 निर्धारित करता है। आंतरिक समीक्षाओं (आरएससी) और विभिन्न शमन उपायों से जुड़ी सुरक्षा प्रक्रियाओं की रूपरेखा प्रस्तुत करते हुए, और जेमिनी 1.5 की तुलना में कुछ स्वचालित सुरक्षा मीट्रिक सुधारों को दर्शाते हुए, यह पुष्टि करता है कि “अति-अस्वीकृति” एक सीमा के रूप में बनी हुई है।
क्या उद्योग आगे बढ़ रहा है?
यह स्थिति व्यापक तनावों को दर्शाती है। ऑक्सफ़ोर्ड इंटरनेट इंस्टीट्यूट की प्रोफ़ेसर सैंड्रा वाचर ने पहले फ़ॉर्च्यून को बताया था, “अगर यह कार या हवाई जहाज़ होता, तो हम यह नहीं कहते: चलो इसे जल्द से जल्द बाज़ार में लाते हैं और बाद में सुरक्षा पहलुओं पर विचार करेंगे। जबकि जनरेटिव एआई के मामले में, इसे सार्वजनिक करने और बाद में इसकी समस्याओं पर चिंता करने, जाँच करने और उन्हें ठीक करने का रवैया अपनाया जाता है।”
यह तब हुआ जब ओपनएआई ने अपने सुरक्षा ढाँचे में बदलाव किया, जिससे प्रतिस्पर्धियों की गतिविधियों के आधार पर समायोजन की संभावना बनी, और मेटा की लामा 4 रिपोर्ट को भी विवरण की कमी के लिए आलोचना का सामना करना पड़ा। बैंकस्टन ने चेतावनी दी कि अगर कंपनियाँ बुनियादी, स्वैच्छिक सुरक्षा प्रतिबद्धताओं को पूरा नहीं कर पाती हैं, तो “कानून निर्माताओं का यह दायित्व होगा कि वे स्पष्ट पारदर्शिता आवश्यकताएँ विकसित करें और लागू करें जिनसे कंपनियाँ बच न सकें।” गूगल ने 17 अप्रैल को जेमिनी 2.5 फ़्लैश का पूर्वावलोकन लॉन्च करके अपनी रोलआउट गति जारी रखी, और फिर से कहा कि उसका सुरक्षा दस्तावेज़ “जल्द ही आ रहा है।”
स्रोत: विनबज़र / डिग्पू न्यूज़टेक्स