Close Menu
Digpu News  Agency Feed
    Facebook X (Twitter) Instagram
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Facebook X (Twitter) Instagram
    Digpu News  Agency Feed
    Subscribe
    Friday, January 2
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Digpu News  Agency Feed
    Home»Hindi»चैटजीपीटी उपयोगकर्ता कैश लूप, मेमोरी लॉस, स्थिरता संबंधी समस्याओं की रिपोर्ट करते हैं

    चैटजीपीटी उपयोगकर्ता कैश लूप, मेमोरी लॉस, स्थिरता संबंधी समस्याओं की रिपोर्ट करते हैं

    DeskBy DeskAugust 12, 2025No Comments6 Mins Read
    Share Facebook Twitter Pinterest Copy Link LinkedIn Tumblr Email VKontakte Telegram
    Share
    Facebook Twitter Pinterest Email Copy Link

    ओपनएआई चैटजीपीटी की क्षमताओं को लगातार बेहतर बना रहा है, वहीं उपयोगकर्ता अनुभव सत्र स्थिरता, मेमोरी रिटेंशन और प्रदर्शन से जुड़ी चुनौतियों को उजागर करते हैं, खासकर जटिल, दस्तावेज़-भारी वर्कफ़्लो के दौरान।

    अप्रैल 2025 के मध्य में गिटहब पर उपयोगकर्ता `sks38317` द्वारा प्रकाशित एक विस्तृत केस स्टडी, जिसकी पहचान एक 18 वर्षीय दक्षिण कोरियाई छात्र के रूप में हुई है, इन मुद्दों पर एक विस्तृत जानकारी प्रदान करती है। यह रिपॉजिटरी, जिसे लेखक ने “GPT-4o का उपयोग करते हुए कैश विफलता और मेमोरी वर्कअराउंड केस स्टडी (कोरिया के एक 18 वर्षीय छात्र द्वारा लिखित),” के रूप में वर्णित किया है, उन व्यावहारिक चुनौतियों पर प्रकाश डालती है जिनका समाधान ओपनएआई के आगामी मेमोरी संवर्द्धन का लक्ष्य है।

    उपयोगकर्ता-दस्तावेज विफलताएँ और प्रदर्शन मीट्रिक

    `sks38317` रिपॉजिटरी GPT-4o का उपयोग करते समय देखी गई कई महत्वपूर्ण परिचालन विफलताओं को रेखांकित करती है। उपयोगकर्ता की विस्तृत रिपोर्ट के अनुसार, लगातार पीडीएफ रेंडरिंग विफलताओं को चैटजीपीटी द्वारा सफल संचालन के रूप में गलत समझा गया। इसके परिणामस्वरूप सिस्टम के कैश में दोषपूर्ण प्रतिक्रियाएँ संग्रहीत होने लगीं, जिसके परिणामस्वरूप चैटबॉट द्वारा टूटी हुई कैश प्रविष्टियों का पुन: उपयोग करने का प्रयास करने पर बार-बार, अनुत्पादक लूप शुरू हो गए।

    प्रलेखित अन्य समस्याओं में सत्र के संदर्भ में कई संपादित दस्तावेज़ संस्करणों का अनावश्यक संग्रहण, सामग्री संघर्ष, और ध्यान देने योग्य प्रतिक्रिया विलंब और सत्र धीमा होना शामिल था, जिसका कारण उपयोगकर्ता ने कैश अधिभार को बताया।

    छात्र ने स्वयं-विकसित समाधान का प्रयास करने से पहले प्रभाव का आकलन किया: पीडीएफ लूप प्रति घंटे चार से अधिक बार हुए, जिसके लिए 4-6 बार पुनः प्रयास करने पड़े; अनावश्यक दस्तावेज़ों की संख्या प्रति सत्र औसतन पाँच से छह थी; अनुमानित कैश टोकन लोड बढ़कर 17,000 से 18,500 टोकन के बीच हो गया; और अनावश्यक वाक्यांश इस कैश का लगभग 22% थे।

    इन वर्कफ़्लो व्यवधानों का सामना करते हुए—उपयोगकर्ता ने बताया, “नया सत्र शुरू करने से वार्तालाप इतिहास मिट जाता है, जिससे दस्तावेज़ों पर काम करते समय मेरा वर्कफ़्लो गंभीर रूप से बाधित होता है”—उन्होंने सत्र विश्लेषण और तर्क सर्किटों को शामिल करते हुए एक मैन्युअल समाधान लागू किया ताकि विफल आउटपुट को स्वचालित रूप से हटाया जा सके और अतिरेक को कम किया जा सके।

    इस हस्तक्षेप से कथित तौर पर काफ़ी सुधार हुए: पीडीएफ लूप आवृत्ति आधी (-50%) हो गई, पुनः प्रयास आवृत्ति लगभग 66% (≤2 बार) कम हो गई, अनावश्यक दस्तावेज़ों की संख्या 50-60% (≤3 बार) कम हो गई, कैश टोकन लोड 13.7% (14,200 टोकन से कम) कम हो गया, अनावश्यक वाक्यांश दर 7% से कम हो गई, और प्रतिक्रिया विलंब समाप्त हो गए।

    उपयोगकर्ता ने सुझाव दिया कि OpenAI को “उपयोगकर्ताओं को सभी पुराने संस्करणों को स्वचालित रूप से हटाने के बजाय, पिछले दस्तावेज़ संस्करणों की सीमित संख्या—जैसे 1 या 2—को बनाए रखने की अनुमति देनी चाहिए। आदर्श रूप से, इसे कॉन्फ़िगर करने योग्य बनाया जा सकता है…” रिपॉजिटरी में OpenAI समर्थन की ओर से विस्तृत फ़ीडबैक को स्वीकार करते हुए एक प्रतिक्रिया के रूप में प्रस्तुत एक फ़ाइल भी शामिल है।

    OpenAI का मेमोरी के प्रति स्तरित दृष्टिकोण

    उपयोगकर्ताओं द्वारा बताई गई ये समस्याएँ OpenAI के मेमोरी सुविधाओं के बहु-चरणीय रोलआउट के लिए संदर्भ प्रदान करती हैं, जो स्पष्ट रूप से ऐसी समस्याओं को कम करने के लिए डिज़ाइन की गई हैं। कंपनी ने पहली बार फरवरी 2024 में एक आधार मेमोरी क्षमता का परीक्षण शुरू किया, जिससे उपयोगकर्ता ChatGPT को याद रखने के लिए स्पष्ट रूप से तथ्य प्रदान कर सकते हैं। इस आधार सुविधा को बाद में प्लस ग्राहकों के लिए विस्तारित उपलब्धता मिली।

    10 अप्रैल, 2025 के आसपास एक विशिष्ट, अधिक अंतर्निहित मेमोरी फ़ंक्शन आया, जब OpenAI ने ChatGPT (प्रो सब्सक्राइबर्स के साथ शुरुआत करते हुए) को वैयक्तिकरण के लिए उपयोगकर्ता के संपूर्ण चैट इतिहास को संदर्भित करने में सक्षम बनाया, जिसे CEO सैम ऑल्टमैन ने “आपके जीवन भर आपको जानने वाले AI सिस्टम” की ओर प्रगति के रूप में वर्णित किया।

    इसके तुरंत बाद, कंपनी के रिलीज़ नोट्स में “मेमोरी विद सर्च” फ़ीचर का विवरण दिया गया, जो ChatGPT को Microsoft Bing जैसे भागीदारों के माध्यम से की गई वेब खोज क्वेरीज़ को अनुकूलित करने के लिए संग्रहीत मेमोरी (स्पष्ट तथ्य और चैट इतिहास से अंतर्निहित संदर्भ, मेमोरी FAQ में विस्तृत सेटिंग्स के माध्यम से नियंत्रित) का उपयोग करने की अनुमति देता है।

    यह अपडेट नए o3 और o4-मिनी मॉडल के रिलीज़ के साथ हुआ, जिन्हें बेहतर तर्क के लिए जाना जाता है। इन उपयोगकर्ता-केंद्रित मेमोरी फ़ीचर्स को OpenAI के अलग, सर्वर-साइड प्रॉम्प्ट कैशिंग से अलग करना महत्वपूर्ण है, जिसका उपयोग बार-बार कॉल पर प्रदर्शन अनुकूलन के लिए API के माध्यम से किया जाता है।

    स्थायी डेटा, स्थायी जोखिम?

    उपयोगकर्ता अनुभव को बेहतर बनाने के साथ-साथ, स्थायी मेमोरी क्षमताएँ स्वाभाविक रूप से सुरक्षा संबंधी विचार भी लाती हैं। त्वरित इंजेक्शन, जहाँ उपयोगकर्ता इनपुट या बाहरी डेटा स्रोतों में छिपे दुर्भावनापूर्ण निर्देश LLM व्यवहार में हेरफेर करते हैं, को OWASP जैसे समूहों द्वारा एक शीर्ष AI सुरक्षा जोखिम के रूप में स्थान दिया गया है, जो विश्वसनीय निर्देशों को अविश्वसनीय डेटा से अलग करने में मॉडलों की कठिनाई का लाभ उठाता है।

    यह जोखिम मेमोरी सुविधाओं द्वारा बढ़ाया जा सकता है, जिससे संभावित रूप से दुर्भावनापूर्ण निर्देश या निकाला गया डेटा पूरे सत्रों में बना रह सकता है।

    शोधकर्ताओं ने 2024 में ऐसी कमज़ोरियों का प्रदर्शन किया। जून के एक arXiv पेपर ने पता लगाया कि मेमोरी डेटा एक्सफ़िल्टरेशन हमलों को कैसे सुगम बना सकती है, जबकि एक अन्य रिपोर्ट में दुर्भावनापूर्ण दस्तावेज़ों के माध्यम से ChatGPT macOS ऐप की मेमोरी में स्थायी “स्पाइवेयर” निर्देशों के इंजेक्शन पर प्रकाश डाला गया है, जिससे संभावित रूप से दीर्घकालिक चैट डेटा चोरी संभव हो सकती है।

    हालाँकि OpenAI ने कथित तौर पर उस विशिष्ट macOS भेद्यता का समाधान कर दिया है, फिर भी स्थायी AI मेमोरी को सुरक्षित रखने की मूलभूत चुनौती उद्योग-व्यापी चिंता का विषय बनी हुई है, जिसका असर Google Gemini, Microsoft Copilot और xAI के Grok जैसे प्रतिस्पर्धियों की समान सुविधाओं पर पड़ रहा है।

    OpenAI उपयोगकर्ताओं को मेमोरी सुविधाओं को पूरी तरह से अक्षम करने के लिए नियंत्रण प्रदान करता है। कंपनी का कहना है कि विशिष्ट उपयोगकर्ता खाते का विवरण खोज भागीदारों के साथ साझा नहीं किया जाता है, हालाँकि IP पतों से प्राप्त सामान्यीकृत स्थान डेटा का उपयोग परिणाम प्रासंगिकता में सुधार के लिए किया जा सकता है। मेमोरी विद सर्च का रोलआउट धीरे-धीरे हो रहा है। भुगतान करने वाले ग्राहकों को ध्यान देना चाहिए कि मेमोरी-सहायता प्राप्त खोजों सहित खोज फ़ंक्शन का उपयोग, उनकी GPT-4o संदेश सीमाओं में गिना जाता है। ब्राउज़र एकीकरण को और बेहतर बनाने के लिए, OpenAI एक क्रोम एक्सटेंशन भी प्रदान करता है।

    स्रोत: Winbuzzer / Digpu NewsTex

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Telegram Copy Link
    Previous Articleअध्ययन में पाया गया कि एआई निदान सटीकता गैर-विशेषज्ञ डॉक्टरों के करीब है
    Next Article 4chan ब्रीच ने पुराने सॉफ़्टवेयर के ज़रिए मॉडरेटर के ईमेल और पासवर्ड उजागर किए
    © 2026 ThemeSphere. Designed by ThemeSphere.
    • Home
    • About
    • Team
    • World
    • Buy now!

    Type above and press Enter to search. Press Esc to cancel.