ओपनएआई ने फ्लेक्स प्रोसेसिंग शुरू की है, जो एक विशिष्ट एपीआई सेवा स्तर है और इसका उद्देश्य उन डेवलपर्स के लिए है जो कंपनी के o3 और o4-मिनी रीजनिंग मॉडल का उपयोग करने के अधिक किफायती तरीके खोज रहे हैं। आधिकारिक तौर पर 17 अप्रैल, 2025 को घोषित और वर्तमान में बीटा में उपलब्ध, यह विकल्प मानक एपीआई दरों की तुलना में प्रति-टोकन लागत को काफी कम करता है, जिससे उन्नत एआई कुछ अनुप्रयोगों के लिए संभावित रूप से अधिक सुलभ हो जाता है, हालाँकि इसके प्रदर्शन में कुछ कमियाँ भी हैं।
यह नया स्तर विशेष रूप से उन कार्यों को लक्षित करता है जहाँ तत्काल परिणाम प्राथमिक चिंता का विषय नहीं होते हैं। फ्लेक्स प्रोसेसिंग दस्तावेज़ “मॉडल मूल्यांकन, डेटा संवर्धन और अतुल्यकालिक कार्यभार” जैसे उपयोग के मामलों को आदर्श विकल्प के रूप में इंगित करता है। इसे निम्न-प्राथमिकता वाले या गैर-उत्पादन कार्यों के लिए एक समाधान के रूप में प्रस्तुत किया गया है जहाँ लागत बचत गति की आवश्यकता से अधिक होती है।
फ्लेक्स बनाम मानक मूल्य निर्धारण की तुलना
फ्लेक्स प्रोसेसिंग इन मॉडलों के साथ प्रोग्रामेटिक रूप से इंटरैक्ट करने की लागत को लगभग आधा कर देता है। o3 मॉडल के लिए, Flex का उपयोग करने वाले डेवलपर्स को प्रति मिलियन इनपुट टोकन $5 और प्रति मिलियन आउटपुट टोकन $20 का भुगतान करना होगा, जो क्रमशः $10 और $40 की मानक दरों से काफी कम है।
o4-मिनी मॉडल में भी इसी तरह 50% की कमी देखी गई है, जिसकी कीमत Flex के तहत प्रति मिलियन इनपुट टोकन $0.55 और प्रति मिलियन आउटपुट टोकन $2.20 है, जबकि सामान्यतः यह $1.10 और $4.40 है। यह मूल्य निर्धारण संरचना Flex को OpenAI के बैच API के लिए पहले से स्थापित दरों के अनुरूप बनाती है, जिससे गैर-वास्तविक-समय प्रसंस्करण कार्यों के लिए एक अनुमानित लागत संरचना मिलती है।
प्रदर्शन ट्रेड-ऑफ़ को समझना
इस महत्वपूर्ण लागत बचत के लिए डेवलपर्स को कुछ सीमाएँ स्वीकार करनी होंगी। Flex प्रसंस्करण एक निम्न-प्राथमिकता वाली कंप्यूट कतार पर संचालित होता है, जिसका अर्थ है कि API प्रतिक्रियाओं में मानक स्तर के माध्यम से किए गए अनुरोधों की तुलना में स्वाभाविक रूप से अधिक समय लगेगा।
इसके अलावा, OpenAI स्पष्ट रूप से “कभी-कभार संसाधन अनुपलब्धता” की चेतावनी देता है। यदि Flex अनुरोध आने पर सिस्टम में पर्याप्त क्षमता नहीं होती है, तो यह 429 HTTP त्रुटि कोड लौटाएगा। महत्वपूर्ण बात यह है कि OpenAI ने पुष्टि की है कि इस विशिष्ट त्रुटि के साथ विफल होने वाले अनुरोधों के लिए डेवलपर्स से शुल्क नहीं लिया जाएगा।
इन स्थितियों से निपटने के लिए, OpenAI डेवलपर्स को उचित त्रुटि प्रबंधन लागू करने का सुझाव देता है। देरी को सहन करने वाले अनुप्रयोगों के लिए, एक विराम के बाद अनुरोध को पुनः प्रयास करना – संभवतः घातीय बैकऑफ़ तर्क का उपयोग करके – अनुशंसित है। यदि समय पर पूरा करना आवश्यक है, तो मानक API स्तर पर वापस जाना एक विकल्प है।
डेवलपर्स को अपने अनुप्रयोग तर्क में धीमी प्रतिक्रिया समय का भी अनुमान लगाना होगा; OpenAI के आधिकारिक SDK में डिफ़ॉल्ट 10-मिनट का टाइमआउट अपर्याप्त हो सकता है, और कंपनी Flex अनुरोधों के लिए इस टाइमआउट को बढ़ाकर संभवतः 15 मिनट करने का सुझाव देती है। इस सेवा को सक्रिय करने के लिए, डेवलपर्स को अपने API कॉल में `service_tier=”flex”` पैरामीटर निर्दिष्ट करना होगा।
संदर्भ: o3/o4-mini मॉडल और बाज़ार की गतिशीलता
यह नया मूल्य निर्धारण स्तर विशेष रूप से उन मॉडलों पर लागू होता है जिन्हें OpenAI ने कुछ दिन पहले, 16 अप्रैल, 2025 को लॉन्च किया था। o3 और o4-mini मॉडल स्वयं क्षमता में एक विकास का प्रतिनिधित्व करते हैं, जिसे उन्नत तर्क के साथ पेश किया गया है और जिसे OpenAI ने “प्रारंभिक एजेंटिक व्यवहार” कहा है।
इसका अर्थ है कि ग्राहकों के लिए इंटरैक्टिव ChatGPT परिवेश में, ये मॉडल “अब उपयोगकर्ता के संकेत के बिना, स्वतंत्र रूप से यह तय कर सकते हैं कि कौन से टूल का उपयोग कब करना है,” वेब ब्राउज़िंग या कोड निष्पादन जैसी क्षमताओं का स्वायत्त रूप से चयन कर सकते हैं। फ्लेक्स प्रोसेसिंग, डेवलपर्स को API के माध्यम से इन मॉडलों की शक्ति का उपयोग करने का एक अलग, अधिक किफायती तरीका प्रदान करता है, जो उन बैकएंड कार्यों के लिए उपयुक्त है जहाँ लागत एक प्राथमिक चालक है।
मॉडल रिलीज़ और इस नए मूल्य निर्धारण स्तर का त्वरित क्रम ऐसे प्रतिस्पर्धी माहौल में आया है जहाँ अत्याधुनिक AI मॉडल का उपयोग करने की लागत एक प्रमुख विचारणीय बिंदु है, और Google जैसे प्रतिद्वंद्वी Gemini 2.5 Flash जैसे कुशल मॉडल को बढ़ावा दे रहे हैं।
फ्लेक्स, OpenAI का एक कदम प्रतीत होता है ताकि डेवलपर्स को लागत बनाम प्रदर्शन पर अधिक सूक्ष्म नियंत्रण प्रदान किया जा सके। यह लॉन्च OpenAI के अन्य हालिया डेवलपर-केंद्रित रिलीज़ के बाद आया है, जैसे कि ओपन-सोर्स Codex CLI टूल, जो o3 और o4-mini मॉडल का भी लाभ उठा सकता है।
API एक्सेस आवश्यकताएँ
API के माध्यम से इन नए मॉडलों तक प्रोग्रामेटिक पहुँच डेवलपर उपयोग स्तरों के आधार पर कुछ शर्तों के अधीन है। हालाँकि o4-mini व्यापक रूप से कई स्तरों (1-5) में उपलब्ध है, अधिक शक्तिशाली o3 मॉडल के लिए आमतौर पर डेवलपर्स को अधिक खर्च वाले स्तरों (4 या 5) में होना आवश्यक है।
हालाँकि, OpenAI निचले स्तरों (1-3) के उपयोगकर्ताओं को o3 तक API पहुँच प्रदान करता है, जिसमें तर्क सारांश और स्ट्रीमिंग समर्थन जैसी संबंधित क्षमताएँ शामिल हैं। यह OpenAI की ज़िम्मेदार प्लेटफ़ॉर्म उपयोग सुनिश्चित करने के उद्देश्य से घोषित नीतियों के अनुरूप है।
स्रोत: Winbuzzer / Digpu NewsTex