ডেভেলপার `codingmoh` Open Codex CLI চালু করেছে, যা একটি কমান্ড-লাইন ইন্টারফেস যা OpenAI-এর অফিসিয়াল কোডেক্স CLI-এর জন্য সম্পূর্ণরূপে স্থানীয় বিকল্প হিসেবে তৈরি করা হয়েছে। এই নতুন টুলটি টার্মিনালে সরাসরি AI-চালিত কোডিং সহায়তা সক্ষম করে, বিশেষভাবে ছোট, স্থানীয়ভাবে সম্পাদিত বৃহৎ ভাষা মডেল (LLM) এর সাথে কার্যকর ব্যবহারের জন্য তৈরি করা হয়েছে।
OpenAI-এর টুল সম্প্রসারণে ডেভেলপারদের চ্যালেঞ্জ থেকে এই প্রকল্পটি উদ্ভূত হয়েছিল; `codingmoh` অফিসিয়াল কোডবেস বর্ণনা করে বলেছে, “তাদের কোডে বেশ কিছু লিকি অ্যাবস্ট্রাকশন রয়েছে, যার ফলে মূল আচরণ পরিষ্কারভাবে ওভাররাইড করা কঠিন হয়ে পড়ে। এর কিছুক্ষণ পরেই, OpenAI ব্রেকিং পরিবর্তনগুলি চালু করে। উপরে আমার কাস্টমাইজেশন বজায় রাখা ক্রমশ কঠিন হয়ে পড়ে।” এই অভিজ্ঞতার ফলে Python-এ একটি গ্রাউন্ড-আপ পুনর্লিখন ঘটে।
স্থানীয় সম্পাদন এবং ছোট মডেলের উপর ফোকাস
ওপেন কোডেক্স CLI স্থানীয় মডেল অপারেশনকে অগ্রাধিকার দিয়ে নিজেকে আলাদা করে, একটি বহিরাগত, API-সম্মত ইনফারেন্স সার্ভারের প্রয়োজন ছাড়াই কাজ করার লক্ষ্যে। লেখকের মতে, এর মূল নকশা নীতিগুলি হল: “বিশেষভাবে _locally_ চালানোর জন্য টুলটি লিখুন, কোনও ইনফারেন্স API সার্ভারের প্রয়োজন নেই। – সরাসরি মডেল ব্যবহার করুন (বর্তমানে llama-cpp-python এর মাধ্যমে phi-4-mini এর জন্য)। – সেরা পারফরম্যান্স পেতে _per model_ প্রম্পট এবং এক্সিকিউশন লজিক অপ্টিমাইজ করুন।”
এটি বর্তমানে মাইক্রোসফটের Phi-4-mini মডেলকে সমর্থন করে, বিশেষ করে lmstudio-community/Phi-4-mini-instruct-GGUF GGUF সংস্করণের মাধ্যমে – বিভিন্ন হার্ডওয়্যারে দক্ষতার সাথে LLM চালানোর জন্য তৈরি একটি ফর্ম্যাট।
এই পদ্ধতিটি বেছে নেওয়া হয়েছিল কারণ ছোট মডেলগুলিকে প্রায়শই তাদের বৃহত্তর প্রতিরূপের তুলনায় ভিন্ন হ্যান্ডলিং প্রয়োজন হয়। “ছোট ওপেন-সোর্স মডেলের জন্য প্রম্পটিং প্যাটার্ন (যেমন phi-4-mini) প্রায়শই খুব আলাদা হতে হয় – তারা সাধারণীকরণও করে না,” `codingmoh` উল্লেখ করেছেন। সরাসরি স্থানীয় মিথস্ক্রিয়ার উপর মনোযোগ কেন্দ্রীভূত করে, ওপেন কোডেক্স সিএলআই বিস্তৃত, ক্লাউড-ভিত্তিক এপিআই-এর জন্য ডিজাইন করা ইন্টারফেসের মাধ্যমে স্থানীয় মডেলগুলি চালানোর সময় কখনও কখনও যে সামঞ্জস্যপূর্ণ সমস্যাগুলির মুখোমুখি হয় তা এড়িয়ে যাওয়ার চেষ্টা করে।
বর্তমানে, টুলটি “একক-শট” মোডে কাজ করে: ব্যবহারকারীরা প্রাকৃতিক ভাষার নির্দেশাবলী ইনপুট করে (যেমন, `open-codex “all folders list”`), একটি প্রস্তাবিত শেল কমান্ড গ্রহণ করে এবং তারপর কার্যকরকরণ অনুমোদন, কমান্ড অনুলিপি, অথবা বাতিল করতে হবে কিনা তা বেছে নেয়।
ইনস্টলেশন, কমিউনিটি ইন্টারঅ্যাকশন, এবং মার্কেট প্লেসমেন্ট
ওপেন কোডেক্স সিএলআই একাধিক চ্যানেলের মাধ্যমে ইনস্টল করা যেতে পারে। ম্যাকওএস ব্যবহারকারীরা হোমব্রু (`brew tap codingmoh/open-codex; brew install open-codex`) ব্যবহার করতে পারেন, যখন `pipx install open-codex` একটি ক্রস-প্ল্যাটফর্ম বিকল্প প্রদান করে। ডেভেলপাররা GitHub থেকে MIT-লাইসেন্সপ্রাপ্ত সংগ্রহস্থল ক্লোন করতে পারেন এবং প্রকল্প ডিরেক্টরির মধ্যে `pip install.` এর মাধ্যমে স্থানীয়ভাবে ইনস্টল করতে পারেন।
কমিউনিটি আলোচনায় OpenAI-এর অফিসিয়াল টুলের সাথে তুলনা করা হয়েছে, যা Open Codex CLI আবির্ভূত হওয়ার সময় মাল্টি-প্রোভাইডার সাপোর্ট পেয়েছিল। ভবিষ্যতের মডেল সাপোর্টের জন্য পরামর্শগুলির মধ্যে ছিল Qwen 2.5 (যা ডেভেলপার পরবর্তীতে যোগ করতে চান), DeepSeek Coder v2, এবং GLM 4 সিরিজ।
কিছু প্রাথমিক ব্যবহারকারী ডিফল্ট Phi-4-mini ছাড়া অন্য মডেল ব্যবহার করার সময় কনফিগারেশন চ্যালেঞ্জের কথা জানিয়েছেন, বিশেষ করে Ollama-এর মাধ্যমে। প্রেক্ষাপটে, OpenAI আংশিকভাবে $1 মিলিয়ন অনুদান তহবিলের মতো উদ্যোগের মাধ্যমে নিজস্ব ইকোসিস্টেম প্রচার করে যা তাদের অফিসিয়াল টুল ব্যবহার করে প্রকল্পগুলির জন্য API ক্রেডিট প্রদান করে।
Open Codex CLI-এর জন্য পরিকল্পিত বর্ধন
ডেভেলপার Open Codex CLI উন্নত করার জন্য একটি স্পষ্ট পথের রূপরেখা দিয়েছেন। ভবিষ্যতের আপডেটগুলির লক্ষ্য একটি ইন্টারেক্টিভ, প্রেক্ষাপট-সচেতন চ্যাট মোড প্রবর্তন করা, সম্ভবত একটি টার্মিনাল ব্যবহারকারী ইন্টারফেস (TUI) সমন্বিত।
ফাংশন-কলিং সাপোর্ট, হুইস্পার ব্যবহার করে ভয়েস ইনপুট ক্ষমতা, আনডু বৈশিষ্ট্য সহ কমান্ড ইতিহাস এবং একটি প্লাগইন সিস্টেমও কল্পনা করা রোডম্যাপের অংশ। এই স্বাধীন প্রকল্পটি একটি ব্যস্ত বাজারে প্রবেশ করছে যেখানে GitHub Copilot এবং Google এর AI কোডিং প্ল্যাটফর্মের মতো সরঞ্জামগুলি ক্রমবর্ধমানভাবে স্বায়ত্তশাসিত বৈশিষ্ট্যগুলিকে অন্তর্ভুক্ত করছে। তবে, Open Codex CLI একটি টার্মিনাল পরিবেশের মধ্যে ব্যবহারকারী নিয়ন্ত্রণ, স্থানীয় প্রক্রিয়াকরণ এবং ছোট, ওপেন-সোর্স মডেলগুলির জন্য অপ্টিমাইজেশনের উপর জোর দিয়ে তার স্থান তৈরি করে।
সূত্র: Winbuzzer / Digpu NewsTex