এমনকি মেটা প্ল্যাটফর্মগুলিও এআই প্রতিযোগিতার বিস্ময়কর খরচ থেকে মুক্ত নয়। দ্য ইনফরমেশনের প্রতিবেদনে আলোচনার বিষয়ে ব্রিফ করা চার ব্যক্তির মতে, কোম্পানিটি গত বছরের কিছু অংশ মাইক্রোসফ্ট, অ্যামাজন এবং অন্যান্য প্রতিযোগীদের কাছে গিয়ে তাদের প্রধান লামা বৃহৎ ভাষা মডেলগুলিকে প্রশিক্ষণ দেওয়ার জন্য আর্থিক সাহায্য চেয়েছিল।
“লামা কনসোর্টিয়াম” নামে পরিচিত এই প্রস্তাবগুলি মেটার মধ্যে তার কৃত্রিম বুদ্ধিমত্তা উন্নয়নের জন্য প্রয়োজনীয় ক্রমবর্ধমান সম্পদ সম্পর্কে উদ্বেগের কারণে পরিচালিত হয়েছিল, দুই ব্যক্তি বলেছেন। মিষ্টি হিসাবে, মেটা স্পষ্টতই লামার ভবিষ্যতের বৈশিষ্ট্য উন্নয়নে সম্ভাব্য আর্থিক সমর্থকদের মতামত দেওয়ার বিষয়ে আলোচনা করেছিল।
সূত্রগুলি থেকে জানা যাচ্ছে যে মেটার প্রস্তাবের প্রাথমিক প্রতিক্রিয়া হালকা ছিল এবং কোনও আনুষ্ঠানিক তহবিল চুক্তি হয়েছে কিনা তা অনিশ্চিত। তবুও, এই প্রচেষ্টাটি শীর্ষস্থানীয় এআই সিস্টেম তৈরিতে জড়িত তীব্র আর্থিক বোঝা প্রকাশ করে, এমনকি মেটার গভীর পকেটযুক্ত সংস্থাগুলির উপরও চাপ সৃষ্টি করে এবং জেনারেটিভ এআই-তে উচ্চ অংশীদারিত্বের ইঙ্গিত দেয়।
লামা ৪ – মেটার সর্বশেষ মডেল
তহবিল অংশীদারদের জন্য মেটার অনুসন্ধান তার সাম্প্রতিক লামা ৪ ঘোষণাকে একটি নতুন আলোকে উপস্থাপন করে। এই রিলিজে লামা ৪ স্কাউট (১০৯ বি মোট প্যারামিটার, ১৭ বি সক্রিয়) চালু করা হয়েছে যার লক্ষ্য একক-জিপিইউ ব্যবহার করা, যার মধ্যে একটি ব্যতিক্রমীভাবে বড় ১০ মিলিয়ন টোকেন প্রসঙ্গ উইন্ডো রয়েছে – যা একসাথে প্রায় ৭.৫ মিলিয়ন শব্দ প্রক্রিয়াকরণ করতে সক্ষম।
এটি আরও বৃহত্তর কাজের চাপের জন্য অনেক বৃহত্তর লামা ৪ ম্যাভেরিক (৪০০ বি মোট প্যারামিটার, ১৭ বি সক্রিয়, ১২৮ বিশেষজ্ঞ) উন্মোচন করেছে। উভয়ই একটি মিক্সচার-অফ-এক্সপার্টস (MoE) আর্কিটেকচার ব্যবহার করে, বিশেষায়িত সাব-নেটওয়ার্ক (‘বিশেষজ্ঞ’) ব্যবহার করে এমন একটি কৌশল যেখানে প্রতি টাস্কে শুধুমাত্র প্রয়োজনীয়গুলি সক্রিয় করা হয়, ঘন মডেলের তুলনায় অপারেশনের সময় আরও দক্ষতা অর্জনের লক্ষ্যে যেখানে সমস্ত প্যারামিটার সর্বদা ব্যবহৃত হয়।
এগুলিও নেটিভ মাল্টিমোডালিটি দিয়ে তৈরি করা হয়েছিল, প্রি-ট্রেনিং পর্যায়ের প্রাথমিক ফিউশন ব্যবহার করে টেক্সট এবং ছবি একসাথে পরিচালনা করা হত, পরে ছবির ক্ষমতা যোগ করার পরিবর্তে।
এগুলোর ভিত্তি হল এখনও অপ্রকাশিত লামা 4 বেহেমথ, একটি 2-ট্রিলিয়ন প্যারামিটার মডেল যা অভ্যন্তরীণভাবে পাতন (ছোট মডেল শেখানোর) জন্য ব্যবহৃত হয়, যার জন্য 32,000 GPU পর্যন্ত প্রশিক্ষণের প্রয়োজন ছিল। FP8 নির্ভুলতার মতো মেটা কৌশল – একটি কম-নির্ভুলতা সংখ্যা বিন্যাস যা গণনার গতি বাড়ায় – এবং দীর্ঘ ক্রমগুলি কার্যকরভাবে পরিচালনা করার জন্য ইন্টারলিভড রোটারি পজিশনাল এম্বেডিং (iRoPE) এর মতো অভিনব স্থাপত্য উপাদানগুলি ব্যবহার করা হয়েছিল।
এই স্কেল এবং জটিলতার মডেলগুলি তৈরি, প্রশিক্ষণ এবং পরিশোধন – MoE, মাল্টিমোডালিটি, উন্নত পজিশনাল এনকোডিং এবং প্রতিযোগিতামূলক মানদণ্ড অর্জন – একীভূত করার জন্য সহজাতভাবে প্রচুর গণনা শক্তি এবং প্রকৌশল প্রচেষ্টার প্রয়োজন হয়, যা সরাসরি ভাগ করা বিনিয়োগের সম্ভাব্য প্রয়োজনীয়তা ব্যাখ্যা করে। যদিও MoE সম্ভাব্য অনুমান দক্ষতা প্রদান করে, অগ্রিম প্রশিক্ষণ খরচ একটি গুরুত্বপূর্ণ ফ্যাক্টর হিসাবে রয়ে গেছে।
উন্নয়ন বাধা এবং ডেটা প্রশ্ন
রক্ষিত গণনার বাইরে, নির্দিষ্ট আউটপুট এবং সুরক্ষার জন্য লামা 4 টিউন করার জন্য মেটা নিবেদিত সম্পদ। কোম্পানিটি প্রকাশ্যে জানিয়েছে যে তার লক্ষ্য ছিল এলএলএম-এ অনুভূত রাজনৈতিক পক্ষপাত মোকাবেলা করা, উল্লেখ করে, “এটা সুপরিচিত যে সমস্ত শীর্ষস্থানীয় এলএলএম-এর পক্ষপাতের সমস্যা ছিল – বিশেষ করে বিতর্কিত রাজনৈতিক এবং সামাজিক বিষয়গুলির ক্ষেত্রে তারা ঐতিহাসিকভাবে বাম দিকে ঝুঁকেছে… এটি ইন্টারনেটে উপলব্ধ প্রশিক্ষণ ডেটার ধরণের কারণে।”
মেটা দাবি করেছে যে অভ্যন্তরীণ পরীক্ষাগুলি লামা গার্ড এবং GOAT রেড-টিমিং সিস্টেমের মতো সুরক্ষা সরঞ্জামগুলি মোতায়েন করার পাশাপাশি সংবেদনশীল বিষয়গুলিতে প্রত্যাখ্যানের হার এবং আদর্শিক বৈষম্য হ্রাস পেয়েছে – দুর্বলতাগুলি খুঁজে বের করার জন্য প্রতিকূল পরীক্ষার একটি পদ্ধতি। এই সূক্ষ্ম-টিউনিং এবং সুরক্ষা স্তরগুলি আরও উন্নয়ন ওভারহেড যোগ করে।
মেটার আর্থিক ক্যালকুলাসে সম্ভাব্যভাবে যুক্ত হচ্ছে এর প্রশিক্ষণ ডেটা সম্পর্কে অবিরাম আইনি প্রশ্ন, যা উন্নয়ন চ্যালেঞ্জ এবং ব্যয়ের আরেকটি দিককে প্রতিনিধিত্ব করে। কৌতুকাভিনেতা সারা সিলভারম্যানের বিরুদ্ধে মামলাসহ সক্রিয় মামলায় অভিযোগ করা হয়েছে যে কোম্পানিটি লিবজেনের মতো লাইব্রেরি থেকে বিটটরেন্ট ফাইল-শেয়ারিংয়ের মাধ্যমে পাইরেটেড বইয়ের বিশাল ডেটাসেটের উপর লামা মডেলদের প্রশিক্ষণ দিয়েছে। আদালতের নথিতে অভ্যন্তরীণ আশঙ্কা প্রকাশ করা হয়েছে, একজন প্রকৌশলীকে উদ্ধৃত করে বলা হয়েছে, “[মেটা-মালিকানাধীন] কর্পোরেট ল্যাপটপ থেকে টরেন্টিং করা ঠিক মনে হয় না।”
২০২৫ সালের মার্চের শেষের দিকে অভিযোগ উঠেছিল যে মেটা এই ডেটার প্রায় ৩০% পুনরায় আপলোড করেছে, যা সম্ভাব্যভাবে ‘ন্যায্য ব্যবহার’ যুক্তিকে দুর্বল করে এবং সম্ভাব্য আইনি দায়বদ্ধতা বা বিকল্প, লাইসেন্সপ্রাপ্ত ডেটা সোর্সিংয়ের ভবিষ্যতের খরচ বাড়িয়ে তোলে। এই ধরনের বিতর্ক সামগ্রিক এআই উন্নয়ন ব্যয়ের একটি উল্লেখযোগ্য, যদি কম দৃশ্যমান হয়, তবে চালক হতে পারে।
প্রতিযোগিতামূলক ক্ষেত্রে কৌশলগত নাটক
মেটার তহবিল প্রচার লামাকে তার কার্যক্রমের কেন্দ্রবিন্দুতে রাখার স্পষ্ট কৌশলের সাথে সামঞ্জস্যপূর্ণ। লঞ্চের পরপরই মডেলগুলিকে হোয়াটসঅ্যাপ, ইনস্টাগ্রাম এবং ফেসবুক জুড়ে মেটা এআই বৈশিষ্ট্যগুলিতে একীভূত করা হয়েছিল। এগুলি ডাউনলোডের জন্য এবং ক্লাউড পার্টনারদের মাধ্যমেও উপলব্ধ করা হয়েছিল – যার মধ্যে রয়েছে Amazon SageMaker JumpStart এবং Microsoft এর Azure AI Foundry এবং Azure Databricks – যদিও উল্লেখযোগ্যভাবে একটি কাস্টম বাণিজ্যিক লাইসেন্সের অধীনে, সাধারণ ওপেন-সোর্স লাইসেন্সের অধীনে নয়। এই নিয়ন্ত্রিত রিলিজ কৌশলটি মেটাকে লামার স্থাপনার সাথে জড়িত রাখে, বাণিজ্যিক স্বার্থের সাথে উন্মুক্ততার ভারসাম্য বজায় রাখে।
মেটার নিজস্ব AI-এর উপর মনোযোগ আরও জোরদার করে, মেটার iOS অ্যাপের মধ্যে অ্যাপলের সিস্টেম-ওয়াইড অ্যাপল ইন্টেলিজেন্স বৈশিষ্ট্যগুলিকে ব্লক করার জন্য রিপোর্ট করা হয়েছিল। এটি আইফোন ব্যবহারকারীদের ফেসবুক বা ইনস্টাগ্রামের মধ্যে অ্যাপলের AI লেখার সরঞ্জাম বা জেনমোজি ব্যবহার করতে বাধা দেয়, পরিবর্তে তাদের মেটার লামা-ভিত্তিক বিকল্পগুলির দিকে ঠেলে দেয়।
এই প্রতিযোগিতামূলক কৌশলটি 2024 সালের মাঝামাঝি সময়ে মেটা এবং অ্যাপলের মধ্যে সম্ভাব্য AI অংশীদারিত্ব সম্পর্কে ব্যর্থ আলোচনা সত্ত্বেও ঘটেছিল, যা গোপনীয়তা সংক্রান্ত মতবিরোধের কারণে শেষ হয়েছিল বলে জানা গেছে। মেটার দৃষ্টিভঙ্গি অ্যাপলের গোপনীয়তা-কেন্দ্রিক, প্রায়শই অন-ডিভাইস মডেল থেকেও আলাদা, যা মেটার লামা ৪-এর রাজনৈতিক প্রবণতা এবং ২০২৫ সালের জানুয়ারী থেকে মার্কিন যুক্তরাষ্ট্রে তৃতীয় পক্ষের ফ্যাক্ট-চেকিং-এর একযোগে বিতর্কিত রোল-ব্যাক সম্পর্কে জনসাধারণের আলোচনার মাধ্যমে স্পষ্ট হয়ে ওঠে।
মেটা ২৯শে এপ্রিল নির্ধারিত তার লামাকন ইভেন্টে আরও বিশদ ভাগ করে নেওয়ার পরিকল্পনা করেছে, যা সম্ভবত বিশাল বেহেমথ মডেল বা আসন্ন লামা ৪-ভি ভিশন মডেল সম্পর্কে আপডেট প্রদান করবে।
সূত্র: উইনবাজার / ডিগপু নিউজটেক্স