কয়েক দিন আগে ল্যাবে LLM ফাইন-টিউনিং চালাতে গিয়ে আবার সেই চেনা বিপদ—হার্ডড্রাইভ ভরে গেছে। চারদিকে শুধু চেকপয়েন্ট ফাইল, ডজন ডজন গিগাবাইট ওজনের মডেল ওয়েট, অথচ রাখার মতো কোনো নির্ভরযোগ্য জায়গা নেই। তখন হঠাৎ করেই মনে হলো, আমরা এতদিন ধরে AI আর Crypto ইন্টিগ্রেশনের কথা বলছি, কিন্তু বাস্তবে এই বিশাল মডেল ফাইলগুলোকে সত্যিকার অর্থে ডিসেন্ট্রালাইজডভাবে রাখার মতো সমাধান কেন এখনো নেই? ঠিক এই প্রশ্নের মাঝখানেই আমার নজরে আসে Walrus।
সত্যি বলতে শুরুতে আমি বেশ সন্দিহান ছিলাম। Mysten Labs-এর স্টোরেজ প্রজেক্ট—এমন অনেক উদাহরণ আছে যেখানে স্টোরেজ লেয়ার শেষ পর্যন্ত মেইন চেইনের ওপর পুরোপুরি নির্ভরশীল “প্যারাসাইট”-এ পরিণত হয়। কিন্তু Walrus-এর হোয়াইটপেপার ভালো করে পড়ার পর আর নিজে হাতে কয়েক লাইন আপলোড স্ক্রিপ্ট লিখে দেখার পর বুঝলাম, এখানে ব্যাপারটা আলাদা। তারা খুব সচেতনভাবেই ডেটা লেয়ার আর কনসেনসাস লেয়ারকে আলাদা করে ফেলেছে। Sui ব্যবহার হচ্ছে কন্ট্রোল প্লেন হিসেবে, আর আসল ভারী ডেটা যাচ্ছে Blob আকারে Walrus নেটওয়ার্কে।
পরীক্ষা হিসেবে আমি একটি 7B প্যারামিটার LLaMA মডেল ভেঙে Walrus টেস্টনেটে আপলোড করার চেষ্টা করি। তুলনা করার জন্য একই সময় Greenfield-ও ব্যবহার করেছি। Greenfield-এর বড় সমস্যা হলো, এটা BNB Chain-এর সাথে খুব বেশি শক্তভাবে বাঁধা। পারমিশন ম্যানেজমেন্ট সূক্ষ্ম হলেও সেটআপ এত জটিল যে ব্যবহার করতেই বিরক্ত লাগে। এর বিপরীতে Walrus ব্যবহার করতে গিয়ে মনে হয়েছে যেন একেবারে একটি ডিসেন্ট্রালাইজড S3। বিশেষ করে “Programmable Storage” কনসেপ্টটা এখানে গেম-চেঞ্জার। Sui-এর স্মার্ট কন্ট্রাক্ট ব্যবহার করে আমি সরাসরি Blob-এর রিড ও রাইট পারমিশন কন্ট্রোল করতে পারছি। এর ফলে AI Agent অটোমেশনের জন্য বিশাল সম্ভাবনা খুলে যায়। ধরুন, একটি কন্ট্রাক্ট লেখা হলো—যতক্ষণ না কোনো Agent নির্দিষ্ট পরিমাণ টোকেন পেমেন্ট করছে বা নির্দিষ্ট রিজনিং টাস্ক শেষ করছে, ততক্ষণ সে মডেল ওয়েট ডাউনলোড করতে পারবে না। Web2 ক্লাউডে এমন অ্যাটমিক অপারেশন করতে গেলে নাকাল হতে হয়, কিন্তু এখানে কয়েক লাইন Move কোডেই কাজ শেষ।
তবে বাস্তব অভিজ্ঞতা পুরোপুরি নিখুঁত নয়। সবচেয়ে বড় সমস্যা হয়েছে সুপার লার্জ ফাইল আপলোড করার সময়। বর্তমান SDK-তে breakpoint resume কার্যত কাজই করে না। 7B মডেল আপলোড করতে গিয়ে তিনবার ব্যর্থ হয়েছি, আর প্রতিবারই শুরু থেকে আবার আপলোড দিতে হয়েছে। এটা সত্যিই বিরক্তিকর, বিশেষ করে যখন মেইননেট প্রায় কাছাকাছি। এত বেসিক একটা ফিচার এই পর্যায়ে না থাকা বড় দুর্বলতা। এর সাথে যোগ হয়েছে নোড সংখ্যা কম থাকার সমস্যা। উত্তর আমেরিকার নোডে রাখা ডেটা টোকিও থেকে টানতে গিয়ে যে লেটেন্সি পেয়েছি, সেটা দেখে ডায়াল-আপ ইন্টারনেটের দিন মনে পড়ে গেছে। 
তবুও এই সীমাবদ্ধতাগুলোই আসলে প্রমাণ করে যে প্রজেক্টটা এখনো আর্লি স্টেজে আছে, এবং এখানেই সুযোগ লুকিয়ে। নেটওয়ার্ক টপোলজি এখনো তুলনামূলকভাবে সরল। ভবিষ্যতে নোড সংখ্যা বাড়লে, Walrus-এর Erasure Coding ভিত্তিক ডিস্ট্রিবিউশন মডেল স্বাভাবিকভাবেই CDN-এর মতো আচরণ করবে। ডেটা ফ্র্যাগমেন্ট আকারে বিভিন্ন জায়গায় ছড়িয়ে থাকায়, কাছাকাছি নোড থেকেই দ্রুত রিকভার করা সম্ভব হবে।
Arweave-এর মতো “একবার পেমেন্ট, আজীবন স্টোরেজ” মডেলের বদলে Walrus স্টোরেজ লাইফসাইকেল ম্যানেজমেন্টে জোর দেয়। AI মডেলের মতো দ্রুত পরিবর্তনশীল ডেটার জন্য এটা অনেক বেশি বাস্তবসম্মত। তিন মাস আগের কোনো পুরোনো মডেল সারাজীবন ধরে রাখার দরকারই বা কার? খরচের দিক থেকেও তুলনা করেছি—টেস্টনেট ডেটা চূড়ান্ত না হলেও আর্কিটেকচার অনুযায়ী Walrus ব্যয়বহুল স্টোরেজ প্রুফ কম্পিউটেশন বাদ দিয়েছে। তাত্ত্বিকভাবে এর খরচ Filecoin-এর তুলনায় অন্তত এক অর্ডার কম হওয়া উচিত। যারা ডিসেন্ট্রালাইজড Hugging Face টাইপ কিছু বানাতে চায়, তাদের জন্য এটা বিশাল প্লাস পয়েন্ট।
পরীক্ষার সময় আমি ইচ্ছা করে কয়েকটা ইনফিনিট লুপ লিখে একই Blob ID বারবার পড়েছি, নেটওয়ার্ক ভেঙে পড়ে কি না দেখার জন্য। রেসপন্স স্লো ছিল, কিন্তু ডেটা কখনোই অদৃশ্য হয়নি। এটা দেখিয়ে দেয় যে Erasure Coding ভিত্তিক রিকভারি মেকানিজম বাস্তবে কাজ করছে, এবং প্রত্যাশার চেয়েও বেশি রেজিলিয়েন্ট।
সব মিলিয়ে বলতে গেলে, Walrus এখনো রাফ। ঠিকঠাক কোনো ভিজ্যুয়াল ব্রাউজার নেই, প্রায় সবকিছুই কমান্ড লাইনে করতে হয়। কিন্তু যারা সত্যিই টেকনোলজি বোঝে, তাদের কাছে এটাই “Alpha-এর স্বাদ”। কারণ এখানে কোনো ফাইনান্সিয়াল পনজি গল্প নেই—আছে একটা বাস্তব সমস্যা: কীভাবে বিশাল ডেটাকে অন-চেইন ইকোসিস্টেমের সাথে যুক্ত করা যায়। আর সেই সমস্যাটাকেই Walrus সরাসরি মোকাবিলা করছে।