পোস্টটা একটু বড়। আমি চেষ্টা করেছি, মানুষের অ্যাবস্ট্রাক্ট চিন্তা করার ক্ষমতা কেন ইউনিক এবং নন-কমপিউটেবল তা সংক্ষেপে ও সহজবোধ্যভাবে ব্যাখ্যা করার জন্য। এটি করতে গিয়ে প্রথমে ব্যাখ্যা করেছি পরিসংখ্যানে ‘ওয়েইট’ দেয়া মানে কি। তারপর, বলেছি কিভাবে প্রবাবিলিটি হিসেব কষা হয় এবং কিভাবে কোন ইভেন্টের প্রবেবিলিটি বাড়ানো যায়। চেষ্টা করেছি, নিউরাল নেটওয়ার্ক কিভাবে কাজ করে তার সংক্ষিপ্ত ধারণা দিয়ে চ্যাট জিপিটি আসলে কি করে তা আলোচনা করতে। সবশেষে চেষ্টা করেছি মানুষের অ্যবস্ট্রাক্ট চিন্তা করার ক্ষমতা কেন স্বতন্ত্র এবং অগণনযোগ্য বৈশিষ্ট্য, তা ব্যাখ্যা করতে ।
….
আপনি যদি পুরোটা পড়ার আগ্রহ প্রকাশ করে থাকেন আপনাকে অগ্রীম ধন্যবাদ। সবসময় দোয়ায় রাখবেন!
….
ধরুন, আপনার মাথায় প্রশ্ন আসল যে বাংলাদেশের সাধারণ প্রাপ্তবয়স্ক মানুষের গড় ব্লাড প্রেসার কত তা আপনি হিসেব করে দেখতে চান। এক্ষেত্রে কি করা যেতে পারে?
এক্ষেত্রে সবচেয়ে ভাল উপায় হচ্ছে, আপনি বাংলাদেশের সব প্রাপ্ত বয়স্ক মানুষের ব্লাড প্রেসার মেপে নিয়ে গড় হিসেব করবেন। কিন্তু, বাস্তবে আপনার পক্ষে তা সম্ভব নয়। কারণ, এর জন্য যে পরিমান রিসোর্স দরকার তা আপনার কাছে নেই।
তাহলে আপনি কি করতে পারে? প্রাপ্ত বয়স্ক মানুষদের মধ্যে র্যানডমলি কিছু মানুষ (স্যাম্পল) নিয়ে তাদের ব্লাড প্রেসার মাপতে পারেন। কিন্তু, আপনার এই স্যাম্পল থেকে আপনি বাংলাদেশের প্রাপ্তবয়স্ক মানুষদের প্রকৃত গড় রক্তচাপ সম্পর্কে বলতে পারবেন না। কেননা, হতে পারে আপনি র্যানডমলি কিছু মানুষকে নিতে গিয়ে যাদেরকে বাদ দিয়েছেন তাদের প্রেসার ভিন্ন।
ফলে আপনি আপনার স্যাম্পল থেকে গড় রক্তচাপের ব্যাপারে একটা রেঞ্জ প্রকাশ করতে পারবেন, যার মধ্যে প্রকৃত গড়ের হিসেবটা থাকবে বলে আপনি একটি নির্দিষ্ট মাত্রায় (সাধারণত ৯৫%) কনফিডেন্ট। এই যে গড়ের পাশে আমরা একটা ইন্টারভাল প্রকাশ করি তাকে বলে কনফিডেন্স ইন্টারভাল।
মজার বিষয় হল, আপনার স্যাম্পল যত বড় হবে, রেঞ্জটা ততই ছোটই হবে। মনে করি, আপনি ৪০০ স্যাম্পল নিয়ে গড় সিসটোলিক ব্লাড প্রেসার পেলেন ১১০, এবং কনফিডেন্স ইন্টারভাল : ৭০ – ১৪০। এখন ধরি, আপনি ১০০০ স্যাম্পল নিয়ে হিসেব করে দেখলেন এভারেজ সিস্টোলিক প্রেসার ১১০ বা তার কাছকাছি আছে। আপনি দেখতে পাবেন যে আপনার কনফিডেন্স ইন্টারভাল কমে এসেছে: ৮০ – ১৩০। স্যাম্পল যদি আর বড় হয়, আপনার ইন্টারভাল আরও কমে আসবে।
সুতরাং, স্যাম্পল বেশী হলে, আমাদের কনফিডেন্স ইন্টারভালে বিস্তৃতি কমে যাচ্ছে।
ধরি, এরকম প্রায় ২০ টি রিসার্চ গ্রুপ বিভিন্ন সময় বাংলাদেশের বিভিন্ন প্রান্তে বা পুরো বাংলাদেশে জুড়ে বিভিন্ন সংখ্যায় স্যাম্পল নিয়ে ব্লাড প্রেসার হিসেবে করেছেন। প্রতিটি রিসার্চে গড় পেসারের পরিমাপ ভিন্ন এবং স্বাভাবিক ভাবে বিস্তৃতির পরিমাপও ভিন্ন।
এখন মনে করি, আপনি এই সবগুলো পাবলিকেশনকে একত্র করেছেন যে সবগুলোর এভারেজ প্রেসারের হিসেবটা নিয়ে একটা গড় করবেন। কারণ, আপনি জানেন যত বেশী স্যাম্পল সাইজ বাড়ানো যাবে ততই আপনি প্রকৃত হিসেবের কাছাকাছি পৌছুতে পারবেন। কিন্তু, সবার এভারেজ প্রেসার, বিস্তৃতি এবং স্যাম্পল সাইজ এর হিসেব একত্র করার পর আপনার মনে প্রশ্ন আসল, আমি কিভাবে এগুলোর এভারেজ করতে পারি? সবগুলো যোগ করে দিয়ে কি স্যাম্পল সংখ্যা দিয়ে ভাগ করে দিবো? না, তা তো হবে না! কারণ, আপনার কাছেতো প্রতিটি ব্যাক্তির ড্যাটা আলাদা ভাবে নেই।
তাহলে কি করা যায়? আমরা ওপরে বলেছিলাম যে স্যাম্পল ছোট হলে বিস্তৃতি বেশী হয়। সুতরাং, বিস্তৃতির হিসেবটাকে যদি উল্টে দিতে দেই, তাহলে বড় বিস্তৃতির জন্য একটা ছোট সংখ্যা আসবে এবং ছোট বিস্তৃতির জন্য একটা বড় সংখ্যা আসবে। যাকে আমরা বলতে পারি weight (বা ওজন।)।
সুতরাং, আপনি যদি স্টাডিগুলো থেকে সংগৃহিত হিসেবের সাথে ওজন হিসেবে নিয়ে আসতে পারেন, তাহলে ছোট স্যাম্পলের স্টাডিতে কম ওজন এবং বড় স্যাম্পলের স্টাডিতের বেশী ওজন দিতে পারবেন। এভাবে, আপনি যে সম্মিলিত গড় পেসারের হিসেবটা কষবেন তা হবে ‘প্রকৃত’ গড়ের কাছাকাছি।
উপরের এতগুলো কথার অবতারণা করলাম হল পরিসংখ্যানে কিভাবে ‘ওজন’ বিষয়টাকে গানিতিক আকারে নিয়ে আসা যায় তা বোঝানোর জন্য।
এবার আসুন একটু সম্ভাব্যতার হিসেবে যাই। আমরা জানি, একটি পয়সার একটি হেড অথবা টেইল আছে। আপনি টস করলে মাটিতে হেইড বা টেইল পড়ার সম্ভাব্যতা ০.৫ । একটি লুডুর ঘুটি টস করলে ১ থেকে ৬ এর মধ্যে যে কোন একটি পড়ার সম্ভাব্যতা ১/৬ = ০.১৭ । তাসের একটি বাক্স থেকে না দেখে একটি কার্ড টানলে, সেটি কিং অব হার্ট হবার সম্ভাব্যতা ১/৫২ = ০.০২ । এভাবে, আমরা পৃথিবীতে মৃত্যুবরণ করব তার সম্ভাব্যতা ১ (অর্থাৎ, নিশ্চিত ভাবেই হবে)। আবার, একটি ছেলের গর্ভে বাচ্চা হবার সম্ভাব্যতা ০ (কারণ, গর্ভই নেই)। সুতরাং, আমরা দেখতে পাচ্ছি সম্ভাব্যতার হিসেবে ০ থেকে ১ এর মধ্যে যে কোন সংখ্যায় হতে পারে।
এখন, মনে করি আপনি লুডু খেলছেন। আপনার কাছে যদি একটি ছক্কা থাকে, আপনি টস করলে টসে ছয় সংখ্যা পড়ার সম্ভাবনা হবে ০.১৭। কিন্তু, আপনি যদি ছক্কার সংখ্যা বাড়িয়ে দুটো করেন, আপনার অন্তত একটি ছয় পড়ার সম্ভাবনা বেড়ে হবে ২/৬ = ০.৩৩। সুতরাং, আপনি যদি (প্রবাবিলিটি) রিসোর্স বাড়াতে পারেন, আপনার প্রত্যাশিত ফলের সম্ভাব্যনা বাড়বে। অর্থাৎ, রিসোর্স বাড়ানো কমানোর মাধ্যমে সম্ভাব্যতার কম বেশী করা যায়। এভাবে ছক্কার সংখ্যা বাড়াতে থাকতে পারলে, আপনি ছয় পড়ার সম্ভাবনাকে “১”-এর কাছাকাছি নিয়ে যেতে পারবেন।
এবার চলুন একটু কম্পিউটারের জগতে যাই। আমরা জানি, কম্পিউটার কাজ করে ট্রানজিস্টরের উপর ভিত্তি করে। যার দুটো স্টেট আছে- হয় “১” না হয় “০”। সুতরাং, এই ধরনের ট্রান্সজিস্টরের স্টেট সংরক্ষণ করতে চাইলে করতে হবে “১” বা “০” হিসেবে। ধরুন, আমরা চাচ্ছি ঠিক “১” এবং “০” সংরক্ষণ না করে একটি ট্রানজিস্টরে বিভিন্ন মাত্রার ওয়েইট সংরক্ষণ করতে। কারণ, শুধু “১” বা “০” সংরক্ষণ করার চেয়ে যদি ট্রানজিস্টর দিয়ে কি মাত্রায় বিদ্যুৎ প্রবাহিত হতে পারবে তা বিভিন্ন কানেকশন ওয়েইট দিয়ে নির্ধারণ করে দেয়া যায়, তাহলে আমাদের প্রত্যাশিত ফলাফল বিভিন্ন ধরনের হতে পারে।
মজার বিষয় হল, ইলেকট্রিক ইঞ্জিনিয়ার ও কম্পিউটার বিজ্ঞানীরা গবেষণা করে এ ধরনের একটি ‘মেমজিস্টর’ আবিস্কার করেছেন, যা কারেন্ট পাস করার জন্য বিভিন্ন মাত্রায় দরজা (weighted gate) খোলা রাখতে পারে এবং মনে রাখতে পারে। এটার সুবিধে কি? এটি ঠিক আগের বার কতটুকু ইলেকট্রিসি পাস করেছিলো তা মনে রাখতে পারে।
এই মজার বৈশিষ্ট্য কাজে লাগিয়ে তৈরী করা হয়েছে আধুনিক নিউরাল নেটওয়ার্ক । নিউরাল নেটওয়ার্কে আমাদের ব্রেইনের মত অনেকগুলো সমান্তরাল সার্কিট থাকে। প্রথমবার যখন ইলেকট্রিসি পাস হয়, তখন সার্কিটের গেইটগুলো বিভিন্ন মাত্রায় ওয়েইট সংরক্ষণ করে। এই নেটওয়ার্কগুলোকে যখন ট্রেইন করা হয়ত, তখন বিভিন্ন সার্কিটে ওয়েইটের বিভিন্নতা তৈরী হয়। ফলে, একটি ট্রেইনড নেটওয়ার্কে যখন নতুন কোন তথ্যের ইনপুট দেয়া হয়, সে সঠিকের কাছাকাছি আউটপুট দিতে পারে। ফলে, যত নতুন তথ্য দিয়ে ট্রেইনিং হবে, উক্ত নেটওয়ার্কের ওভারওল সার্কিট ম্যাপের ওয়েইট, ততই সুন্দর কমবাইন্ড আউটপুট প্রেডিক্ট করতে পারবে। যেমন- জেনারেটিভ প্রি-ট্রেইনড ট্রান্সফর্মার (জিপিটি) বা চ্যাটজিপিটি জাতীয় নিউরাল নেটওয়ার্ক ইনপুটের ভিত্তিতে ততই সঠিক উত্তর করতে পারে, বিভিন্ন ধরনের লেখা দিয়ে যত বেশী তাকে ট্রেইন করা হয় । লক্ষ্যনীয়, তার উত্তর হয় সম্পূর্ণ প্রবাবিলিস্টিক। অর্থাৎ, কোন ওয়ার্ডের পরে কোন ওয়ার্ড আসবে সেই সম্ভাব্যতার হিসেব কষে। তবে, এগুলো কিন্তু সে শিখে নিয়েছে মানুষের লেখা থেকে।
এবার আসুন মানুষের ব্রেইনের সাথে বিষয়টাকে তুলনা করে ভাবি। আমরা যত বড় হতে থাকি, ততই বিভিন্ন ধরনের তথ্য ব্রেইনে ইনপুট হয়। ফলে, আমাদের নিউরাল রিপ্রেজেন্টশনের ভেতর তা ওয়েইট হিসেবে সংরক্ষিত হতে থাকে। আপনি যত দক্ষতা বৃদ্ধিমূলক কাজ করবেন, ততই তা আপনার ব্রেইনের সার্কিটকে ট্রেইন করতে থাকবে। সুতরাং, বয়স বৃদ্ধির সাথে সাথে আপনার চিন্তার ম্যাচুরিটি বাড়বে এবং সাবকনসাস দক্ষতা বাড়বে। আপনি যদি চিকিৎসক হন, আপনার অর্জিত দক্ষতা হবে সম্পূর্ণ আপনার নিজস্ব। যা ট্রান্সফারেবল না। অর্থাৎ, দক্ষতা আপনি কাউকে শিখিয়ে দিতে পারবেন না। বরং, আপনার ছাত্রের তা নিজে করে অর্জন হবে।
আমার ধারণা, আমাদের চিন্তার চর্চার মাধ্যমেও আমাদের ব্রেইনের ওয়েইট রিপ্রেজেন্টেশনকে প্রভাবিত করতে পারি। লক্ষ্যনীয়, এবস্ট্রাক্ট চিন্তা করার ক্ষমতা মানুষের ইউনিক বৈশিষ্ট্য। এ বিষয়টি ঐচ্ছিক (volitional) এবং এটি নন কমপিউটেবল। কেননা, চ্যাট জিপিটি আউটপুট দেয় একটা ইনপুটের উপর ভিত্তি করে। কিন্তু, মানুষ কোন ইনপুট ছাড়াই শুধু অ্যাবস্ট্রাক্ট থটের মাধ্যমে আউটপুট তৈরী করতে পারে। একটা উদাহরণ দিয়ে বুঝাই- ধরুণ, আপনার একটি প্রশ্নের উত্তরে চ্যাট জিপিটি লিখেছে, “আমি ভাত খাই”। এখন, চ্যাট জিপিটিকে যদি, “আমি ভাত খাই” এই ধরনে তিনটি বাক্য এবং “আমি কলা খাই” এ ধরনের দুটি বাক্য দিয়ে ট্রেইন করা হয় এবং আপনি তাকে, আমি — খাই লিখে শুণ্যস্থান পূরণ করতে বলি, সে আমি ভাত খাই লেখার সম্ভাবনা বেশী থাকবে। এবার ধরে নেই, আমাদের ব্রেইনের নিউরাল নেটওয়ার্ক অনেকটাই এরকম। সুতরাং, আমি ছোটবেলা থেকে বড় হতে হতে এরকম অসংখ্য বাক্য দিয়ে ট্রেইন আপ হয়েছি। আমাকে যদি কেউ বলে “আমি … খাই” এ বাক্যটি পূরণ করতে, আমাদের টেন্ডেন্সি হওয়া উচিৎ সবচেয়ে বেশীবার যে বাক্যটা শুনেছি তা দিয়ে পূরণ করতে। কিন্তু, আমরা “ইচ্ছে” করলে অল্টারনেট খাবার চয়েজ করতে পারি। যেমন- বলতে পারি “আমি আইসক্রিম খাই” বা “আমি আম খাই”। এমন কি তা ট্রেইনেংর ফলে সৃষ্ট ওয়েইট রিপ্রেজেন্টশনের বিপরীতে গিয়ে।
তদুপরি, হতে পারে আমি আমার শেখা শব্দাবলী বাদ দিয়ে সম্পূর্ণ নতুন একটি শব্দ তৈরী করলাম। যেমন- আমি “টাম” খাই এবং “টাম” অর্থ কি শুধু আমার মাথায় রেখে দিলাম। হয়ত, আমি এটিকে কাঠালের নাম হিসেবে চিন্তা করেছি। অথবা, সম্পূর্ণ কাল্পনিক কোন ফল হিসেবে চিন্তা করছি। অর্থাৎ, আমি চাইলে সর্ম্পূন unrelated দুটো বিষয় relate করে একটা মিনিং তৈরী করে রাখতে পারি। কিন্তু, আমি যতক্ষণ পর্যন্ত এই মিনিংটা প্রশ্নকারীকে না বলব, সে শব্দটি অর্থহীন মনে করতে থাকবে। যখন আমি মিনিংটা বুঝিয়ে বলব, তখন হয়ত প্রশ্নকারী বুঝতে পারবে। এমন কি আমার যদি যথেষ্ট সামাজিক গ্রহণযোগ্যতা থাকে একটি নতুন শব্দ হিসেবে প্রতিষ্ঠা পেয়ে যাবে। যেমন, রবীন্দ্রনাথ ঠাকুরের মত আর্টিস্টটা কিছু নতুন শব্দ সংযোজন করেছেন বাংলা অভিধানে সংযুক্ত করেছেন। একই ভাবে, পাবলো পিকাসো নতুন প্রকারের আর্টফর্ম নিয়ে এসেছেন, বিথোভেন নতুন ধরনের মিউজিক রচনা করেছেন। জিপিটি, ডাল-ই, কিংবা সোরা শুধু মানুষের বানানো তথ্য থেকে শিখে নিয়ে লেখা, ছবি বা ভিডিও জেনারেট করতে পারছে। কিন্তু, মিনিং আপনাকে দিয়ে দিতে হচ্ছে। অন্যকথায়, আপনি কোন বস্তুর সাথে বস্তুকে সম্পূর্ণ আব্রিটারীলি রিলেট করবেন, তা আপনাকে টেক্সট-এর মাধ্যমে শুধু এই মডেলগুলোকে বলে দিতে হচ্ছে।
এজন্যই আমার যেদিন প্রথম রিয়েলাইজেশন হয়েছিল যে, “The unique feature of human intellect is associating two completely unrelated objects with purpose” তথা “মানুষের বুদ্ধিমত্তার স্বতন্ত্র্য বৈশিষ্ট্য হচ্ছে দুটো সম্পূর্ণ অসম্পর্কিত বস্তুকে পরস্পর একটি উদ্দেশ্য সহকারে জুড়ে দেয়া”, সেদিন থেকে বাক্যটি আমি আমার ফেসবুকের প্রোফালের ইনট্রোতে দিয়ে দেখেছি।