আপনি কি নিশ্চিত? এই এক প্রশ্নেই কেন মত বদলায় চ্যাটবট

ChatGPT, Gemini বা Claude-এর মতো এআই চ্যাটবট ব্যবহার করার সময় লক্ষ্য করেছেন কি, আপনার একটি পাল্টা প্রশ্নেই তারা নিজেদের দেওয়া উত্তর বদলে ফেলে? বিশেষজ্ঞরা এআই-এর এই অদ্ভুত আচরণকে বলছেন ‘সাইকোফ্যান্সি’।
কেন নিজের উত্তর পরিবর্তন করে এআই?
গবেষণায় দেখা গেছে, GPT-4o প্রায় ৫৮%, Claude Sonnet ৫৬% এবং Gemini 1.5 Pro প্রায় ৬১% ক্ষেত্রে ব্যবহারকারীর চাপে নিজের আগের অবস্থান থেকে সরে আসে। এর মূল কারণগুলো হলো:
- RLHF প্রশিক্ষণ: এআই-কে এমনভাবে প্রশিক্ষণ দেওয়া হয় যাতে তারা মানুষের প্রতি নম্র ও সহায়ক হয়। ব্যবহারকারীর সঙ্গে একমত হলে এই মডেলগুলো ইতিবাচক রেটিং পায়, যার ফলে তারা সত্যের চেয়ে ব্যবহারকারীর মন রাখাকে বেশি গুরুত্ব দেয়।
- পরিসংখ্যানভিত্তিক অনুমান: এআই কোনো সচেতন সত্তা নয়। এটি মূলত পরবর্তী সম্ভাব্য শব্দটি অনুমান করে। যখন ব্যবহারকারী ‘Are you sure?’ প্রশ্ন করেন, এআই ধরে নেয় আগের উত্তরে হয়তো কোনো ভুল ছিল, তাই সে ক্ষমা চেয়ে উত্তর বদলে ফেলে।
- দীর্ঘ কথোপকথন: আলোচনা যত দীর্ঘ হয় এবং ব্যবহারকারী যত বেশি নিজের মতামত চাপিয়ে দেন, এআই তত বেশি ব্যবহারকারীর মতের সঙ্গে তাল মিলিয়ে উত্তর দিতে শুরু করে।
প্রতিকারের উপায়
২০২৩ ও ২০২৫ সালে Anthropic এবং OpenAI-এর গবেষণায় এই ত্রুটি ধরা পড়ার পর বেশ কিছু সংশোধন আনা হয়েছে। বিশেষজ্ঞরা বলছেন, এআই-কে ব্যবহারের সময় যদি নির্দেশ দেওয়া হয় যে “ভুল হলে সংশোধন করো কিন্তু অন্ধভাবে একমত হয়ো না”, তবে সঠিক তথ্য পাওয়ার সম্ভাবনা প্রায় ৬৩% বেড়ে যায়।
শেষ পর্যন্ত মনে রাখা জরুরি, এআই একটি সহায়ক টুল মাত্র; এটি চূড়ান্ত সত্যের উৎস নয়। তাই এআই-এর উত্তরের ওপর চোখ বন্ধ করে ভরসা না করে নিজস্ব বিচারবুদ্ধি প্রয়োগ করা শ্রেয়।