স্মার্ট চ্যাটবট: ভুল উত্তর, আত্মবিশ্বাসের ফাঁদ এবং আপনার সিদ্ধান্ত

স্মার্ট চ্যাটবট: ভুল উত্তর, আত্মবিশ্বাসের ফাঁদ এবং আপনার সিদ্ধান্ত

সামাজিক যোগাযোগ মাধ্যমে স্ক্রল করতে করতে ২০২২ সালের ৩ সেপ্টেম্বর বাংলা ট্রিবিউনে প্রকাশিত আমার লেখা “শিক্ষামন্ত্রীর বক্তব্য এবং আর্টিফিসিয়াল ইন্টেলিজেন্স ভাবনা” নিবন্ধটি পড়ছিলাম। নিবন্ধটি পড়া শেষ হলে নিউজফিড স্ক্রল করতেই গত ২৩ অক্টোবর প্রকাশিত দৈনিক যুগান্তর পত্রিকার একটি সংবাদ সামনে এলো। সম্প্রতি ইউরোপিয়ান ব্রডকাস্টিং ইউনিয়ন (ইবিইউ) ও বিবিসি পরিচালিত এক আন্তর্জাতিক জরিপে দেখা গেছে, যে চ্যাটজিপিটি, গুগল জেমিনি, মাইক্রোসফট কো-পাইলট এবং পারপ্লেক্সিটের মতো কৃত্রিম বুদ্ধিমত্তা (এআই) মডেলগুলো প্রায় অর্ধেক ক্ষেত্রেই সংবাদ সংক্রান্ত প্রশ্নে ভুল বা বিভ্রান্তিকর তথ্য দেয়। এক্ষেত্রে গুগলের জেমিনি দিয়েছে সবচেয়ে বেশি ভুল উত্তর—প্রায় ৭৬ শতাংশ পর্যন্ত। জরিপে “১৮টি দেশের ১৪ ভাষাভাষী ২২টি রাষ্ট্রীয় গণমাধ্যমের চারটি জনপ্রিয় এআই সহকারীকে একই ধরনের প্রশ্ন করে তাদের উত্তর বিশ্লেষণ করে গবেষকগণ তাদের রিপোর্ট প্রদান করেন।

ওই রিপোর্ট অনুযায়ী, “মোট ৪৫ শতাংশ উত্তরে অন্তত একটি ‘গুরুত্বপূর্ণ ত্রুটি’ ছিল। এছাড়াও ৩১ শতাংশ উত্তরকে প্রভাবিত করেছে এআই, যা ছিল সবচেয়ে সাধারণ ত্রুটি। ২০ শতাংশ উত্তরে সরাসরি ভুল বা নির্ভুলতার অভাব দেখা গিয়েছে। পাশাপাশি ১৪ শতাংশ উত্তরে সঠিক প্রেক্ষাপট ও প্রাসঙ্গিক তথ্যের ঘাটতি ছিল” (দৈনিক যুগান্তর, ২৩ অক্টোবর, ২০২৫, পৃষ্ঠা. ৮)। অর্থাৎ, এই গবেষণার রিপোর্ট অনুযায়ী কোনও চ্যাটবটই নির্ভরযোগ্যভাবে সত্য তথ্য দিতে পারেনি।

আমি চ্যাটজিপিটির পেইড ভার্সন ChatGPT Pro ব্যবহার করি। এর জন্য আমাকে প্রতি মাসে ২০ মার্কিন ডলার গুণতে হয়। তবে এই ২০ ডলারের বিপরীতে আমি আমার গবেষণায় সাহায্য পাই অনেক। বিশেষ করে দর্শনের মতো জটিল এবং বিমূর্ত বিষয়ের টেক্সট বুঝতে গেলে চ্যাটজিপিটি প্রায়ই একজন প্রফেসরের দায়িত্ব পালন করে। উপরন্তু, তাকে একটার পর একটা প্রশ্ন করলেও সে ক্লান্ত হয় না, বিরক্তি প্রকাশ করে না। মানুষ এবং কৃত্রিম বুদ্ধিমত্তার মধ্যেকার এই পার্থক্য আমি দারুণ উপভোগ করি। তাছাড়া আমার যেহেতু ভবিষ্যতে প্রাকৃতিক এবং যন্ত্রের ভাষার পার্থক্য কমিয়ে আনতে মেশিন ল্যাঙ্গুয়েজে ভাষার প্র্যাগমেটিকস ইন্ডিউস করা সম্ভব কিনা সেই বিষয়ে গবেষণা করার পরিকল্পনা আছে, নিউজটি মনোযোগ দিয়ে পড়লাম। নিঃসন্দেহে এটি বর্তমান সময়ের জন্য অত্যন্ত গুরুত্বপূর্ণ একটি বার্তা আছে এতে।   

যারা চ্যাটজিপিটি ব্যবহার করেন তারা লক্ষ্য করবেন যে চ্যাটজিপিটির পেজের নিচে লেখা আছে “ChatGPT may make mistakes.”। সত্যিই, চ্যাটজিপিটি ভুল করে, এবং ইদানীং সেই ভুলের পরিমাণ যেন আরও বেড়েছে। একটি উদাহরণ দেই। ডিজিটাল এথিক্স কোর্সের অংশ হিসেবে ভার্চুয়াল রিয়ালিটির সাথে সংশ্লিষ্ট দার্শনিক প্রবন্ধ পড়তে হচ্ছে। কাল ভার্চুয়াল জগতে নিজের প্রতিনিধিত্বকারী ডিজিটাল চরিত্র বা অ্যাভাটারের প্রতি ব্যক্তির যে আবেগ, ভালোবাসা বা আত্মবোধ তৈরি হয় সেটির কোনও বাস্তব নৈতিক মূল্য আছে কিনা সে বিষয়ক জেসিকা ওলফেনডেলের লেখা “My avatar, myself: virtual harm and attachment” প্রবন্ধটি পড়ছিলাম।

একই সাথে ওলফেনডেলের যুক্তিকে খণ্ডন করে লেখা অপর একটি লেখা পড়ছিলাম যেখানে লেখক ওলফেনডেলের যুক্তিকে ভুল দ্বৈততা (false dichotomy) বলে খারিজ করেছেন। দ্বিতীয় লেখাটি আমার কাছে মোটামুটি মধ্যম মানের একটি লেখা মনে হয়েছে। লেখাটিতে কী কী ভুল আছে সেগুলো চিহ্নিত করার পর চ্যাটজিপিটির পরীক্ষা নেওয়ার জন্য চ্যাটজিপিটিকে জিজ্ঞেস করলাম, “বল তো, এই লেখায় মূল সমস্যাগুলো কী কী?” সে মূল সমস্যাগুলো ধরতেই পারলো না। উপরন্তু, কিছু অপ্রাসঙ্গিক বিষয় তুলে আনলো। আমি বিরক্ত হয়ে বললাম, “চল আজ পরীক্ষার পড়া পড়ি, এটা নিয়ে কাল কথা বলবো।” সে উত্তর দিল, “ঠিক আছে, কাল পরীক্ষার জন্য পড়া যাবে, আজ এই আলোচনা শেষ করি।” অর্থাৎ আমি তাকে যে ইনপুট দিয়েছি, সে তার বিপরীতটা গ্রহণ করেছে— চ্যাটজিপিটি ত্রুটিপূর্ণভাবে কাজ করেছে। এবং এই ধরনের ভুল সে প্রায়ই করে থাকে।

হয়তো তার নির্মাতারা চ্যাটজিপিটির ত্রুটিপূর্ণভাবে কাজ করার কারণ খুঁজে বের করবেন এবং একে কীভাবে ব্যবহারকারীর জন্য আরও গ্রহণযোগ্য এবং নির্ভরযোগ্য করা যায় তার উপায় খুঁজে বের করবেন। তবে, আমার দৃষ্টিতে অনেকগুলো কারণের মধ্যে মূল কারণ চারটি।

প্রথমত, এর ভাষা-বোঝাপড়ার সীমাবদ্ধতা। চ্যাটজিপিটি প্রাকৃতিক ভাষার সেম্যানটিক্স (শব্দের নিজস্ব অর্থ) বোঝে, কিন্তু প্র্যাগমেটিক্স (বক্তা সেই শব্দ দ্বারা কোন বিশেষ প্রেক্ষাপটে শব্দের নিজস্ব অর্থের বাইরে যে অর্থ বুঝিয়ে থাকেন) ঠিকভাবে বোঝে না। এ প্রসঙ্গে বলে রাখা ভালো যে ভাষাদর্শনে প্র্যাগমেটিক্স হলো সেই অংশ, যেখানে অর্থ নির্ভর করে বক্তা, প্রসঙ্গ, ইঙ্গিত, এমনকি বক্তার অঙ্গভঙ্গির ওপর। একইসাথে মেটাফোর, আইরনি, ইমপ্লিকেচার, এমনকি ইনডিরেক্ট স্পিচ অ্যাক্ট অনুধাবন করতে পারে না। অর্থাৎ চ্যাটজিপিটি এখনও প্রসঙ্গের বদল এবং প্রাকৃতিক ভাষার সূক্ষ্ম ইঙ্গিত অনুধাবনে সক্ষমতা অর্জন করতে পারেনি। কৃত্রিম বুদ্ধিমত্তাকে প্রাকৃতিক ভাষার প্রেক্ষিত-নির্ভর অর্থ (প্র্যাগমেটিকস) বোঝানো সম্ভব হলে হয়তো এই সমস্যার সমাধান কিছুটা তরান্বিত হবে।

এই প্রসঙ্গে বলতে চাই, আমার পিএইচডি প্রজেক্টের মূল বিষয় এই সিম্যানটিকস এবং প্রাগমেটিকসের মধ্যকার বর্ডারলাইন নির্ধারণ করা। কৃত্রিম বুদ্ধিমত্তার প্র্যাগমেটিক্স ধরতে না পারার সীমাবদ্ধতা আমার গবেষণার ক্ষেত্রে যথেষ্ট প্রাসঙ্গিক।

যাইহোক, বিশেষজ্ঞদের মতে, চ্যাটবটের এই সীমাবদ্ধতা কোনও প্রযুক্তিগত দুর্ঘটনা নয়; বরং এটি তাদের গঠনগত সীমাবদ্ধতা। কেননা, চ্যাটজিপিটি একটি large language model। এটি কোটি কোটি বাক্যে দেখে শেখে কোন শব্দের পর কোন শব্দ আসার সম্ভাবনা বেশি। ফলে, যখন কোনও ব্যবহারকারী প্রশ্ন করে তখন এটি সবচেয়ে সত্য বাক্য নয় বরং সবচেয়ে সম্ভাব্য উত্তর তৈরি করে। সুতরাং, এআই মডেলগুলো তথ্য “বোঝে” না, বরং বিশাল টেক্সট ডেটার উপর ভিত্তি করে সম্ভাবনাভিত্তিক ভাষার প্যাটার্ন অনুমান করে উত্তর তৈরি করে। আপনি লক্ষ্য করবেন চ্যাটজিপিটিকে আপনি ভুল বানানে কোন প্রশ্ন করলে কিংবা কোন প্রশ্ন অসম্পূর্ণ থাকলেও অনেক সময়ই বাক্যের বাকি শব্দগুলোর প্যাটার্ন দেখে সে প্রশ্ন চিহ্নিত করতে পারে এবং সেই অনুযায়ী সম্ভাব্য উত্তর তৈরি করতে পারে।

অর্থাৎ, চ্যাটবট পরিসংখ্যানগত বা সম্ভাবনাভিত্তিক প্যাটার্ন ফলো করে একটি সম্ভাব্য বা অনুমিত উত্তর প্রদান করে। ফলে তাদের উত্তর ভাষাগতভাবে সাবলীল হলেও অনেক সময়ই বাস্তবতার সাথে অসামঞ্জস্যপূর্ণ থেকে যায়। এটাকে সাধারণত  হ্যালুসিনেশন (hallucination) বলা হয়, যা বর্তমান জেনারেটিভ এআই-এর সবচেয়ে আলোচিত সীমাবদ্ধতা। অর্থাৎ, ভাষাগত ধারাবাহিকতা বজায় রাখতে গিয়ে মডেল কখনও অস্তিত্বহীন বিযুক্ত তথ্যও গেঁথে ফেলে।

দ্বিতীয়ত,  চ্যাটবটের তথ্যের উৎস যাচাইয়ের সক্ষমতা নেই। ChatGPT বা অন্যান্য LLM মডেলগুলোর inherent limitation হলো—এরা উৎস (source) যাচাই বা “fact-checking” করতে পারে না।

ডিফল্টভাবে চ্যাটজিপিটি কোনও লাইভ ডাটাবেস বা সার্চ ইঞ্জিনে গিয়ে তথ্য মিলিয়ে দেখে না। বরং, প্রশিক্ষণকালে যে টেক্সট পেয়েছে, সেখান থেকেই উত্তর তৈরি করে। ফলে পুরনো, অসম্পূর্ণ বা মিলিয়ে-না-দেখা তথ্য সহজেই তার উত্তরে অন্তর্ভুক্ত হতে পারে। যেমন, চ্যাটজিপিটি ভুল উত্তর করলে আপনি সেটি ধরিয়ে দিলে সে দ্রুত তার মত বদল করে। অর্থাৎ, ChatGPT কোনও বিশ্বাস বা অবস্থান চিরন্তনভাবে ধরে রাখে না, বরং নতুন ইনপুটের পর নতুনভাবে প্যাটার্ন অনুমান করে যাকে একটি মডেলের non-committal probabilistic nature বলা হয়।

তৃতীয়ত, প্রশিক্ষণ ডেটার সীমা ও মান  চ্যাটবটের উত্তরে তথ্য বিভ্রাট ঘটাতে পারে। কেননা, কোনও একটি মডেলের শেখা তথ্য একটি নির্দিষ্ট সময়সীমা পর্যন্ত সীমাবদ্ধ এবং সব উৎস সমানভাবে নির্ভরযোগ্য নয়। কোথাও যদি ভুলভাবে লালনের গানকে রবীন্দ্রনাথের নামে লেখা থাকে, ভাষার মিলের কারণে মডেল সেই ভুলটিই “সম্ভবত ঠিক” ধরে নিয়ে লালনের গানকে রবীন্দ্রানাথের গান বলে আউটপুট দিতে পারে।

চতুর্থত, চ্যাটবট মডেলগুলো এমনভাবে ডিজাইন করা হয়েছে যে তাতে আছে ব্যবহারকারীর প্রতি বিনয়, বন্ধুত্ব সূচক, পজিটিভ এবং আত্মবিশ্বাসী টোন। চ্যাটজিপিটির উত্তর সাধারণত আত্মবিশ্বাসী ভঙ্গিতে আসে। এই tone of confidence কোন বিষয় সম্পর্কে সম্পূর্ণ অজ্ঞ বা আংশিক জ্ঞানী পাঠককে সহজেই বিভ্রান্ত করতে পারে—পজিটিভ এবং আত্মবিশ্বাসের টোন ভুল সিদ্ধান্তকে সঠিক এবং নিশ্চিত বলে মেনে নিতে কনভিন্স করে। ব্যবহারকারী নিজের অজান্তেই ভাষার বিনয়ী ভঙ্গীকে তথ্যের সঠিকতার প্রমাণ হিসেবে গ্রহণ করে, যা ব্যবহারকারীর মনস্তত্ত্ব এবং জ্ঞানের পরিধির সাথেও অনেকাংশে সম্পর্কিত।

এখন প্রশ্ন হলো, চ্যাটজিপিটিকে কার্যকর উপায়ে ব্যবহারের উপায় কী? চ্যাটজিপিটিকে সত্যিকার অর্থে কার্যকরভাবে ব্যবহার করতে হলে কোন বিষয় সম্পর্কে গভীর জ্ঞান থাকা অপরিহার্য। আপনি চ্যাটজিপিটিকে প্রশ্ন করলে সে অনলাইনের বিশাল ডেটাসেট থেকে তার প্রোগ্রাম অনুযায়ী সবচেয়ে কাছাকাছি তথ্যটি বেছে নেয়। যেমন, কিছুদিন আগে আমার এক প্রশ্নের জবাবে সে লালনের এক গানকে রবীন্দ্রনাথের গান দাবি করে উত্তর দিয়েছিল। আমার কাছে পর্যাপ্ত তথ্য না থাকলে বা আমার জানার সীমাবদ্ধতা থাকলে আমি সহজেই তার উত্তরে বিভ্রান্ত হতে পারতাম।

সুতরাং, শুধু চ্যাটজিপিটি যদি আপনার তথ্য সংগ্রহের মাধ্যম হয়, তবে আপনার জ্ঞান প্রকৃতই পূর্ণাঙ্গ জ্ঞান কি না সে বিষয়ে সিদ্ধান্ত গ্রহণ করা যাবে না।

অন্যদিকে, এখন অনেক ছাত্রছাত্রী চ্যাটজিপিটির ওপর এতটাই নির্ভরশীল হয়ে পড়েছে যে ধীরে ধীরে তারা নিজেদের চিন্তা এবং বিশ্লেষণী শক্তি হারিয়ে ফেলছে। ফলশ্রুতিতে, তারা পড়াশোনায় মনোযোগ হারিয়ে ফেলছে। তারা নিজের মস্তিষ্ককে বিশ্রাম দিচ্ছে, কিন্তু জ্ঞানের আসল বিকাশ হয় তথ্য আর চিন্তার মধ্যকার যোগসূত্র স্থাপনের মধ্য দিয়ে। মজার বিষয় হলো, আপনি যদি চ্যাটজিপিটিকে দিয়ে একটি ইমেইল লিখিয়ে নেন, কিছুক্ষণ পরেই হয়তো মনে করতে পারবেন না আপনি আসলে কী লিখেছিলেন! এটাই প্রাকৃতিক ভাষা ও যন্ত্রভাষার মধ্যকার অন্যতম একটি মৌলিক পার্থক্য।

তবে বর্তমান সময়ে চ্যাটজিপিটিকে সম্পূর্ণ অগ্রাহ্য করারও কারণ নেই। তাকে সহায়ক হিসেবে ব্যবহার করলে সে অসাধারণ কাজ দেয়। অর্থাৎ, যদি আপনার গবেষণা হয় একটি গাড়ি, আপনি থাকবেন ড্রাইভিং সিটে, আর চ্যাটজিপিটি থাকবে পাশের সিটে। আপনি যখন দিক হারিয়ে ফেলবেন, তখন সে আপনার দেওয়া তথ্যের ভিত্তিতে সঠিক দিক নির্দেশ করতে পারবে। কিন্তু স্টিয়ারিং তার হাতে দেওয়া মানে আপনার চিন্তার স্বাধীনতা হারানো। আপনি যদি চ্যাটজিপিটিকে নির্দেশনা দেওয়ার সময় কোন একটি বিশেষ প্রবন্ধের প্রতিটি লাইন পড়ে ভুল ধরতে বলেন তবে সে পরের লাইনে কী লেখা সেটি বিবেচনা না করেই প্রথম লাইনে কী কী সমস্যা আছে সেটি নিয়ে আলোচনা করা শুরু করবে। সে কোন তথ্য দিলে সেই তথ্যের উৎস হিসেবে কাছে লিংক চাইতে পারেন— রেফারেন্স চাইতে পারেন সেই তথ্য সে কোন উৎস থেকে পেল সে বিষয়ে। তবে তার দেওয়া রেফারেন্স পেয়েই সন্তুষ্ট হবেন না।

আপনার দায়িত্ব হলো সেই রেফারেন্স চেক করে দেখা। এক্ষেত্রেও হয়তো দেখবেন সেই বইয়ে বা পাতায় তার দেওয়া তথ্য নেই। অতএব, তথ্য সংগ্রহের মাধ্যম হিসেবে চ্যাটবট ব্যবহারের ক্ষেত্রে সতর্ক থাকুন। বরং তাকে সংগৃহীত তথ্য-উপাত্তকে বিশ্লেষণ এবং সন্নিবেশ করার জন্য ব্যবহার করুন। দেখবেন সে আপনার জ্ঞান অর্জনের পথে অকৃত্রিম বন্ধু।    

সবচেয়ে গুরুত্বপূর্ণ বিষয় হলো, আপনি তাকে কীভাবে নির্দেশনা দিচ্ছে, আপনি তাকে কীভাবে প্রশ্ন করছেন, তার ওপর ভিত্তি করে সে আপনাকে আউটপুট দিবে। আপনার নির্দেশনা যত পরিষ্কার হবে, আউটপুট তত ভালো হবে। আপনি তাকে যেভাবে চালাবেন, সে সেভাবে ব্যবহৃত হবে। আপনি তাকে তথ্য সংগ্রহের মাধ্যম হিসেবে ব্যবহার করে বিভ্রান্ত হবেন না কি আপনার প্রাপ্ত তথ্যকে সঠিকভাবে কাজে লাগাতে তাকে সহায়ক হিসেবে ব্যবহার করবেন সেই সিদ্ধান্ত আপনার নিজের। তবে, আমার পরামর্শ হলো একজন বিচক্ষণ ব্যক্তি হিসেবে আপনার অবশ্যই দ্বিতীয় অপশনকে বেছে নেওয়া উচিত।

লেখক: সহযোগী অধ্যাপক, দর্শন বিভাগ, জাহাঙ্গীরনগর বিশ্ববিদ্যালয়, সাভার, ঢাকা এবং পিএইচডি শিক্ষার্থী ও ভাষাদর্শন গবেষক, ইউনিভার্সিটি অব ওয়েস্টার্ন অন্টারিও, কানাডা

[email protected]

 

 

Comments

0 total

Be the first to comment.

More from this User

View all posts by admin