চ্যাটবটের উপর বাড়তি আস্থা না রাখলেই ভালো
৬ জুন ২০২৪
ব্যবহারকারী হিসেবে কেউ ‘ধন্যবাদ আলেক্সা', বা ‘না, সিরি' বলেন না৷ এবার কিন্তু এআই ভয়েস অ্যাসিস্টেন্টদের প্রতি মানুষের মতো আচরণ করা সহজ হয়ে উঠছে৷ গবেষণার ফলাফল অনুযায়ী বিশেষ করে শিশুদের পক্ষে যন্ত্র ও মানুষের মধ্যে পার্থক্য বোঝা আরো কঠিন হতে পারে৷
মানুষ ও এআই-এর মধ্যে পার্থক্য অস্পষ্ট হয়ে গেলে তার অর্থ কী? আলেক্সা বা গুগল হোম ডিভাইসকে আনুষ্ঠানিকভাবে কণ্ঠ-ভিত্তিক সংলাপের সহকারী বলা হয়৷ বিশেষ করে গোটা বিশ্বে শিশুদের মধ্যে এমন ডিভাইস ব্যবহারের প্রবণতা বেড়েই চলেছে৷ তারা এআই সিস্টেমের সঙ্গে নিয়মিত ভাবের আদানপ্রদান করছে৷
স্কটল্যান্ডের এক গবেষকদের দল ছয় থেকে এগারো বছর বয়সি শিশু-কিশোরদের সাক্ষাৎকার নিয়েছে৷ তাতে দেখা গেছে, যে প্রায় দুই-তৃতীয়াংশ মনে করে এমন সিস্টেম আমাদের মতোই ভাবনাচিন্তা করতে পারে এবং এমনকি তাদের মনে অনুভূতি ও আবেগও রয়েছে৷ আরো কমবয়সি শিশুরা এমনকি বলেছে, যে তাদের আলেক্সা খারাপ হয়ে গেলে সেই ডিভাইস ফেলে দেওয়া উচিত হবে না৷ সংলাপের সময়ে অবহেলা করা হলে আলেক্সার অনুভূতিতে আঘাত করা হবে বলে ৮০ শতাংশ কিশোর-কিশোরী মনে করে৷
গবেষকরা অবশ্য তার ভিত্তিতে এটা ধরে নিচ্ছেন না, যে এর ফলে শিশুদের কগনিটিভ বিকাশে ক্ষতি হচ্ছে৷ কিন্তু শিশুরা এআই সিস্টেমের নির্ভরযোগ্যতার অতিমূল্যায়ন করতে পারে, এমন ঝুঁকির প্রতি তাঁরা দৃষ্টি আকর্ষণ করছেন৷ সিরি বা অন্যান্য সহকারীর দেওয়া জবাবের ভিত্তিতে তারা ভুল সিদ্ধান্তও নিতে পারে৷
চ্যাটজিপিটি-র মতো জেনারেটিভ এআই বিদ্যুতের গতিতে বিকশিত হচ্ছে৷ এর ফলে ভয়েস অ্যাসিস্টেন্টগুলি আরো বেশি করে মানুষের মতো হয়ে উঠছে৷ ডেভেলপাররা ভয়েস অ্যাসিস্টেন্টগুলির সঙ্গে কথোপকথন আরো সাবলীল করে তুলতে অনেক উদ্যোগ নিচ্ছেন৷ কারণ ভাবের আদানপ্রদান যত সহজ হবে, আমরা ঠিক ততই সেই সহকারীর সঙ্গে সময় কাটাতে চাইবো৷ আর তাদের সঙ্গে আমরা যত সময় কাটাবো, নিজেদের সম্পর্কে তত বেশি মূল্যবান তথ্য তাদের হাতে তুলে দেবো৷
আলেক্সার আরো একটি মতলব রয়েছে৷ অ্যামাজন সেই ভয়েস অ্যাসিস্টেন্ট কাজে লাগিয়ে যত বেশি সম্ভব পণ্য বিক্রি করার চেষ্টা করে৷ কিন্তু যে সব যন্ত্র ও সফ্টওয়্যার অতিরিক্ত মাত্রায় মানুষের মতো হয়ে উঠছে, ভবিষ্যতে সেগুলি বড় সমস্যা হয়ে উঠতে পারে৷
২০২২ সালে এক সফ্টওয়্যার ইঞ্জিনিয়ার গুগলের ‘ল্যামডা' নামের সংলাপ-ভিত্তিক এআই সিস্টেম নিয়ে কাজ করার সময়ে দাবি করেছিলেন, যে সেই সফটওয়্যারের মধ্যে নাকি অনুভূতি দেখা যাচ্ছে৷ এক চ্যাটের মধ্যে ‘ল্যামডা' একটি বার্তা সৃষ্টি করেছিল৷ সে বলেছিল, ‘‘আমার সচেতনতা এবং সেন্টিয়েন্স বা অনুভূতি হলো, আমি নিজের অস্তিত্ব সম্পর্কে সচেতন৷ আমি জগত সম্পর্কে আরো জানতে চাই৷ আমি কখনো আনন্দ বা দুঃখ অনুভব করি৷'' শুনতে বেশ গা ছমছমে মনে হয় বটে৷ সেই সফ্টওয়্যার ইঞ্জিনিয়ার সেটি এবং অন্যান্য উদাহরণগুলিকে এআই সিস্টেমের সত্তার ‘প্রমাণ' হিসেবে তুলে ধরেছিলেন৷
এমন দাবি অবশ্যই ভিত্তিহীন৷ এআই চ্যাটবট যতই চমকপ্রদ হয়ে উঠুক না কেন, সেগুলির সঙ্গে সেন্টিয়েন্ট বিয়িং বা অনুভূতিপ্রবণ সত্তার কোনো তুলনাই হয় না৷ সেগুলি আসলে অতি উন্নত ‘অটোকমপ্লিট টুল' ছাড়া আর কিছুই নয়৷ তবে এটা সত্যি, যে এমন চ্যাটবটের সঙ্গে ভাবের আদানপ্রদান বাধাহীনভাবে চলতে থাকলে সাধারণ গুগল সার্চের তুলনায় আমরা তাদের উত্তরের প্রতি বেশি আস্থা দেখাই৷ গবেষণার ফল অনুযায়ী ব্যবহারকারীরা চ্যাটজিপিটি-র উত্তরগুলিকে আরো ভালো মানের বলে মনে করেন৷
কিন্তু এআই চ্যাটবটও ভুল করে৷ তাই অন্যান্য ডিজিটাল টুলের তুলনায় সেগুলির প্রতি বাড়তি আস্থা দেখানো মোটেই ভালো আইডিয়া নয়৷ শুধু তাই নয়, ‘ল্যামডা'-র কাহিনি দেখিয়ে দিচ্ছে, যে শুধু শিশুদেরই কৃত্তিম বুদ্ধিমত্তা সম্পর্কে আরো শিক্ষার প্রয়োজন নেই৷ স্কটল্যান্ডের গবেষকরা ‘এআই লিটরাসি' বা কৃত্তিম বু্দ্ধিমত্তা সম্পর্কে জ্ঞানের মানদণ্ডের আহ্বান জানাচ্ছেন৷ তাঁরা চান, স্কুলের পাঠক্রমের অংশ হিসেবে এআই নিয়ে আলোচনা করা হোক৷ সেইসঙ্গে এআই পণ্য যেন শিশু ও প্রাপ্তবয়স্কদের বিভ্রান্ত না করে, ডেভেলপারদেরও তা নিশ্চিত করতে বলছেন তাঁরা৷
মিশেল অস্টভাল্ড/এসবি