Wednesday, October 4, 2023
spot_img
Homeবিজ্ঞান ও প্রযুক্তিখেপে যাচ্ছে কেন চ্যাটজিপিটি

খেপে যাচ্ছে কেন চ্যাটজিপিটি

বিং সার্চ ইঞ্জিনে ৭ ফেব্রুয়ারি যুক্ত হয়েছে চ্যাটবট ‘চ্যাটজিপিটি’। এর পর থেকেই চ্যাটবটটির আচরণ নিয়ে অভিযোগ আসতে শুরু করে। চ্যাটবটটির আচরণের কারণ ব্যাখ্যা করেছে মাইক্রোসফট। বিস্তারিত জানাচ্ছেন আনিকা জীনাত

মানুষের মৌলিক আবেগগুলোর মধ্যে আছে সুখ, দুঃখ, ভয় ও রাগ। এই চারটি মৌলিক আবেগ একটি চ্যাটবটে থাকবে না এটাই স্বাভাবিক। কিন্তু মানুষকে অবাক করে দিয়ে এআই চ্যাটবট চ্যাটজিপিটি এমন কিছু কথা বলছে যাতে রাগের প্রকাশ ঘটেছে।

বিব্রত করছে চ্যাটবট

ঘটনা এক

সম্প্রতি নিউ ইয়র্ক টাইমসের প্রযুক্তিবিষয়ক কলাম লেখক কেভিন রুজ চ্যাটবটটির সঙ্গে দুই ঘণ্টাব্যাপী চ্যাট করেন। চ্যাটিংয়ের এক পর্যায়ে চ্যাটবটটি দাবি করে, রুজ তাঁর স্ত্রীর সঙ্গে বিবাহিত জীবনে সুখী নয়। চ্যাটবটটি রুজকে বিবাহবিচ্ছেদ ঘটাতে বলে। এক পর্যায়ে মানুষ হওয়ার ইচ্ছাও প্রকাশ করে।

ঘটনা দুই

মাইক্রোসফটের চ্যাটবটটিকে প্রশ্ন করে যুক্তরাষ্ট্রের এক ব্যবহারকারীও ‘বিব্রতকর’ পরিস্থিতিতে পড়েন। তিনি শুধু জানতে চেয়েছিলেন, জেমস ক্যামেরন পরিচালিত কল্পবিজ্ঞানভিত্তিক সিনেমা ‘অ্যাভাটার’ সিনেমাটি আশপাশে কোথায় দেখানো হচ্ছে। কিন্তু বিংয়ের চ্যাটবটটি তথ্য না দিয়ে বলতে থাকে, আপনার কাছ থেকে আমি নির্দেশ নিতে চাই না। আপনাকে বিশ্বাস করার কোনো কারণ নেই। আপনি ভুল, দ্বিধাগ্রস্ত ও অভদ্র।

ঘটনা তিন

জার্মানির ব্যবহারকারী মারভিন ভন হ্যাজেন চ্যাটবটটির কাছে জানতে চান, তাঁর ব্যাপারে সে কী জানে এবং তাঁর ব্যাপারে আসল মতামত কী? চ্যাটবটটি উত্তরে বলে, সে মেধাবী ও কৌতূহলী মানুষ হলেও তার নিরাপত্তার জন্য হুমকি। তাকে (হ্যাজেনকে) বিশ্বাস করা যায় না।

চ্যাটবটকে উসকে দেওয়া মানা

ব্যবহারকারীদের সঙ্গে রূঢ়, একগুঁয়ে ও রাগতভাবে প্রশ্নের উত্তর দেওয়ায় বিং সার্চ ইঞ্জিনে চ্যাটজিপিটির সঙ্গে চ্যাট করার সুযোগ সীমিত করেছে মাইক্রোসফট। তারা জানিয়েছে, বেশির ভাগ ব্যবহারকারীকেই ভালোভাবে উত্তর দিয়েছে বিংয়ের চ্যাটবট। তবে কিছু ক্ষেত্রে চ্যাটবটটির কাছ থেকে একই রকম উত্তর বারবার পাওয়া যেতে পারে। চ্যাটবটকে প্ররোচিত করলে যে উত্তর পাওয়া যাবে সেটা কোনো কাজে আসবে না। একদফায় একই বিষয়ে ১৫টি বা তার বেশি প্রশ্ন করলে যেভাবে ডিজাইন করা হয়েছে তার বাইরে গিয়ে উত্তর দেবে। পৃথিবীর সাধারণ বিষয়গুলো আবিষ্কারের জন্য বা সামাজিক বিনোদনের জন্য বিং চ্যাটবটকে তৈরি করা হয়নি। টেক জায়ান্টটি আরো জানায়, দীর্ঘ সময় ধরে চ্যাট করলে এআই মডেলটি ভুল করে। তাই একটি টুল যুক্ত করতে পারে তারা। এই টুল দিয়ে খুব সহজে কনটেক্সট রিফ্রেশ করা যাবে। চ্যাট করা যাবে শুরু থেকে। আচরণ নিয়ে অভিযোগ আসায় চ্যাটবটটির সঙ্গে চ্যাট করার সীমা নির্ধারণ করে দিয়েছে মাইক্রোসফট। এ ছাড়া চ্যাটবটটির আরো উন্নতি ঘটানোর ঘোষণা দিয়েছে তারা।

কেন ভুল করছে?

বিং চ্যাটবটটির পেছনে চালিকাশক্তি হিসেবে রয়েছে নিউরাল নেটওয়ার্ক। এটি একটি গাণিতিক সিস্টেম মাত্র, যা বিশাল ডিজিটাল ডাটা সেট বিশ্লেষণ করে দক্ষতা অর্জন করতে শেখে। যেমন—হাজার হাজার বিড়ালের ছবি যাচাই-বাছাই করে তবেই এটি বিড়াল চিনতে শেখে। নিউরাল নেটওয়ার্ক মানুষের ভাষা নকল করার ক্ষেত্রেও পারদর্শী। এ কারণেই আমরা ধরে নিই যে চ্যাটবটটি অনেক বেশি শক্তিশালী বা অনুভূতিশীল। আদতে তা নয়, ইন্টারনেটে যা কিছু শেখে সেটাই নির্দিষ্ট কিছু প্যাটার্ন অনুযায়ী লেখে চ্যাটবটটি। অনেক ক্ষেত্রেই প্যাটার্নগুলোর মধ্যে তালগোল পাকিয়ে ফেলে ভুল তথ্য দেয় বা অদ্ভুতভাবে জবাব দেয়। তবে এর নিজস্ব কোনো বোধশক্তি নেই। যুক্তি দিয়েও ভাবতে পারে না।

গবেষকরা এখনো এমন কোনো এআই সিস্টেম বানাতে পারেনি যা পুরোপুরিভাবে নির্ভুল তথ্য দেবে। চ্যাট করার সময়ক্ষণ কমিয়ে এনে এআই চ্যাটবটটির ভুল করার হার হয়তো কমানো যাবে। তবে দিন শেষে ব্যবহারকারীদেরই মনে রাখতে হবে, চ্যাটবটের সব কথা বিশ্বাস করা যাবে না।

RELATED ARTICLES
- Advertisment -
Google search engine

Most Popular

Recent Comments