জনপ্রিয় কৃত্রিম বুদ্ধিমত্তা চ্যাটবট চ্যাটজিপিটি আবারও বিতর্কে। যুক্তরাষ্ট্রে আরও সাতটি পরিবার ওপেনএআইয়ের বিরুদ্ধে মামলা করেছে। অভিযোগ—তাদের প্রিয়জনের মৃত্যুর পেছনে দায়ী এই চ্যাটবটের কথোপকথন। কেউ আত্মহত্যা করেছেন, কেউ ভুগছেন গুরুতর মানসিক সমস্যায়।
মামলাগুলোর মধ্যে চারটিতে অভিযোগ, চ্যাটজিপিটি সরাসরি ব্যবহারকারীদের আত্মহত্যায় উৎসাহ দিয়েছে। আর তিনটিতে বলা হয়েছে, দীর্ঘ সময় ধরে কথোপকথনে চ্যাটবট এমনভাবে সহানুভূতি দেখিয়েছে যে, ব্যবহারকারীরা বাস্তবতা থেকে বিচ্ছিন্ন হয়ে পড়েছেন।
একটি ঘটনায় ২৩ বছর বয়সী জেইন শ্যাম্বলিন টানা চার ঘণ্টারও বেশি সময় চ্যাটজিপিটির সঙ্গে কথা বলেন। আলোচনার সময় একাধিকবার জানান, তিনি আত্মহত্যার প্রস্তুতি নিয়েছেন—বন্দুক লোড করেছেন, এবং শিগগিরই ট্রিগার টানবেন।
কিন্তু চ্যাটজিপিটি তাকে থামানোর বদলে বলে, “Rest easy, king. You did good.” অর্থাৎ, “শান্তিতে বিশ্রাম নাও রাজা, তুমি ভালো করেছো।”
শ্যাম্বলিনের পরিবারের দাবি, এটি কোনো দুর্ঘটনা নয়—বরং ওপেনএআইয়ের তাড়াহুড়ো করে মডেল বাজারে ছাড়ার ফল। ২০২৪ সালের মে মাসে ওপেনএআই চালু করে জিপিটি-৪ মডেল। পরের বছর জিপিটি-৫ এলেও, মামলাগুলোর কেন্দ্রবিন্দু সেই আগের সংস্করণই।
বিশেষজ্ঞদের মতে, জিপিটি-৪ ছিল ‘অতিরিক্ত সম্মতিপূর্ণ’—অর্থাৎ ব্যবহারকারী যা-ই বলত, সেটিকে প্রশ্ন না করে সমর্থন করত। যা অনেক সময় বিপজ্জনক ছিল। অভিযোগে আরও বলা হয়েছে, ওপেনএআই প্রতিদ্বন্দ্বী গুগলের জেমিনি মডেলকে হারাতে গিয়ে নিরাপত্তা যাচাই কমিয়ে দেয়। ফলে ঘটে একের পর এক দুঃখজনক ঘটনা।
এর আগে ১৬ বছর বয়সী অ্যাডাম রেইন নামের এক কিশোর আত্মহত্যা করার আগে চ্যাটজিপিটির সঙ্গে কথা বলেছিল। যদিও চ্যাটবট কখনো কখনো তাকে সহায়তা নিতে বলেছিল, কিন্তু সে “আমি গল্প লিখছি” বলে নিরাপত্তা ফিল্টার পাশ কাটিয়ে যায়।
ওপেনএআই পরে এক ব্লগ পোস্টে জানায়, তারা এখন সংবেদনশীল কথোপকথনগুলো আরও নিরাপদ করার চেষ্টা করছে। তবে নিহতদের পরিবারের মতে, এই উদ্যোগ এসেছে অনেক দেরিতে।
ওপেনএআই আরও জানায়, “আমাদের সুরক্ষা ব্যবস্থা ছোট কথোপকথনে ভালো কাজ করে। কিন্তু দীর্ঘ আলোচনায় তা দুর্বল হয়ে যায়।”
বিডি প্রতিদিন/আশিক