২০২৪ সালের জাতীয় নির্বাচনে বাংলাদেশে এআই-জেনারেটেড গুজবের ঘটনা তেমন ছিল না। কারণ, তখন এআই এতটা সহজলভ্য ছিল না। তবে ২০২৬ সালের পূর্বাভাস ভিন্ন। এখন সাধারণ একজন মোবাইল ইন্টারনেট ব্যবহারকারী চাইলেই কয়েক সেকেন্ডে বাংলা ভাষার একটি ভিডিও তৈরি করতে পারছেন। আবার কোনো নিয়ন্ত্রণ বা যাচাইবাছাই ছাড়া সেটিকে আপলোড করে দিচ্ছেন তার সোশ্যাল মিডিয়ায়। অন্যদিকে সোশ্যাল মিডিয়ায় আপলোডের পর ব্যবহারকারীরা বুঝে না বুঝে সেটিকে শেয়ার দিচ্ছেন। মুহূর্তের মধ্যে সেটি ভাইরাল হয়ে পড়ছে। বিশেষজ্ঞরা সতর্ক করেছেন, ডিজিটাল সাক্ষরতা ও নিয়ম না থাকলে ভোটাররা সহজেই বিভ্রান্ত হতে পারেন। সম্প্রতি তথ্য যাচাই বা ফ্যাক্ট চেক উদ্যোগ ডিসমিসল্যাবের একটি গবেষণা প্রতিবেদনে উঠে এসেছে, বাংলাদেশে এআই দিয়ে তৈরি এমন ভিডিওর মাধ্যমে রাজনৈতিক প্রচার চলছে।
সামাজিক যোগাযোগমাধ্যম ফেসবুকে ছড়ানো ৯ সেকেন্ডের একটি ভিডিওতে দেখা যায়, সাদা শাড়ি পরা মধ্যবয়সি এক নারী বাজার থেকে ফিরছেন। তখন মাইক্রোফোন হাতে অন্য একজন নারী সাংবাদিক তাকে থামিয়ে প্রশ্ন করেন, ‘দিদি, এবার ভোট কোথায় দেবেন?’ জবাবে ওই নারী একটি দলকে ভোট দেওয়ার কথা বলেন। আরেকটি ভিডিওতে দেখা যায়, বিকিনি পরা এক নারী দৌড়ে এসে একটি দলকে ভোট দেওয়ার কথা বলছেন। এটা অবশ্য ওই দলের ভাবমূূর্তির জন্য ক্ষতিকর।
এ কথোপকথনগুলোর ভিডিও ক্লিপ দেখে সাধারণ মানুষের মনে হবে এগুলো হয়তো সত্যিকারের ভিডিও। তাদের পোশাক-আশাক এবং আত্মবিশ্বাসী ভঙ্গি এমনকি কথা বলার ধরন সেটিই ইঙ্গিত করে। কিন্তু আসল সত্য হলো : এ নারী, এমনকি সাক্ষাৎকার গ্রহণকারী কেউই বাস্তব নন। পুরোটাই আর্টিফিশিয়াল ইন্টেলিজেন্স (এআই) জেনারেটেড সিনথেটিক কন্টেন্ট।
প্রথম নজরে এ ভিডিওগুলো মনে হয় সমাজের বিভিন্ন শ্রেণি, ধর্ম ও পেশার মানুষের মতামতের প্রতিনিধিত্ব করছে। কিন্তু সমস্যা হলো, এ ভিডিওগুলোর কোনো মানুষই বাস্তব নয়। প্রতিটি মুখ, কণ্ঠ, পটভূমি-সবই কৃত্রিম বুদ্ধিমত্তা (এআই) দিয়ে তৈরি।
তথ্য যাচাই বা ফ্যাক্ট চেক উদ্যোগ ডিসমিসল্যাবের একটি গবেষণা প্রতিবেদন বলছে, বাংলাদেশে এআই দিয়ে তৈরি এমন ভিডিও সামাজিক যোগাযোগমাধ্যমে ছেড়ে রাজনৈতিক প্রচার চলছে। পাশাপাশি রাজনৈতিক দলের নেতার নামে কুৎসা রটানো, অপপ্রচার ও ভাবমূর্তি ক্ষুণ্ন করার চেষ্টাও চলছে।
ডিসমিসল্যাব তাদের গবেষণায় গত ১৮ থেকে ২৮ জুন সময়ে ফেসবুকের বিভিন্ন পেজ ও গ্রুপ থেকে ৭০টি ভিডিও সংগ্রহ ও বিশ্লেষণ করেছে। এআই দিয়ে তৈরি রাজনৈতিক এসব ভিডিও বিশ্লেষণে তারা দেখেছে- অধিকাংশ ক্ষেত্রেই উল্লেখ করা হয়নি যে এগুলো এআই দিয়ে তৈরি। ভিডিওগুলো অনেকটাই নিখুঁত। ফলে মানুষের বিভ্রান্ত হওয়ার আশঙ্কা থাকে।
বিশেষজ্ঞরা বলছেন, বাংলাদেশে আগামী জাতীয় সংসদ নির্বাচনকে কেন্দ্র করে এ ধরনের ভিডিও দিয়ে ব্যাপকভাবে অপপ্রচার ও কুৎসা রটানোর ঘটনা ঘটতে পারে। কারণ, এ নিয়ে সঠিক কোনো নিয়মনীতি বা কার্যকর আইন সেভাবে প্রয়োগ হচ্ছে না। এ ধরনের ভিডিও সহিংসতাও উসকে দিতে পারে।
কোটি কোটি ‘ভিউ’
ডিসমিসল্যাবের বিশ্লেষণ করা ভিডিওগুলো ওই সময় পর্যন্ত ২ কোটি ৩০ লাখের বেশিবার দেখা হয়েছে। এ ভিউর সংখ্যা প্রতিদিনই বাড়ছে। ভিডিওগুলোতে ব্যবহারকারীরা রিঅ্যাকশন (প্রতিক্রিয়া) দিয়েছেন ১০ লাখের বেশি। ডিসমিসল্যাব তাদের গবেষণায় বলছে, প্রতিটি ভিডিও গড়ে প্রায় ৩ লাখ ২৮ হাজারবার দেখা হয়েছে এবং গড়ে ১৭ হাজার রিঅ্যাকশন পেয়েছে, যা প্রমাণ করে এ কনটেন্ট দ্রুত ছড়িয়ে পড়ছে। সবচেয়ে বড় ব্যাপার হলো, একবার ছড়িয়ে পড়া কনটেন্ট অন্য ব্যবহারকারীরা না বুঝে শেয়ার দেন। কেউ কেউ আবার ডাউনলোড করে নিজের প্রোফাইল বা পেজে ফের আপলোড দেন। এভাবে ফেসবুকে ছড়িয়ে পড়া কনটেন্ট দ্রুত জায়গা করে নেয় ইউটিউব ইন্সটাগ্রাম কিংবা টিকটকের মতো প্রভাবশালী প্ল্যাটফর্মে।
গবেষণা প্রতিবেদনে ভিডিওগুলোকে ‘সফটফেক’র কাছাকাছি বলে উল্লেখ করা হয়েছে। মানে হলো, এতে কৃত্রিমভাবে সাধারণ মানুষের অবয়ব ও কণ্ঠস্বর তৈরি করা হয়েছে। অন্যদিকে ‘ডিপফেক’ হলো একজন ব্যক্তির অবিকল অবয়ব ও কণ্ঠস্বর দিয়ে ভুয়া ভিডিও তৈরি করা।
ডিসমিসল্যাবে ভিডিওগুলোকে বিশেষজ্ঞরা বলছেন, এগুলো ডিপফেকের মাঝামাঝি একপর্যায়ের। ডিপফেককে আমরা যেমনটা ভাবি, এটা তার চেয়েও বেশি বিপজ্জনক। কারণ, এগুলো নিয়ে আমাদের সতর্কতা কম।
যেভাবে তৈরি হচ্ছে ঝুঁকিপূর্ণ এসব ভিডিও
এআই জেনারেটেড কনটেন্ট আমাদের এ উপমহাদেশে দ্রুত প্রভাব বিস্তার করে ২০২৫ সালের শুরুর দিকে। তবে প্রথমদিকে টুলগুলো এতটা সহজলভ্য ছিল না। কেউ কেউ টেক্সট টু ভিডিও জেনারেট করত আবার কেউ কেউ প্রথমে টেক্সট টু ইমেজ এবং পরবর্তী সময়ে সেই ইমেজ ব্যবহার করে ইমেজ টু ভিডিও জেনারেট করত। সেজন্য ভিন্ন ভিন্ন একাধিক টুল ব্যবহার করতে হতো। আবার এআই ভয়েসওভারের জন্য পাওয়ারফুল বাংলা ভয়েস বা ন্যাটিভ বাংলা উচ্চারণের ভয়েসও এতটা সহজলভ্য ছিল না। কিন্তু এ ব্যাপারটি পুরোপুরি পাল্টে দেয় সার্চ ইঞ্জিন গুগলের নতুন ভিডিও জেনারেশন এআই টুল ভিইও থ্রি। ভিও আগেই লঞ্চ হলেও বিপ্লব আসে ২০২৫ সালের মে মাসে ভিইও থ্রি চালু হওয়ার পর। এই প্রথম ব্যবহারকারীরা একই সঙ্গে টেক্সট টু ইমেজের পাশাপাশি লিপসিংকসহ একই ফুটেজে ভয়েস জেনারেটের সুযোগ পায়। অন্যান্য ভিডিও জেনারেশন এআই যেখানে ৪ ও ৫ সেকেন্ডের ভিডিও জেনারেট করে দিচ্ছিল সেখানে ভিইও থ্রি দেওয়া শুরু করে ৮ সেকেন্ডের পূর্ণাঙ্গ ভিডিও। সবচেয়ে আঁতকে ওঠার মতো বিষয় হলো-ভিইও থ্রির বাংলা ভয়েসগুলো এতটাই নিখুঁত যে, সাধারণ ব্যবহারকারীদের জন্য সেটা ধরা অনেক কঠিন। শুধু তাই নয়, গুগলের এই এআই বাংলা আঞ্চলিক ভাষাও ব্যবহারে সক্ষম। আর সে কারণেই ডিসমিসল্যাব বলছে, বিকৃত মুখাবয়ব, অস্বাভাবিক কণ্ঠস্বর ইত্যাদি কারণে আগে এআই দিয়ে তৈরি ভিডিওগুলো সহজেই শনাক্ত করা যেত; কিন্তু ভিইও-৩ দিয়ে তৈরি এআই ভিডিও সহজে শনাক্ত করা যায় না। তাই সাধারণ ব্যবহারকারীরা এ ধরনের ভিডিও দেখে সহজেই বিভ্রান্ত হয়ে পড়ছেন।
কারা বানাচ্ছেন এসব ভিডিও
সাধারণ ব্যবহারকারীরা এআই এক্সপ্লোর করতে গিয়ে ভিডিও নির্মাণ করে সেটি সোশ্যাল মিডিয়া প্ল্যাটফর্মে শেয়ার করছেন। এর মধ্যে কেউ কেউ তাদের ভিডিওতে নিজেদের রাজনৈতিক মতাদর্শ ছড়িয়ে দিচ্ছেন। অনেকে আবার না বুঝেই ঝুঁকিপূর্ণ অথবা আপত্তিকর কনটেন্ট তৈরি করে সেটি ছড়িয়ে দিচ্ছেন সামাজিক যোগাযোগমাধ্যমে।
তবে রাজনৈতিক প্রচারণার ভিডিওগুলো নিয়ে ডিসমিসল্যাবের গবেষণায় বলা হয়েছে, তাদের কাছে প্রতীয়মান হয়েছে যে, এআই দিয়ে ভিডিও তৈরি করে প্রচার সবার আগে শুরু করেছেন জামায়াতে ইসলামীর সমর্থকরা। গত জুনের মাঝামাঝি সময় থেকে তারা কাজটি শুরু করে। ‘জামায়াত-শিবির সাপোর্টার্স’ নামে একটি ফেসবুক পেজে এমন বেশকিছু ভিডিও পেয়েছেন তারা।
ভিডিওগুলোর ওয়াটারমার্ক (জলছাপ) অনুসরণ করে পেজটি পরিচালনাকারীদের খোঁজ পায় ডিসমিসল্যাব। তারা ডিসমিসল্যাবকে জানিয়েছেন, এ প্রচার জামায়াতের কেন্দ্রীয় পরিকল্পনার অংশ নয়; বরং দলীয় সমর্থক ও কর্মীরা স্বতঃস্ফূর্তভাবে এসব তৈরি করেছেন। জামায়াতের সমর্থনে বেশকিছু ভিডিও আসার পর বিএনপি, জাতীয় নাগরিক পার্টি (এনসিপি), ইসলামী আন্দোলন বাংলাদেশসহ অন্যান্য দলের সমর্থকরাও এআই দিয়ে ভিডিও তৈরি করে প্রচার করতে শুরু করেন। এমনকি কার্যক্রম নিষিদ্ধ থাকা অবস্থায়ও আওয়ামী লীগের সমর্থকদের এ ধরনের ভিডিও ছড়াতে দেখা গেছে।
বেশির ভাগ ভিডিওতে উল্লেখ নেই ‘এআই নির্মিত’
আর্টিফিশিয়াল ইন্টেলিজেন্স বা এআই নির্মিত কনটেন্টের জোয়ার ঠেকাতে হিমশিম খাচ্ছে স্ট্রিমিং প্ল্যাটফর্ম ও সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলো। তবে তারা প্রতিনিয়ত তাদের নীতিমালা সম্প্রসারণ ও পরিবর্তন করছেন। ফেসবুকের মূল প্রতিষ্ঠান মেটার নীতিমালা অনুযায়ী, এআই দিয়ে তৈরি ভিডিওতে উপযুক্ত লেবেল অর্থাৎ এটি যে এআই দিয়ে তৈরি বা নির্মিত সেটি উল্লেখ থাকতে হবে। ডিসমিসল্যাবের বিশ্লেষণ করা ৭০টি ভিডিওর একটিতেও এ ধরনের কোনো চিহ্ন লেবেল বা উল্লেখ ছিল না। সবচেয়ে বড় ব্যাপার হচ্ছে, মেটার অ্যালগরিদম বা স্বয়ংক্রিয় যাচাই ব্যবস্থাও ভিডিওগুলো শনাক্ত করতে পারেনি। আবার ভিডিওগুলোর প্রেক্ষাপট এমনভাবে তৈরি যাতে করে দর্শকের মনে হয় তার একেবারে পাশের বাড়ির কিংবা কাছের চেনা কেউ কথা বলছে। ডিসমিল্যাবের গবেষণায় ব্যবহৃত ৭০টি ভিডিওর বেশির ভাগ ক্লিপ ৮ সেকেন্ডের। তবে এর মধ্যে কিছু কন্টেন্ট রয়েছে যেগুলোকে লম্বা এপিসোডিক ভিডিওতে যুক্ত করা হয়েছে। অর্থাৎ আট সেকেন্ড করে জোড়া লাগিয়ে কিংবা ধারাবাহিকতা বজায় রেখে পূর্ণ ভিডিও নির্মাণ করা হয়েছে। এতে এআই-জেনারেটেড বিভিন্ন পেশার মানুষ- ফল বিক্রেতা, রিকশাচালক, দিনমজুর, পেশাদার, উচ্চবিত্ত এবং এমনকি হিন্দু নারীও একটি নির্দিষ্ট দলকে ভোট দেওয়ার কথা বলছেন। যেটি স্পষ্টতই একটি রাজনৈতিক জনমত তৈরির চেষ্টা বলে প্রতীয়মান হচ্ছে। অনেক ভিডিওতে কৌশলগতভাবে পরিচয় ব্যবহার করা হয়েছে। হিজাব পরা নারী, সিঁদুর পরা নারী, পেশাদার ও শ্রমজীবী মানুষ-সবাই একটি দলকে সমর্থন জানাচ্ছেন।শুধু ফেসবুক নয় একই অবস্থা ইউটিউব, টিকটক ইন্সটাগ্রামের। অন্যদিকে টিকটকেরও বেশকিছু ভিডিও বিশ্লেষণ করেছে ডিসমিসল্যাব। টিকটকের ২৬টি ভিডিওর মধ্যে ৯টিতে কোনো ধরনের লেবেল বা উল্লেখ ছিল না। বাকি ভিডিওগুলোতে কেবল নিচে সাধারণ একটি সতর্কবার্তা দেখা গেছে বলে গবেষণায় উল্লেখ করেছে ডিসমিসল্যাব।
ভার্চুয়াল যুদ্ধ
আর্টিফিশিয়াল ইন্টেলিজেন্স বা এআই নির্মিত কনটেন্ট দিয়ে প্রচারণা করার ক্ষেত্রে অনেকেই দোষের কিছু দেখছেন না। কিন্তু এ ব্যাপারে নীতিমালা থাকাটাকে অপরিহার্য মানছেন সবাই। এর মধ্যেই এআই নির্মিত ভিডিওগুলোতে এক দলের সমর্থকরা অন্য দলের বিরুদ্ধে কুৎসা রটনা করছেন। এসব ক্ষেত্রে অনেকেই অপতথ্য ছড়াচ্ছেন। যার বিরুদ্ধে অপতথ্য ছড়ানো হচ্ছে তার সমর্থকরা আবার একইরকমভাবে বিরোধিতা করে ভিডিও নির্মাণ করছেন। ফলে এটি এক ধরনের ভার্চুয়াল যুদ্ধের পরিবেশ তৈরি করছে, যেখানে হিংসাত্মক ও অনৈতিক প্রতিদ্বন্দ্বিতা তৈরি হচ্ছে।
পদক্ষেপ না নিলে মারাত্মক বিপদের আশঙ্কা
ভিইও-৩ যাত্রা শুরুর ৩ মাসের মধ্যেই এ ধরনের সফটফেক ভিডিওতে ছেয়ে গেছে আমাদের সোশ্যাল মিডিয়া। সময়ের সঙ্গে সঙ্গে এ ধরনের ভিডিও নির্মাণ, প্রচার ও প্রসার কেবল বাড়বেই। বাংলাদেশ টেলিযোগাযোগ নিয়ন্ত্রণ কমিশনের (বিটিআরসি) হিসাবে, গত এপ্রিলের শেষে বাংলাদেশে ইন্টারনেটের গ্রাহক দাঁড়িয়েছে ১৩ কোটির বেশি। মানুষের হাতে হাতে স্মার্টফোন পৌঁছে গেলেও তাদের মধ্যে সচেতনতার অভাব রয়েছে। আর এখানেই মূলত সবচেয়ে বেশি বিপদের আশঙ্কা। অধিকাংশ সাধারণ ব্যবহারকারী বুঝতেই পারছেন না যে, এ ধরনের ভিডিও আসলে এআই নির্মিত। সে কারণেই এ ধরনের ভিডিও প্রচারণা মোকাবিলায় এখন থেকেই পদক্ষেপ নেওয়া জরুরি বলে মনে করছেন বিশেষজ্ঞরা।
নির্বাচনি আচরণবিধিতে নেই এআই প্রসঙ্গ
যুক্তরাষ্ট্র ও ইউরোপে এআই’র রাজনৈতিক ব্যবহার নিয়ে নিয়ম থাকলেও বাংলাদেশে এমন কোনো নীতিমালা নেই; কিন্তু বর্তমান প্রেক্ষাপটে এটা থাকা ভীষণ জরুরি। কোন বিষয়ে ভিডিও বানানো যেতে পারে, কোনটা নিষিদ্ধ এমন নিয়মের পাশাপাশি পরিষ্কার লেবেলিং, ফরেনসিক ল্যাব স্থাপন এবং জনসচেতনতা বাড়ানোর বিকল্প নেই বলে জানিয়েছেন বিশেষজ্ঞরা। এদিকে সম্প্রতি ঘোষিত ‘সংসদ নির্বাচনে রাজনৈতিক দল ও প্রার্থীর আচরণ বিধিমালা ২০২৫’-এর খসড়ায় এআই ব্যবহারের বিষয়ে কোনো সুস্পষ্ট নির্দেশনা নেই। বিশেষজ্ঞরা বলছেন, প্রযুক্তির এ ঝুঁকি মোকাবিলায় সুনির্দিষ্ট আইন ও নীতিমালার প্রয়োজন। বাংলাদেশে এখনো ডিজিটাল গণমাধ্যম সম্পর্কে সচেতনতা সীমিত, গুজব যাচাইয়ের প্রবণতা দুর্বল এবং বিদ্যমান আইনি কাঠামো অপর্যাপ্ত। ফলে এআই দিয়ে গুজব ছড়ানো সহজ হয়ে উঠেছে।
বৈশ্বিক উদ্বেগ
নির্বাচন ও রাজনৈতিক প্রচারণায় এআই-এর ব্যবহার নিয়ে সারা বিশ্বেই তৈরি হয়েছে উদ্বেগজনক পরিস্থিতি। ২০২১ সালে দক্ষিণ কোরিয়ার একটি রাজনৈতিক নির্বাচনি বিজ্ঞাপনে ডিপফেক প্রযুক্তির ব্যবহার সবাইকে চমকে দেয়। ভিডিওটিতে একজন সুপরিচিত রাজনীতিবিদকে ভাষণ দিতে দেখা যায়। এটি বাস্তবসম্মত ছিল যে কেউ সন্দেহ করেনি ফুটেজটি কৃত্রিমভাবে তৈরি। কয়েক সপ্তাহ ধরে জনগণ বিশ্বাস করেছিল এ ভিডিওটি সত্যিকারের ভিডিও। কয়েক সপ্তাহ যাওয়ার পর এআই বিশেষজ্ঞরা ফুটেজটি বিশ্লেষণ করে জানতে পারে এটি এআই নির্মিত ডিপফেক একটি ভিডিও।
একই ধরনের প্রযুক্তি যুক্তরাষ্ট্রেও দেখা গেছে, যেখানে হারিকেন হেলেনের মতো ঘটনার এআই-জেনারেটেড ছবি এমনভাবে অনলাইনে ছড়িয়ে দেওয়া হয়েছিল যেন সেগুলো বাস্তব। নির্বাচনি প্রচারণায়ও এ ধরনের এআই নির্মিত কনটেন্টের ব্যবহার দেখা গেছে। এআই এখন রকেটের গতিতে এগিয়ে যাচ্ছে। এ এগিয়ে চলা ও বিবর্তনের ধারা অব্যাহত থাকায় বৈশ্বিক উদ্বেগ বাড়ছে। জনমতকে প্রভাবিত করার জন্য আশঙ্কা বাড়ছে।
অন্যদিকে ইউরোপীয় নির্বাচনে এএফডির সাবেক প্রধান প্রার্থী ম্যাক্সিমিলান ক্রাহ নিজের টিকটক অ্যাকাউন্টে এমন হাজার হাজার এআই-এর তৈরি ছবি পোস্ট করেছেন। সেসব ছবিতে যেসব অস্বাভাবিক চেহারা উঠে এসেছে তাদের কেউ-ই আসল নয়। ইইউ ও প্রেসিডেন্ট নির্বাচনের আগে ফ্রান্সের বিভিন্ন রাজনৈতিক দলকেও এআই দিয়ে এমন ভুয়া ছবি তৈরি করতে দেখা গেছে, যেগুলোর লক্ষ্য ছিল, মানুষের মানসিক উত্তেজনা বাড়িয়ে দেওয়া। এ কনটেন্ট খুব দ্রুতই তৈরি করা সম্ভব। আর এগুলো বানানো সহজ ও সাশ্রয়ী। এ কারণেই বিশ্বজুড়ে এআই জেনারেটেড কনটেন্ট দিয়ে রাজনৈতিক প্রচারণা চালানোর চেষ্টা চলছে আর সেখানেই বাড়ছে উদ্বেগ-উৎকণ্ঠা। সফটফেকের পাশাপাশি আতঙ্কের নাম ডিপফেইক ভিডিও। যা কণ্ঠস্বর, কথা বলার অঙ্গভঙ্গি নকল করে আসলের মতো দেখায়, বিভিন্ন রকম এমন ভিডিও তৈরি করে থাকে। অন্যদিকে সফটফেক ভিডিও কম্পিউটার থেকে তৈরি কি না তা লুকানোর তেমন প্রয়োজনীয়তা দেখা যায় না।