২০২৪ সালের ঘটনা। হংকংয়ের একটি মাল্টিন্যাশনাল কোম্পানি। সেখানকার ফাইন্যান্স ডিভিশনের এক কর্মকর্তার কাছে লন্ডন থেকে এল ভিডিও কল। স্ক্রিনে তার বসের মুখ। বস শুধু একা নন, সাথে আছেন পরিচিত কয়েকজন কলিগ। বস বললেন, “জরুরি একটা বিজনেস ডিল হচ্ছে, এখনই ২৫ মিলিয়ন ডলার মানে প্রায় ৩০০ কোটি টাকা ট্রান্সফার করতে হবে।” বস কথা বলছেন, চশমা ঠিক করছেন, কলিগরা মাথা নাড়ছেন। সন্দেহ করার কোনো কারণই নেই, তাই না? অফিসার টাকাটা পাঠিয়ে দিলেন। আর ঠিক তখনই ঘটল অঘটন। কদিন পর জানা গেল, ওই ভিডিও কলে অফিসার ছাড়া আর কোনো রক্ত-মাংসের মানুষই ছিল না! বস, কলিগ সবাই ছিল এআই দিয়ে তৈরি করা ‘ডিজিটাল পুতুল’। সিএনএন আর হংকং পুলিশ বলছে, এটা ইতিহাসের অন্যতম বড় ডিপফেক স্ক্যাম।
শুভেচ্ছা সবাইকে।
ছোটবেলায় বড়রা বলতেন, “চোখে না দেখলে বিশ্বাস করো না।” আর ২০২৬ সালে এসে দাঁড়িয়ে দোরগোড়ায় দাঁড়িয়ে বলতে হচ্ছে, “চোখে দেখলেও বিশ্বাস করবেন না!” আজ আমরা সেই প্রযুক্তি নিয়ে কথা বলব, যা সত্য আর মিথ্যার মাঝখানের দেয়ালটা গুঁড়িয়ে দিয়েছে। তার নাম ডিপফেক (Deepfake)।
এখন প্রশ্ন হলো, এই ভয়ংকর জিনিসটা এল কোথা থেকে? কোনো সায়েন্স ল্যাব থেকে; নাকি নাসা বা পেন্টাগন থেকে? একদমই না। এর জন্ম ইন্টারনেটের এক অন্ধকার গলিতে। সালটা ২০১৭। ‘রেডিট’ (Reddit) নামের জনপ্রিয় ওয়েবসাইটের একজন ইউজার, যার ছদ্মনাম ছিল “Deepfakes”। হঠাৎ তিনি হলিউডের বিখ্যাত নায়িকাদের মুখ কেটে পর্নোগ্রাফিক ভিডিওতে বসিয়ে কিছু ভিডিও আপলোড করতে শুরু করেন। তার উদ্দেশ্য ছিল নিছকই বিকৃত বিনোদন। মূলত ‘Deep Learning’ এবং ‘Fake’—এই দুটো শব্দকে জোড়া লাগিয়ে নাম দেন ‘Deepfake’। তিনি তার তৈরি করা কোড বা সফটওয়্যারটা সবার জন্য উন্মুক্ত করে দেন। ব্যাস! যে কাজটা করতে আগে হলিউডের কোটি কোটি টাকা, বিশাল স্টুডিও লাগত, সেটা চলে এল আপনার-আমার মতো সাধারণ মানুষের ল্যাপটপে।
আপনাদের মনে প্রশ্ন জাগতে পারে, কম্পিউটার এত নিখুঁতভাবে মানুষের নকল করতে পারে কীভাবে? এর পেছনের বিজ্ঞানটা কিন্তু বেশ ইন্টারেস্টিং। এটাকে বলা হয় জেন (GAN) বা জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক। খুব কঠিন লাগছে নামটা? আসুন সহজ একটা গল্পের মাধ্যমে বুঝি।
ধরুন দুজন বন্ধু। একজন ‘চোর’, আরেকজনের নাম ‘গোয়েন্দা’। ‘চোর’-এর কাজ হলো বিখ্যাত কোনো ব্যক্তির নকল ছবি আঁকা। আর ‘গোয়েন্দা’-র কাজ হলো সেই ছবি দেখে বলা, এটা আসল না নকল।
খেলার শুরুতে চোর খুব বাজে ছবি আঁকে। গোয়েন্দা সহজেই ধরে ফেলে বলে, “ধুর! এটা তো নকল।” চোর তখন আবার চেষ্টা করে, এবার একটু ভালো আঁকে। গোয়েন্দা আবার ভুল ধরে। এভাবে লক্ষ লক্ষ বার এই চোর-পুলিশ খেলা চলতে থাকে।
চোর নিজেকে শুধরাতে শুধরাতে এমন এক পর্যায়ে পৌঁছায়, যখন এত নিখুঁতভাবে নকল ছবি তৈরি করে যে গোয়েন্দা আর আসল-নকলের পার্থক্যই করতে পারে না। হার মেনে নেয়। আর বর্তমানে এই পুরো প্রসেসটা আর্টিফিশিয়াল ইন্টিলিজেন্স (Artificial Intelligence) বা এআই করে ফেলছে চোখের পলকে। আর ঠিক এই প্রক্রিয়াতেই জন্ম হয় একটা পারফেক্ট ডিপফেক ভিডিও’র। আর বর্তমানে জেন (GAN) -ই একমাত্র হাতিয়ার নয়। সময়ের সাথে প্রযুক্তি আরও ভয়ংকর রূপ নিচ্ছে। ওপেনএআই-এর ‘সোরা’ (Sora) বা ‘হে-জেন’ (HeyGen)-এর মতো টুল এবং ‘ডিফিউশন মডেল’ নামের প্রযুক্তি দিয়ে শুধু কিছু টেক্সট লিখলেই-যেমন, ‘একজন মানুষ হাসছে” লিখেই অবিশ্বাস্য রিয়েলিস্টিক ভিডিও বা ছবি তৈরি করা যায়। এছাড়া আরও উন্নত ‘অটোএনকোডার’ দিয়ে শুধুমাত্র একটি ছবি থেকেই ভিডিও বানানো সম্ভব।
প্রথমদিকে এই প্রযুক্তি ব্যবহার করা হতো সিনেমার পর্দায় ম্যাজিক দেখানোর জন্য। মনে আছে ‘Fast & Furious 7’ মুভির কথা? শুটিং শেষ হওয়ার আগেই মর্মান্তিক এক গাড়ি দুর্ঘটনায় মারা যান পল ওয়াকার। সারা বিশ্ব তখন শোকস্তব্ধ। কিন্তু সিনেমার শেষে আমরা পলকে বিদায় জানাতে দেখলাম। সেটা কীভাবে সম্ভব হলো? তার ভাইদের বডি ডাবল হিসেবে ব্যবহার করে, এবং কম্পিউটার গ্রাফিক্সের জাদুতে মৃত পল ওয়াকারকে পর্দায় ফিরিয়ে আনা হয়েছিল। একইভাবে ‘স্টার ওয়ার্স’ সিনেমায় মৃত অভিনেতা পিটার কুশিংকে জীবন্ত করা হয়েছিল। হলে বসে আমরা হাততালি দিয়েছিলাম। ভেবেছিলাম, বাহ! কী দারুণ প্রযুক্তি।
আর এই প্রযুক্তির একটি সুন্দর দিক হচ্ছে চিকিৎসা ও মানবিক কাজে এর ব্যবহার। গুগল-এর ‘Project Euphonia’ প্রজেক্ট স্ট্রোক রোগীদের অস্পষ্ট কথাকে পরিষ্কার ভাষায় রূপান্তর করে তাদের প্রিয়জনের সাথে যোগাযোগে সাহায্য করছে। আবার দক্ষিণ কোরিয়ার এক মা, ভার্চুয়াল রিয়েলিটি আর ডিপফেক প্রযুক্তির সাহায্যে মৃত ৭ বছর বয়সী মেয়ের সাথে কথা বলার, তার হাসি দেখার একটি স্বল্প মুহূর্ত পেয়েছিলেন, যা তার জন্য ছিল অনন্ত সান্ত্বনা।
কিন্তু আমরা বুঝতেই পারিনি, যে প্রযুক্তি মৃত মানুষকে পর্দায় ফেরাতে পারে, সেই প্রযুক্তিই জীবিত মানুষের জীবনকে নরকও বানিয়ে ফেলতে পারে।
শুরুতেই বলা হংকং-এর গল্পটি ছিল কেবলই একটি ফাইন্যান্সিয়াল স্ক্যাম। টাকার ক্ষতিও নাহয় পুষিয়ে নেয়া যায়, কিন্তু ডিপফেক টেকনোলজি বহু মানুষের জীবনে রীতিমতো ট্রমা হয়ে উঠেছে। আরো একটা ঘটনা বললেই ব্যাপারটা পরিষ্কার হবে। আমেরিকার এরিজোনা স্টেটের জেনিফার ডি’স্টেফানোর ঘটনাটা শুনলে যেকোনো মানুষের গা শিউরে উঠবে। ঘটনাটা এই তো মাত্র তিন বছর আগের। ২০২৩ সালের এপ্রিলের ঘটনা। জেনিফার নামের এক নারীর কাছে অপরিচিত নম্বর থেকে একটা ফোন আসে। ফোনটা রিসিভ করতেই তিনি ওপাশ থেকে তার ১৫ বছর বয়সী মেয়ের কান্নার আওয়াজ শুনতে পান। মেয়েটি ফুঁপিয়ে ফুঁপিয়ে কাঁদছে আর বলছে, “Mom, I messed up!”।
জেনিফার বললেন, “কী হয়েছে মা?” সাথে সাথে এক ভারী গলার পুরুষ কণ্ঠ ভেসে এল। লোকটা হুমকি দিল, “তোমার মেয়ে আমার কাছে। এখনই ১ মিলিয়ন ডলার না দিলে ওকে মেক্সিকোতে পাচার করে দেব, আর কোনোদিন খুঁজে পাবে না।”
জেনিফার তখন আতঙ্কে জমে গেছেন। তিনি শতভাগ নিশ্চিত, ওটা তার মেয়ের গলা। তার কান্নার ধরণ, গলার টোন সবকিছু হুবহু। কোনো মা কি তার সন্তানের কান্না চিনতে ভুল করবে? প্রায় আধপাগল হয়ে এক মিলিয়ন ডলার অর্থাৎ প্রায় ১২ কোটি টাকার খোঁজে ছুটতে লাগলেন জেনিফার।
কিন্তু টুইস্ট হলো, তার মেয়ে আসলে নিরাপদেই ছিল। সে তখন স্কি ট্রিপে বন্ধুদের সাথে আড্ডা দিচ্ছিল। পুরো ফোন কলটাই ছিল একটা সাজানো নাটক। তাহলে ওই গলার আওয়াজ?
এফবিআই (FBI) এবং প্রযুক্তি বিশেষজ্ঞরা বলছেন, হ্যাকাররা এখন সোশ্যাল মিডিয়া যেমন, টিকটক, ইনস্টাগ্রাম বা ইউটিউব ভ্লগ থেকে আপনার বা আপনার সন্তানের গলার স্বর চুরি করছে। অবিশ্বাস্য হলেও সত্য, এখনকার এআই টুলস দিয়ে মাত্র কয়েক সেকেন্ডের অডিও স্যাম্পল থাকলেই যে কারও কণ্ঠ হুবহু নকল করা সম্ভব!
ভাবুন তো কী ভয়ংকর! আপনি হয়তো ফেসবুকে একটা ভিডিওতে বলেছেন, “হ্যালো এভরিওয়ান”। ব্যাস, সেটুকুই যথেষ্ট আপনার ডিজিটাল ক্লোন তৈরি করার জন্য এবং এই প্রযুক্তির সবচেয়ে খারাপ ব্যবহার দেখা যায় ব্যক্তিগত আক্রমণে। ডিপফেক এখন ডিজিটাল নির্যাতনের একটি প্রধান হাতিয়ার। বিশেষ করে নারীদের বিরুদ্ধে। ‘অনুমতিহীন অশ্লীল কন্টেন্ট’ তৈরি করা একটি বৈশ্বিক মহামারির রূপ নিয়েছে। এটি শুধু একটি ছবি নয়, এটি মানসিক আঘাত, সমাজে হেয়প্রতিপন্ন করা এবং ব্যক্তির জীবন ও ক্যারিয়ার ধ্বংস করার হাতিয়ার।
ব্যক্তিগত জীবন থেকে এবার আসা যাক রাজনীতির মাঠে। কারণ, রাজনীতির মাঠেই সবচেয়ে বড় ডিপফেকের ব্যবহার হচ্ছে।
পাশের দেশ ভারতের ২০২৪ সালের নির্বাচনকে বলা হচ্ছে বিশ্বের প্রথম নির্বাচন, যেখানে ‘এআই-কে পুরোদমে ব্যবহার করা হয়েছে। সেখানে আমরা দেখেছি অদ্ভুত এক দৃশ্য। তামিলনাড়ুর প্রয়াত নেতা করুণানিধি, যিনি ২০১৮ সালে মারা গেছেন, তাকে এআই দিয়ে জীবন্ত করে নির্বাচনী জনসভায় ভাষণ দেওয়ানো হলো! তিনি চশমা পরলেন, তার সেই আইকনিক ভঙ্গিতে কথা বললেন, এবং নিজের ছেলের জন্য ভোট চাইলেন। মৃত মানুষকে দিয়ে ভোট চাওয়ানো! নৈতিকতার এর চেয়ে বড় অধঃপতন আর কী হতে পারে?
আবার দেখুন, ভারতের প্রধানমন্ত্রী নরেন্দ্র মোদী এমন সব আঞ্চলিক ভাষায় ভোটারদের নাম ধরে সম্বোধন করে ভিডিও বার্তা পাঠালেন, যে ভাষাগুলো তিনি আসলে জানেনই না। এদিকে ভোটাররা ভাবলেন, “ইশ! নেতা আমাদের ভাষায় কথা বলছেন” ইমোশনাল ম্যানুপুলেশন যে ভালোই হয়েছিল, তা ভোটের ফলাফলেও দেখা যায়। কিন্তু আসলে পুরোটাই ছিল আর্টিফিশিয়াল ইন্টিলিজেন্সের কারসাজি।
আর আমাদের বাংলাদেশে? একটা ঘটনা দিয়েই শুরু করি। ইদানিং ফেসবুকে স্ক্রল করতে করতে হয়তো আপনার চোখে পড়েছে—দেশের বিখ্যাত সব তারকা বা ক্রিকেটাররা বিভিন্ন ‘অনলাইন জুয়া’ বা ‘ইনভেস্টমেন্ট অ্যাপ’-এর হয়ে কথা বলছেন। ভিডিওতে তারা বলছেন, “এই অ্যাপে টাকা রাখলেই দ্বিগুণ লাভ!” সাধারণ মানুষও তাদের পরিচিত পছন্দের তারকাদের কথায় আস্থা রেখে বিনিয়োগ করে বসছেন। তারকাদের গলার স্বর, কথা বলার ভঙ্গি সব এতটাই নিখুঁত যে সাধারণ মানুষের বোঝার উপায় নেই। অথচ ‘রিউমার স্ক্যানার’ (Rumor Scanner)-এর মতো ফ্যাক্ট-চেকিং সংস্থাগুলো প্রমাণ করেছে, এই ভিডিওগুলোর সবই ডিপফেক। তারকাদের পুরোনো কোনো ইন্টারভিউয়ের ভিডিও নিয়ে, সেখানে এআই (AI) প্রযুক্তিতে তাদের মুখে ভুয়া কথা বসিয়ে হাজার হাজার তরুণকে জুয়ার ফাঁদে ফেলা হচ্ছে। ফলাফল? রাতারাতি সর্বস্বান্ত হচ্ছে অসংখ্য মানুষ।
এখানেই শেষ নয়। এসব ভুয়া ভিডিও মুহূর্তের মধ্যে একটা দেশে দাঙ্গা লাগিয়ে দিতে পারে, সরকারকে বিপদে ফেলতে পারে, এমনকি নিরীহ মানুষের প্রাণও কেড়ে নিতে পারে।
আবার উল্টো ঘটনাও ঘটছে। ডিপফেক প্রযুক্তির কারণে সমাজে একটা নতুন এবং জটিল মনস্তাত্ত্বিক সমস্যা তৈরি হয়েছে। গবেষকরা এর নাম দিয়েছেন “The Liar’s Dividend” বা মিথ্যাবাদীর সুবিধা।
বিষয়টা একটু বুঝিয়ে বলি। আগে কোনো নেতার কেলেঙ্কারির ভিডিও ফাঁস হলে তিনি লজ্জিত হতেন। আর এখন? এখন সত্যিকারের অপরাধীরাও বুক ফুলিয়ে বলে, “আরে ভাই, এটা আমি না! এটা তো বিরোধীপক্ষ এআই দিয়ে বানিয়েছে।” গ্যাবনের প্রেসিডেন্টের অসুস্থতার ভিডিওকে বিরোধীরা ‘ডিপফেক’ বলে চালিয়ে দিল, আর তাতেই দেশে ক্যু বা অভ্যুত্থান হওয়ার উপক্রম! অর্থাৎ, এই প্রযুক্তি অপরাধীদের হাতে একটা ‘জাদুর কাঠি’ তুলে দিয়েছে। এখন সত্যকেও ‘মিথ্যা’ বলে চালিয়ে দেওয়া যাচ্ছে। আমরা এমন এক সময়ে ঢুকে পড়েছি, যেখানে সত্য প্রমাণ করাটা সবচেয়ে কঠিন কাজ।
তাহলে উপায়? এই ডিজিটাল মায়াজাল থেকে বাঁচব কীভাবে? আজই কিছু ‘লাইফ সেভিং’ ট্রিক্স শিখে রাখুন। প্রথমত, সাইড প্রোফাইল টেস্ট; মানে ভিডিও কলে কাউকে সন্দেহ হলে তাকে মুখটা পাশে ঘোরাতে বলুন। এআই সোজাসুজি ভালো কাজ করে, কিন্তু সাইড প্রোফাইলে প্রায়ই গ্লিচ বা ঝাপসা হয়ে যায়। দ্বিতীয়ত, পারিবারিক কোড ওয়ার্ড। এটি আজই ঠিক করুন। পরিবারের সবার সাথে বসে একটা গোপন শব্দ ঠিক করে রাখুন। যদি কখনো অচেনা নম্বর থেকে আপনার বা সন্তানের গলার স্বরে কেউ টাকা চায় বা বিপদের কথা বলে, আগেই সেই কোড ওয়ার্ড জিজ্ঞেস করুন। এআই আপনার গলা নকল করতে পারবে, কিন্তু আপনার ফ্যামিলি সিক্রেট জানবে না। তৃতীয়ত, আইনি সুরক্ষা। মনে রাখবেন, বাংলাদেশে সাইবার নিরাপত্তা আইনে ডিপফেকের জন্য কঠোর শাস্তির বিধান রয়েছে। তাই ভুক্তভোগী হলে চুপ না থেকে দ্রুত আইনের আশ্রয় নিন।
বর্তমানে বাংলাদেশে নির্বাচনের মৌসুম চলছে। একদিকে যেমন প্রার্থী ও সমর্থকদের জোর প্রচারণা চলছে, অন্যদিকে চলছে অসৎ রাজনৈতিক কর্মীদের ডিপফেক ভিডিও ছড়িয়ে দেয়া ও নির্বাচন অস্থির করার পায়তারা। এ ব্যাপারে সবার আগে প্রয়োজন জনসচেতনতা।
আমাদের স্মার্টফোন এখন শুধু ফোন নয়, এটি একটি যুদ্ধক্ষেত্র। আর এই যুদ্ধে আমাদের প্রধান অস্ত্র হলো সচেতনতা। চলুন, সচেতন হই। রুখে দিই ডিপফেক সন্ত্রাসীদের।
ধন্যবাদ সবাইকে।
সুস্থ থাকুন, ভালো থাকুন।
AI Deepfakes in Elections | Urgent Warning
An incident in 2024. A multinational company in Hong Kong. A video call came from London to an officer in the finance division there. On the screen was the face of his boss. The boss was not alone; several familiar colleagues were with him. The boss said, “An urgent business deal is happening; $25 million, meaning about 300 crore taka, must be transferred right now”. The boss was talking, adjusting his glasses, and the colleagues were nodding. There was no reason to doubt, right? The officer sent the money. And right then, the disaster occurred. A few days later, it was learned that there was no other flesh-and-blood human on that video call except for the officer! The boss and colleagues were all ‘digital puppets’ created with AI. CNN and the Hong Kong police say this is one of the largest deepfake scams in history.
Greetings to everyone. In childhood, elders used to say, “Do not believe it unless you see it with your eyes”. And standing at the doorstep of 2026, it must be said, “Do not believe it even if you see it with your eyes!” Today we will talk about the technology that has demolished the wall between truth and lies. Its name is Deepfake.
Now the question is, where did this terrifying thing come from? From some science lab, or from NASA or the Pentagon? Not at all. Its birth was in a dark alley of the internet. The year was 2017. A user of the popular website named ‘Reddit’, whose pseudonym was “Deepfakes”. Suddenly, he began uploading some videos by cutting the faces of famous Hollywood actresses and placing them onto pornographic videos. His purpose was purely distorted entertainment. Basically, by joining the two words ‘Deep Learning’ and ‘Fake’, he named it ‘Deepfake’. He made the code or software he created open to everyone. That’s it! The work that previously required millions of Hollywood dollars and huge studios came to the laptops of ordinary people like you and me.
You might wonder, how can a computer mimic humans so perfectly? The science behind it is quite interesting. It is called GAN or Generative Adversarial Network. Does the name sound very difficult? Let’s understand through a simple story. Suppose there are two friends. One is a ‘thief’, and the other’s name is ‘detective’. The ‘thief’s’ job is to draw a fake picture of a famous person. And the ‘detective’s’ job is to look at that picture and say whether it is real or fake. At the beginning of the game, the thief draws a very bad picture. The detective easily catches it and says, “Psh! This is fake”. The thief then tries again; this time he draws a bit better. The detective finds a mistake again. This cat-and-mouse game continues millions of times in this way. By correcting himself, the thief reaches a stage where he creates such a perfect fake image that the detective can no longer distinguish between real and fake. He admits defeat. And currently, Artificial Intelligence (AI) is doing this entire process in the blink of an eye. And in this very process, a perfect deepfake video is born. And currently, GAN is not the only tool.
With time, technology is taking a more terrifying form. With tools like OpenAI’s ‘Sora’ or ‘HeyGen’ and technology called ‘Diffusion Model’, just by writing some text—like writing “a person is smiling”—unbelievably realistic videos or pictures can be created. Besides, with more advanced ‘Autoencoders’, it is possible to make a video from just one picture.
Initially, this technology was used to show magic on the cinema screen. Remember the movie ‘Fast & Furious 7’? Before filming was finished, Paul Walker died in a tragic car accident. The whole world was shocked then. But at the end of the movie, we saw Paul being bid farewell. How was that possible? By using his brothers as body doubles and with the magic of computer graphics, the deceased Paul Walker was brought back to the screen. Similarly, the deceased actor Peter Cushing was brought to life in the ‘Star Wars’ movie. Sitting in the hall, we clapped. We thought, wow! What a great technology.
And a beautiful side of this technology is its use in medical and humanitarian work. Google’s ‘Project Euphonia’ project is helping stroke patients communicate with their loved ones by converting their unclear speech into clear language. Again, a mother in South Korea, with the help of virtual reality and deepfake technology, got a short moment to talk to her deceased 7-year-old daughter and see her smile, which was an eternal consolation for her.
But we didn’t realize that the technology that can bring dead people back to the screen can also make the lives of living people a living hell. The story of Hong Kong mentioned at the beginning was just a financial scam. Loss of money can be recovered, but deepfake technology has become a literal trauma in the lives of many people.
Mentioning one more incident will make the matter clear. Anyone’s skin will crawl hearing the story of Jennifer DeStefano from the state of Arizona, America. The incident happened just three years ago. It was an incident in April 2023. A woman named Jennifer receives a phone call from an unknown number. Upon receiving the call, she heard the sound of her 15-year-old daughter crying from the other side. The girl is sobbing and saying, “Mom, I messed up!”. Jennifer said, “What happened, dear?”. Immediately, a heavy male voice floated in. The man threatened, “Your daughter is with me. If you don’t give $1 million right now, I will traffic her to Mexico, and you will never find her again”. Jennifer was frozen in terror then. She was one hundred percent sure that it was her daughter’s voice. Her style of crying, the tone of her voice, everything was identical. Would any mother fail to recognize her child’s cry? Jennifer, almost half-mad, started running in search of one million dollars, i.e., about 12 crore taka. But the twist was, her daughter was actually safe. She was hanging out with friends on a ski trip then. The entire phone call was a staged drama. Then that voice?
The FBI and technology experts say that hackers are now stealing your or your child’s voice from social media like TikTok, Instagram, or YouTube vlogs. Though unbelievable, it is true that with today’s AI tools, it is possible to perfectly mimic anyone’s voice with just a few seconds of an audio sample! Think about how terrifying it is! You might have said “Hello everyone” in a video on Facebook. That’s it; that’s enough to create your digital clone, and the worst use of this technology is seen in personal attacks.
Deepfake is now a major tool for digital abuse. Especially against women. Creating ‘non-consensual obscene content’ has taken the form of a global pandemic. It is not just a picture; it is a tool for mental trauma, humiliation in society, and destroying a person’s life and career.
From personal life, let’s now come to the political field. Because the largest use of deepfakes is happening in the political field. The 2024 election of the neighboring country India is being called the world’s first election where AI was used in full force. We saw a strange scene there. The deceased leader of Tamil Nadu, Karunanidhi, who died in 2018, was brought to life with AI to deliver a speech at an election rally! He wore glasses, spoke in that iconic style of his, and asked for votes for his son. Asking for votes using a dead person! What could be a greater moral degradation than this? Again, see, Indian Prime Minister Narendra Modi sent video messages addressing voters by name in regional languages that he does not actually know. Meanwhile, voters thought, “Ish! The leader is talking in our language”. That the emotional manipulation worked well is also seen in the election results. But actually, the whole thing was the manipulation of Artificial Intelligence.
And in our Bangladesh? Let me start with one incident. Lately, while scrolling through Facebook, it might have caught your eye—famous stars or cricketers of the country are talking on behalf of various ‘online gambling’ or ‘investment apps’. In the videos, they are saying, “Double profit if you keep money in this app!” Ordinary people are also investing by trusting the words of their favorite stars they are familiar with. The stars’ voices, speaking styles, everything is so perfect that there is no way for ordinary people to understand. Yet, fact-checking organizations like ‘Rumor Scanner’ have proved that all of these videos are deepfakes. By taking old interview videos of stars and placing fake words in their mouths with AI technology, thousands of young people are being lured into the trap of gambling. The result? Numerous people are becoming destitute overnight. It doesn’t end here These fake videos can incite riots in a country in a moment, put the government in danger, and even take the lives of innocent people.
Again, the opposite is also happening. A new and complex psychological problem has been created in society because of deepfake technology. Researchers have named it “The Liar’s Dividend”. Let me explain the matter a bit. Previously, if a video of a leader’s scandal was leaked, he would be ashamed. And now? Now even real criminals say with a puffed-up chest, “Hey brother, this is not me! This was made by the opposition using AI”. The opposition dismissed the video of the Gabon President’s illness as a ‘deepfake’, and that almost led to a coup or uprising in the country! That is, this technology has handed a ‘magic wand’ to criminals. Now even the truth can be passed off as a ‘lie’. We have entered a time where proving the truth is the most difficult task.
So, what is the way? How will we escape from this digital illusion? Learn some ‘life-saving’ tricks today. Firstly, the side profile test; meaning, if you suspect someone on a video call, ask them to turn their face to the side. AI works well straight-on, but often glitches or becomes blurry in a side profile. Secondly, a family code word. Decide on this today. Sit with everyone in the family and fix a secret word. If someone ever asks for money or talks about danger from an unknown number in your or your child’s voice, ask for that code word first. AI will be able to mimic your voice, but it won’t know your family secret. Thirdly, legal protection.
Remember, there are provisions for severe punishment for deepfakes under the Cyber Security Act in Bangladesh. Therefore, if you are a victim, do not remain silent; take legal action quickly.
Currently, it is election season in Bangladesh. On one hand, strong campaigning by candidates and supporters is ongoing, while on the other hand, there are plots by dishonest political workers to spread deepfake videos and destabilize the election. Public awareness is needed most of all in this regard. Our smartphone is now not just a phone; it is a battlefield. And awareness is our main weapon in this war. Let’s become aware. Let’s resist deepfake terrorists. Thank you, everyone. Stay healthy, stay well.
Reference & Citation List
I. Major Financial & Criminal Investigations
- The Hong Kong “CFO” Deepfake Scam (2024)
- Context: The script references a multinational company in Hong Kong losing $25 million after an employee was duped by a deepfake video conference of the CFO and colleagues.
- Source: CNN: Finance worker pays out $25 million after video call with deepfake ‘chief financial officer’
- Secondary Source: South China Morning Post: Deepfake scam sees Hong Kong clerk pay HK$200 million
- The Jennifer DeStefano/Arizona Kidnapping Scam (2023)
- Context: The script details the story of Jennifer DeStefano, who received a call with a cloned voice of her 15-year-old daughter demanding ransom.
- Source: US Senate Judiciary Committee Testimony: Jennifer DeStefano on AI Voice Cloning
- News Report: CNN: ‘Mom, these bad men have me’: She believes scammers cloned her daughter’s voice
II. History & Technology of Deepfakes
- Generative Adversarial Networks (GANs)
- Context: The script explains the “Generator” (Thief) and “Discriminator” (Detective) concept.
- Theoretical Source: NIPS 2014 Paper: Generative Adversarial Nets by Ian Goodfellow et al.
- Voice & Accessibility Technology
- Context: Mention of Google’s project helping stroke patients speak.
- Source: Google Blog: Project Euphonia – Helping everyone be understood
III. Political Case Studies & The “Liar’s Dividend”
- India 2024 Elections (AI Resurrection)
- Context: The script cites the AI resurrection of deceased leader M. Karunanidhi and PM Narendra Modi’s real-time language dubbing.
- Source: The New York Times: India’s Elections Are Being Flooded With Deepfakes
- Source: Al Jazeera: ‘AI resurrection’: How Indian politicians are using deepfakes to woo voters
- The “Liar’s Dividend” & Gabon Coup Attempt
- Context: The script discusses how real events are dismissed as fake, citing the sick President Ali Bongo of Gabon.
- Source: The Washington Post: The ‘Liar’s Dividend’ is dangerous for democracy
- Source: Mother Jones: The Gabon Coup Attempt is a Warning on Deepfakes
IV. Media, Entertainment & Emotional AI
- Cinematic Digital Resurrection
- Context: Paul Walker (Furious 7) and Peter Cushing (Rogue One).
- Source: The Hollywood Reporter: How ‘Furious 7’ Created a Digital Paul Walker
- South Korean VR Reunion
- Context: A mother reuniting with her deceased daughter via VR.
- Source: MBC Documentary: “Meeting You” (Feature on Mother reuniting with daughter Nayeon)
V. Bangladesh Context & Verification
- Fact-Checking Organizations
- Context: The script mentions ‘BanglaFact’ and ‘Rumor Scanner’ debunking a specific Metro Rail deepfake.
- Verified Entity: Rumor Scanner Bangladesh (An IFCN signatory fact-checking organization).
- Note: “BanglaFact” is likely a reference to FactWatch or a similar local initiative.
- Legal Framework
- Context: References the Cyber Security Act and Pornography Control Act.
- Legal Source: The Cyber Security Act, 2023 (Bangladesh)
- Legal Source: Pornography Control Act, 2012


