কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির এই সময়ের সবচেয়ে আলোচিত ব্যবহার ডিপফেক। নিউরাল নেটওয়ার্ক ব্যবহার করে একটি ব্যক্তির ভিডিও ও অডিও বিশ্লেষণ করে তার একটি ভার্চুয়াল মডেল তৈরি করা যায় সহজেই। পরে তার চেহারা, অভিব্যক্তি, আচরণ, কণ্ঠ এবং বাচনভঙ্গি ব্যবহার করে নতুন ভিডিও ও অডিও তৈরি করা যায় সহজেই, দেখে বোঝাই দায় সেটা বাস্তব নাকি কম্পিউটারে তৈরি। প্রযুক্তিটি শুরুতে শুধু বড়সড় স্টুডিওতেই ব্যবহার সম্ভব ছিল, ধীরে ধীরে নিউরাল নেটওয়ার্ক প্রযুক্তি উন্নত হতে হতে মাঝারি শক্তির ডেস্কটপ আর ফ্ল্যাগশিপ স্মার্টফোনেও হাজির হয়েছে।
ফলে ডিপফেক এখন তৈরি সম্ভব ঘরে বসেই। এহেন শক্তিশালী প্রযুক্তি এত সহজেই ব্যবহার করা গেলে সেটির অপব্যবহার বাড়বে, সেটাই স্বাভাবিক।
ডিপফেক প্রযুক্তির ভালো দিক নেই তা নয়। ডিপফেক ব্যবহার করে ঐতিহাসিক চরিত্রদের ক্লাসরুমে হাজির করা যেতে পারে, ফলে ইতিহাসের ঘটনাবলি বইয়ের পাতায় না পড়ে শিক্ষার্থীরা সরাসরি কিভাবে তা ঘটেছিল তার প্রামাণ্যচিত্র দেখতে পারবেন। শিক্ষাব্যবস্থা নিয়ে করা সব গবেষণায় দেখা গেছে, বই পড়ার চেয়ে ভিডিওর মাধ্যমে দেখে ও শুনে শিক্ষার্থীরা বিষয়বস্তুগুলো ধরতে পারেন আরো সহজে। ডিপফেকের ব্যবহার হতে পারে ইনডিপেনডেন্ট সিনেমা তৈরিতে, যাতে স্বল্প বাজেটেই বাস্তবসম্মত স্পেশাল ইফেক্টস তৈরি করা যায়। শুধু সিনেমাই নয়, ইনডিপেনডেন্ট গেম তৈরিতেও প্রযুক্তিটি অত্যন্ত কাজের। চেহারা এনিমেশন করার জটিলতা নিউরাল নেটওয়ার্ক ব্যবহারের মাধ্যমে কমানোই নয়, বরং এআই ব্যবহার করে সিনথেটিক ভয়েস তৈরি করার মাধ্যমে হাজার হাজার লাইন ডায়ালগ রেকর্ড করার দীর্ঘ ও ব্যয়সাপেক্ষ প্রক্রিয়াও এড়ানো সম্ভব।
ব্যক্তি পরিচয় গোপন রাখতেও ডিপফেকের আশ্রয় নিচ্ছেন অনেক সাংবাদিক। যেসব এলাকায় কর্তৃপক্ষের অবৈধ কাজকর্মের ওপর রিপোর্ট করলে হেনস্তার শিকার হতে হয়, সেখানে রিপোর্টাররা তাঁদের চেহারা ও কণ্ঠস্বর ডিপফেকের মাধ্যমে পাল্টে তবেই রিপোর্টগুলো প্রকাশ করছেন।
ডিপফেকের সর্বশেষ প্রয়োগ পডকাস্ট এবং ইউটিউবারদের মধ্যে। নিজের ডিপফেক তৈরি করে তাঁরা ভিডিও ও পডকাস্ট তৈরির কাজ করছেন আরো দ্রুত। যেসব কনটেন্ট তেমন জটিল নয় সেসব ডিপফেকের মাধ্যমেই তৈরি করে ফেলছেন তাঁরা। বিশেষ করে ইউটিউব শর্ট এবং পডকাস্টে ডিপফেকের জনপ্রিয়তা বাড়ছে দ্রুত।
তবে সমস্যার শুরু তখনই যখন ডিপফেকের মাধ্যমে একটি ব্যক্তির অবৈধ কপি তৈরি করা হয়। ওপরের প্রতিটি প্রয়োগেই মূল ব্যক্তির সম্মতি রয়েছে বা তাঁদের মৃত্যুর পর পেরিয়ে গেছে শত শত বছর। ডিপফেকের মাধ্যমে তৈরি কনটেন্টের বিষয়বস্তু হয় মূল ব্যক্তির সম্মতিতেই করা হয়েছে বা তাঁদের কাজকর্মের রয়েছে ঐতিহাসিক রেকর্ড, তাই ধোঁকা দেওয়া কঠিন। কিন্তু জীবিত ব্যক্তিদের অবৈধ ডিপফেক তৈরির মাধ্যমে তাঁদের সম্মানহানিকর ভিডিও বা অডিও ক্লিপ তৈরি থেকে শুরু করে তাঁদের প্রতিকৃতি ও কণ্ঠ ব্যবহার করে জালিয়াতিও করা সম্ভব। হ্যাকার দলগুলো সেটা করেও থাকে।
দিনশেষে প্রতিটি প্রযুক্তিরই আছে ভালো ও খারাপ দিক। পুরোটাই নির্ভর করছে ব্যবহারকারীর ওপর। ভালো দিক বিবেচনা না করে কোনোভাবেই একটি প্রযুক্তিকে ঢালাওভাবে খারাপ বলা উচিত নয়।