Monday, November 28, 2022
spot_img
Homeবিজ্ঞান ও প্রযুক্তিডিপফেক—ভালো না মন্দ?

ডিপফেক—ভালো না মন্দ?

কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির এই সময়ের সবচেয়ে আলোচিত ব্যবহার ডিপফেক। নিউরাল নেটওয়ার্ক ব্যবহার করে একটি ব্যক্তির ভিডিও ও অডিও বিশ্লেষণ করে তার একটি ভার্চুয়াল মডেল তৈরি করা যায় সহজেই। পরে তার চেহারা, অভিব্যক্তি, আচরণ, কণ্ঠ এবং বাচনভঙ্গি ব্যবহার করে নতুন ভিডিও ও অডিও তৈরি করা যায় সহজেই, দেখে বোঝাই দায় সেটা বাস্তব নাকি কম্পিউটারে তৈরি। প্রযুক্তিটি শুরুতে শুধু বড়সড় স্টুডিওতেই ব্যবহার সম্ভব ছিল, ধীরে ধীরে নিউরাল নেটওয়ার্ক প্রযুক্তি উন্নত হতে হতে মাঝারি শক্তির ডেস্কটপ আর ফ্ল্যাগশিপ স্মার্টফোনেও হাজির হয়েছে।

ফলে ডিপফেক এখন তৈরি সম্ভব ঘরে বসেই। এহেন শক্তিশালী প্রযুক্তি এত সহজেই ব্যবহার করা গেলে সেটির অপব্যবহার বাড়বে, সেটাই স্বাভাবিক।

ডিপফেক প্রযুক্তির ভালো দিক নেই তা নয়। ডিপফেক ব্যবহার করে ঐতিহাসিক চরিত্রদের ক্লাসরুমে হাজির করা যেতে পারে, ফলে ইতিহাসের ঘটনাবলি বইয়ের পাতায় না পড়ে শিক্ষার্থীরা সরাসরি কিভাবে তা ঘটেছিল তার প্রামাণ্যচিত্র দেখতে পারবেন। শিক্ষাব্যবস্থা নিয়ে করা সব গবেষণায় দেখা গেছে, বই পড়ার চেয়ে ভিডিওর মাধ্যমে দেখে ও শুনে শিক্ষার্থীরা বিষয়বস্তুগুলো ধরতে পারেন আরো সহজে। ডিপফেকের ব্যবহার হতে পারে ইনডিপেনডেন্ট সিনেমা তৈরিতে, যাতে স্বল্প বাজেটেই বাস্তবসম্মত স্পেশাল ইফেক্টস তৈরি করা যায়। শুধু সিনেমাই নয়, ইনডিপেনডেন্ট গেম তৈরিতেও প্রযুক্তিটি অত্যন্ত কাজের। চেহারা এনিমেশন করার জটিলতা নিউরাল নেটওয়ার্ক ব্যবহারের মাধ্যমে কমানোই নয়, বরং এআই ব্যবহার করে সিনথেটিক ভয়েস তৈরি করার মাধ্যমে হাজার হাজার লাইন ডায়ালগ রেকর্ড করার দীর্ঘ ও ব্যয়সাপেক্ষ প্রক্রিয়াও এড়ানো সম্ভব।

ব্যক্তি পরিচয় গোপন রাখতেও ডিপফেকের আশ্রয় নিচ্ছেন অনেক সাংবাদিক। যেসব এলাকায় কর্তৃপক্ষের অবৈধ কাজকর্মের ওপর রিপোর্ট করলে হেনস্তার শিকার হতে হয়, সেখানে রিপোর্টাররা তাঁদের চেহারা ও কণ্ঠস্বর ডিপফেকের মাধ্যমে পাল্টে তবেই রিপোর্টগুলো প্রকাশ করছেন।

ডিপফেকের সর্বশেষ প্রয়োগ পডকাস্ট এবং ইউটিউবারদের মধ্যে। নিজের ডিপফেক তৈরি করে তাঁরা ভিডিও ও পডকাস্ট তৈরির কাজ করছেন আরো দ্রুত। যেসব কনটেন্ট তেমন জটিল নয় সেসব ডিপফেকের মাধ্যমেই তৈরি করে ফেলছেন তাঁরা। বিশেষ করে ইউটিউব শর্ট এবং পডকাস্টে ডিপফেকের জনপ্রিয়তা বাড়ছে দ্রুত।

তবে সমস্যার শুরু তখনই যখন ডিপফেকের মাধ্যমে একটি ব্যক্তির অবৈধ কপি তৈরি করা হয়। ওপরের প্রতিটি প্রয়োগেই মূল ব্যক্তির সম্মতি রয়েছে বা তাঁদের মৃত্যুর পর পেরিয়ে গেছে শত শত বছর। ডিপফেকের মাধ্যমে তৈরি কনটেন্টের বিষয়বস্তু হয় মূল ব্যক্তির সম্মতিতেই করা হয়েছে বা তাঁদের কাজকর্মের রয়েছে ঐতিহাসিক রেকর্ড, তাই ধোঁকা দেওয়া কঠিন। কিন্তু জীবিত ব্যক্তিদের অবৈধ ডিপফেক তৈরির মাধ্যমে তাঁদের সম্মানহানিকর ভিডিও বা অডিও ক্লিপ তৈরি থেকে শুরু করে তাঁদের প্রতিকৃতি ও কণ্ঠ ব্যবহার করে জালিয়াতিও করা সম্ভব। হ্যাকার দলগুলো সেটা করেও থাকে।

দিনশেষে প্রতিটি প্রযুক্তিরই আছে ভালো ও খারাপ দিক। পুরোটাই নির্ভর করছে ব্যবহারকারীর ওপর। ভালো দিক বিবেচনা না করে কোনোভাবেই একটি প্রযুক্তিকে ঢালাওভাবে খারাপ বলা উচিত নয়।

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments