Wednesday, April 17, 2024
spot_img
Homeবিজ্ঞান ও প্রযুক্তিডিপফেক—ভালো না মন্দ?

ডিপফেক—ভালো না মন্দ?

কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির এই সময়ের সবচেয়ে আলোচিত ব্যবহার ডিপফেক। নিউরাল নেটওয়ার্ক ব্যবহার করে একটি ব্যক্তির ভিডিও ও অডিও বিশ্লেষণ করে তার একটি ভার্চুয়াল মডেল তৈরি করা যায় সহজেই। পরে তার চেহারা, অভিব্যক্তি, আচরণ, কণ্ঠ এবং বাচনভঙ্গি ব্যবহার করে নতুন ভিডিও ও অডিও তৈরি করা যায় সহজেই, দেখে বোঝাই দায় সেটা বাস্তব নাকি কম্পিউটারে তৈরি। প্রযুক্তিটি শুরুতে শুধু বড়সড় স্টুডিওতেই ব্যবহার সম্ভব ছিল, ধীরে ধীরে নিউরাল নেটওয়ার্ক প্রযুক্তি উন্নত হতে হতে মাঝারি শক্তির ডেস্কটপ আর ফ্ল্যাগশিপ স্মার্টফোনেও হাজির হয়েছে।

ফলে ডিপফেক এখন তৈরি সম্ভব ঘরে বসেই। এহেন শক্তিশালী প্রযুক্তি এত সহজেই ব্যবহার করা গেলে সেটির অপব্যবহার বাড়বে, সেটাই স্বাভাবিক।

ডিপফেক প্রযুক্তির ভালো দিক নেই তা নয়। ডিপফেক ব্যবহার করে ঐতিহাসিক চরিত্রদের ক্লাসরুমে হাজির করা যেতে পারে, ফলে ইতিহাসের ঘটনাবলি বইয়ের পাতায় না পড়ে শিক্ষার্থীরা সরাসরি কিভাবে তা ঘটেছিল তার প্রামাণ্যচিত্র দেখতে পারবেন। শিক্ষাব্যবস্থা নিয়ে করা সব গবেষণায় দেখা গেছে, বই পড়ার চেয়ে ভিডিওর মাধ্যমে দেখে ও শুনে শিক্ষার্থীরা বিষয়বস্তুগুলো ধরতে পারেন আরো সহজে। ডিপফেকের ব্যবহার হতে পারে ইনডিপেনডেন্ট সিনেমা তৈরিতে, যাতে স্বল্প বাজেটেই বাস্তবসম্মত স্পেশাল ইফেক্টস তৈরি করা যায়। শুধু সিনেমাই নয়, ইনডিপেনডেন্ট গেম তৈরিতেও প্রযুক্তিটি অত্যন্ত কাজের। চেহারা এনিমেশন করার জটিলতা নিউরাল নেটওয়ার্ক ব্যবহারের মাধ্যমে কমানোই নয়, বরং এআই ব্যবহার করে সিনথেটিক ভয়েস তৈরি করার মাধ্যমে হাজার হাজার লাইন ডায়ালগ রেকর্ড করার দীর্ঘ ও ব্যয়সাপেক্ষ প্রক্রিয়াও এড়ানো সম্ভব।

ব্যক্তি পরিচয় গোপন রাখতেও ডিপফেকের আশ্রয় নিচ্ছেন অনেক সাংবাদিক। যেসব এলাকায় কর্তৃপক্ষের অবৈধ কাজকর্মের ওপর রিপোর্ট করলে হেনস্তার শিকার হতে হয়, সেখানে রিপোর্টাররা তাঁদের চেহারা ও কণ্ঠস্বর ডিপফেকের মাধ্যমে পাল্টে তবেই রিপোর্টগুলো প্রকাশ করছেন।

ডিপফেকের সর্বশেষ প্রয়োগ পডকাস্ট এবং ইউটিউবারদের মধ্যে। নিজের ডিপফেক তৈরি করে তাঁরা ভিডিও ও পডকাস্ট তৈরির কাজ করছেন আরো দ্রুত। যেসব কনটেন্ট তেমন জটিল নয় সেসব ডিপফেকের মাধ্যমেই তৈরি করে ফেলছেন তাঁরা। বিশেষ করে ইউটিউব শর্ট এবং পডকাস্টে ডিপফেকের জনপ্রিয়তা বাড়ছে দ্রুত।

তবে সমস্যার শুরু তখনই যখন ডিপফেকের মাধ্যমে একটি ব্যক্তির অবৈধ কপি তৈরি করা হয়। ওপরের প্রতিটি প্রয়োগেই মূল ব্যক্তির সম্মতি রয়েছে বা তাঁদের মৃত্যুর পর পেরিয়ে গেছে শত শত বছর। ডিপফেকের মাধ্যমে তৈরি কনটেন্টের বিষয়বস্তু হয় মূল ব্যক্তির সম্মতিতেই করা হয়েছে বা তাঁদের কাজকর্মের রয়েছে ঐতিহাসিক রেকর্ড, তাই ধোঁকা দেওয়া কঠিন। কিন্তু জীবিত ব্যক্তিদের অবৈধ ডিপফেক তৈরির মাধ্যমে তাঁদের সম্মানহানিকর ভিডিও বা অডিও ক্লিপ তৈরি থেকে শুরু করে তাঁদের প্রতিকৃতি ও কণ্ঠ ব্যবহার করে জালিয়াতিও করা সম্ভব। হ্যাকার দলগুলো সেটা করেও থাকে।

দিনশেষে প্রতিটি প্রযুক্তিরই আছে ভালো ও খারাপ দিক। পুরোটাই নির্ভর করছে ব্যবহারকারীর ওপর। ভালো দিক বিবেচনা না করে কোনোভাবেই একটি প্রযুক্তিকে ঢালাওভাবে খারাপ বলা উচিত নয়।

RELATED ARTICLES
- Advertisment -
Google search engine

Most Popular

Recent Comments