Cyber Crime

ডিপ-ফেকের মাধ্যমে প্রতারণা ঠেকাতে তৎপরতা লালবাজারে

সপ্তাহখানেক আগে সমাজমাধ্যমে ছড়িয়ে পড়া এক অভিনেত্রীর স্বল্প পোশাকের এমন ভিডিয়ো ঘিরে চর্চা কম হয়নি।

Advertisement

নিজস্ব সংবাদদাতা

কলকাতা শেষ আপডেট: ০৪ ডিসেম্বর ২০২৩ ০৭:২১
Share:

লালবাজার। নিজস্ব চিত্র।

চলাফেরার ধরন থেকে শুরু করে চেহারা— হুবহু এক। চেনার উপায় নেই গলার স্বর শুনেও।
খালি চোখে কয়েক বার দেখার পরেও বোঝা তো দূর, বরং ভিডিয়োটি সত্যি হিসেবে ধরে নিতে বাধ্য হচ্ছেন অনেকেই!

Advertisement

সপ্তাহখানেক আগে সমাজমাধ্যমে ছড়িয়ে পড়া এক অভিনেত্রীর স্বল্প পোশাকের এমন ভিডিয়ো ঘিরে চর্চা কম হয়নি। ‘কারসাজি’ করা ভিডিয়োটি তাঁর নয় বলে বয়ান দিয়ে আসরে নামতে হয়েছিল খোদ অভিনেত্রীকে। পাশে দাঁড়িয়ে সরব হয়েছিলেন বলিউডের তাবড় অভিনেতা-অভিনেত্রীরাও। সামাজিক মাধ্যমে ছড়িয়ে পড়া এমন ভিডিয়োর তদন্তে নেমে পুলিশ জানতে পারে, কৃত্রিম মেধা বা আর্টিফিশিয়াল ইন্টেলিজেন্সকে (এআই) কাজে লাগিয়ে ওই ‘ডিপ-ফেক’ ভিডিয়োটি বানানো হয়েছিল। শুধু ওই অভিনেত্রীই নন, ডিপ ফেকের হাত থেকে ছাড় পাননি আমেরিকার প্রাক্তন প্রেসিডেন্ট বারাক ওবামা থেকে শুরু করে তারকা ক্রিকেটারেরাও। একের পর এক এমন ঘটনা সামনে আসতেই চর্চা শুরু হয়েছে বিভিন্ন মহলে। এমনকি, এই প্রযুক্তিকে সাইবার প্রতারকেরাও মাধ্যম হিসেবে ব্যবহার করায় উদ্বেগ আরও বেড়েছে।

সম্প্রতি ডিপ-ফেক ভিডিয়ো তৈরি করে প্রতারণার অভিযোগ দায়ের হয়েছে এ রাজ্যেও।
চন্দননগরের বাসিন্দা এক তরুণীর এমনই একটি ভিডিয়ো তৈরি করে সমাজমাধ্যমে ছড়িয়ে দেওয়ার ভয় দেখিয়ে ১৯ হাজার টাকা হাতিয়ে নেওয়ার লিখিত অভিযোগ জমা পড়েছে থানায়। টাকা দেওয়ার পরেও প্রতারকদের ফোন ও টাকা চাওয়া বন্ধ না হওয়ায় পুলিশের দ্বারস্থ হন ওই তরুণী। সাইবার বিশেষজ্ঞেরা জানাচ্ছেন, ডিপ-ফেক ভিডিয়ো বানানোর ক্ষেত্রে ‘মেশিন লার্নিং’ অন্যতম অস্ত্র। এই মেশিন লার্নিংয়ের একটি কৌশল ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’। এক জনের বিভিন্ন অভিব্যক্তির একাধিক ছবি বা ভিডিয়ো সংগ্রহ করে নিদিষ্ট এই পদ্ধতির মাধ্যমে বানিয়ে ফেলা হচ্ছে ডিপ-ফেক ভিডিয়ো। এমনকি, কৃত্রিম মেধা বা এআই-এর ক্রমশ উন্নতির ফলে গলার স্বরও হুবহু নকল করা সম্ভব হচ্ছে। সাইবার বিশেষজ্ঞ সন্দীপ সেনগুপ্তের কথায়, ‘‘ফোটোশপের ক্ষেত্রে খালি চোখে বোঝা গেলেও ডিপ-ফেকের ক্ষেত্রে তা বোঝা কঠিন। ফলে খুব সহজেই কারও সঙ্গে প্রতারণা বা তাঁর সম্মানহানি করা সম্ভব। আপাতত অভিনেতা-অভিনেত্রী বা সমাজের পরিচিতদের ডিপ-ফেক ভিডিয়ো সাধারণত দেখা যাচ্ছে। তবে সাধারণ মানুষেরও এর কবলে পড়ার আশঙ্কা উড়িয়ে দেওয়া যাচ্ছে না।’’

Advertisement

যদিও লালবাজার জানাচ্ছে, ডিপ-ফেক প্রযুক্তি ব্যবহার করে শহরে প্রতারণার কোনও অভিযোগ এখনও সামনে আসেনি। তবে নতুন প্রতারণার ধরন ভাবাচ্ছে লালবাজারের গোয়েন্দাদের। এই প্রযুক্তিকে কাজে লাগিয়ে সাইবার প্রতারণার আশঙ্কাও উড়িয়ে দিচ্ছেন না তাঁরা। নতুন প্রতারণার নাগাল পেতে প্রযুক্তির আরও উন্নতি ঘটানো যায় কি না, চলছে তা নিয়ে ভাবনা-চিন্তাও। ডিভিশনগুলিকেও বলা হয়েছে, ডিপ-ফেক সংক্রান্ত কোনও অভিযোগ নজরে এলে দ্রুত জানাতে। এক পুলিশকর্তার কথায়, ‘‘সাইবার প্রতারণার যে কোনও অভিযোগে সব সময়ে পুলিশ তৎপর। নতুন প্রতারণার ধরন নজরে এলেও তা নিয়ে জনগণকে সতর্ক করা হয়। এই ক্ষেত্রেও কোনও অভিযোগ এলে দ্রুত ব্যবস্থা নেওয়া হবে।’’

(সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের Google News, X (Twitter), Facebook, Youtube, Threads এবং Instagram পেজ)

আনন্দবাজার অনলাইন এখন

হোয়াট্‌সঅ্যাপেও

ফলো করুন
অন্য মাধ্যমগুলি:
Advertisement
Advertisement
আরও পড়ুন