Audio Deepfake

শুধু ছবি, ভিডিয়ো নয়, অডিয়োতেও আছে ‘ডিপফেক’! কী কী বিপদ ঘটতে পারে?

দক্ষিণী তারকা রশ্মিকা মন্দনার ‘ডিপফেক’ ভিডিয়ো নিয়ে সম্প্রতি তোলপাড় পড়ে গিয়েছে। ভুয়ো কারসাজির কবলে পড়েছেন বলি নায়িকারাও। তবে ‘ডিপফেক’ শুধু ছবি, ভিডিয়োতেই আর সীমাবদ্ধ নেই।

Advertisement
আনন্দবাজার অনলাইন ডেস্ক
কলকাতা শেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ০৮:৪৬
Share:
০১ ১৯

বলিউড থেকে রাজনীতি, ‘ডিপফেক’ সমস্যায় জেরবার দেশ। বলিউড তারকারা তো বটেই, ভুয়ো কারসাজির হাত থেকে রেহাই পাননি স্বয়ং প্রধানমন্ত্রী নরেন্দ্র মোদীও।

—ফাইল চিত্র।

০২ ১৯

একটি ভাইরাল ভিডিয়োতে মোদীকে অন্য অনেকের সঙ্গে গরবা নাচতে দেখা গিয়েছে। প্রধানমন্ত্রী নিজে সেই ভিডিয়ো দেখে বিস্ময় প্রকাশ করেছেন এবং জানিয়েছেন, তিনি স্কুলজীবনের পরে ওই নাচ আর কখনও নাচেননি।

—ফাইল চিত্র।

Advertisement
০৩ ১৯

দক্ষিণের তারকা অভিনেত্রী রশ্মিকা মন্দনার সূত্রে সম্প্রতি ‘ডিপফেক’ সমস্যা চর্চায় উঠে এসেছে। রশ্মিকার একটি ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে পড়ে। যেখানে তাঁকে কালো পোশাকে দেখা যায়। কিন্তু পরে জানা যায় ভিডিয়োটি ভুয়ো।

—ফাইল চিত্র।

০৪ ১৯

ওই ভিডিয়োতে আদৌ রশ্মিকা ছিলেন না। ছিলেন অন্য এক মহিলা। তাঁর মুখের জায়গায় প্রযুক্তি ব্যবহার করে রশ্মিকার মুখ বসিয়ে দেওয়া হয়েছিল। নিখুঁত কারসাজির দৌলতে সকলেই বিশ্বাস করেছিলেন ভিডিয়োর নারী রশ্মিকাই বটে। পরে অবশ্য আসল ভিডিয়োটিও প্রকাশ্যে আসে।

—ফাইল চিত্র।

০৫ ১৯

‘ডিপফেক’ নিয়ে উদ্বেগ প্রকাশ করেন অভিনেত্রী স্বয়ং। তিনি বলেন, ‘‘এই ধরনের জিনিস সত্যিই খুব ভয়ানক। প্রযুক্তির এই অপব্যবহারে গোটা সমাজ বিপদের মুখে দাঁড়িয়ে। আমার সঙ্গে এটা যদি স্কুল বা কলেজজীবনে ঘটত, কী ভাবে পরিস্থিতির সঙ্গে যুঝতাম, জানি না।’’

—ফাইল চিত্র।

০৬ ১৯

রশ্মিকার ‘ডিপফেক’ নিয়ে চর্চার মাঝেই পর পর ক্যাটরিনা কইফ, কাজল, আলিয়া ভট্টের মতো বলি নায়িকাদের ‘ডিপফেক’ ভিডিয়ো প্রকাশ্যে আসতে শুরু করে।

—ফাইল চিত্র।

০৭ ১৯

তবে ‘ডিপফেক’ সমস্যা শুধু ছবি আর ভিডিয়োতে আটকে নেই। অডিয়োতেও রয়েছে ‘ডিপফেক’। যা নিয়ে উদ্বেগের মাত্রা ক্রমশ বাড়ছে। রাশ টানার আগেই নাগালের বাইরে বেরিয়ে যাচ্ছে ‘ডিপফেক’।

—ফাইল চিত্র।

০৮ ১৯

অডিয়োতে ‘ডিপফেক’-এর অর্থ হল, কারও গলার স্বর প্রযুক্তির মাধ্যমে বদলে দেওয়া। অন্য কারও গলার স্বর তার জায়গায় বসিয়ে দেওয়া। এর মাধ্যমে সহজেই লোক ঠকানো যায়।

—ফাইল চিত্র।

০৯ ১৯

অমিতাভ বচ্চনের রিয়েলিটি শো ‘কৌন বনেগা ক্রোরপতি’-র একটি অংশে অমিতাভের মুখে মধ্যপ্রদেশের ভোট সংক্রান্ত প্রচারমূলক কথা বসিয়ে দেওয়ার অভিযোগ উঠেছে। সেই ভিডিয়ো নিয়েও কম চর্চা হয়নি।

—ফাইল চিত্র।

১০ ১৯

‘ডিপফেক’ অডিয়োর কথা প্রথম প্রকাশ্যে এসেছিল ২০১৯ সালে। ব্রিটেনের এক বহুজাতিক সংস্থা থেকে মালিকের গলার স্বর নকল করে প্রায় আড়াই লক্ষ ডলার হাতিয়ে নেওয়া হয়েছিল।

—ফাইল চিত্র।

১১ ১৯

বর্তমানে আমেরিকার কিছু তথ্য বিশ্লেষক সংস্থা দাবি করেছে, ‘ডিপফেক’ অডিয়ো প্রযুক্তি কাজে লাগাচ্ছে চিনও। বেজিংয়ের কৃত্রিম বুদ্ধিমত্তা সংস্থা নাকি ভারতের পঞ্জাব, কাশ্মীরের মতো সীমান্ত লাগোয়া এলাকা থেকে গলার স্বরের নমুনা সংগ্রহ করছে। এতে ভবিষ্যতে বিপদ হতে পারে।

—ফাইল চিত্র।

১২ ১৯

‘ডিপফেক’ কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিরই ফসল। যা আগামী দিনে জাতীয় নিরাপত্তাকেও বিঘ্নিত করতে পারে। যুদ্ধ থেকে শুরু করে নির্বাচনী প্রতিদ্বন্দ্বিতা, সব ক্ষেত্রেই নির্বিচারে ‘ডিপফেক’ ব্যবহৃত হচ্ছে।

—ফাইল চিত্র।

১৩ ১৯

ছবি নিয়ে কাটাছেঁড়া নতুন নয়। নব্বইয়ের দশক থেকেই ফোটোশপের ব্যবহার প্রচলিত। তার মাধ্যমে যে কোনও ছবিতে এক জনের মুখ অন্য জনের সঙ্গে বদলে দেওয়া যায়।

—ফাইল চিত্র।

১৪ ১৯

তা হলে ‘ডিপফেক’-এ নতুন কী আছে? কেন তা এত ভয়ানক? এআই প্রযুক্তির যুগে ছবির মুখ বদলে দিতে আর কোনও বিশেষজ্ঞের প্রয়োজন নেই। কেবল দরকার একটি শক্তিশালী গ্রাফিক প্রসেসিং ইউনিট এবং কৃত্রিম বুদ্ধিমত্তা অ্যাপ।

—ফাইল চিত্র।

১৫ ১৯

এই দুই উপকরণের সাহায্যে অনায়াসে যে কেউ যে কোনও জায়গা থেকে আসল ছবিতে কাটাছেঁড়া করে নকল তৈরি করতে পারেন। এআই প্রযুক্তি এতটাই উন্নত, আসল আর নকলের মধ্যে ফারাক প্রায় থাকে না বললেই চলে। একই কথা অডিয়োর ক্ষেত্রেও প্রযোজ্য।

—ফাইল চিত্র।

১৬ ১৯

‘ডিপফেক’-এর বিষয়টি প্রথম প্রকাশ্যে আসে ২০১৭ সালে। পর্নোগ্রাফি ভিডিয়ো প্রকাশ করা একটি প্রোফাইল থেকে সমাজমাধ্যমে গ্যাল গ্যাডট, টেলর সুইফ্‌ট, স্কারলেট জনসনের মতো হলি তারকাদের মুখ বসানো নকল ভিডিয়ো প্রকাশ করা হয়।

—ফাইল চিত্র।

১৭ ১৯

সম্প্রতি ভারতের বাজারেও ছেয়ে গিয়েছে ‘ডিপফেক’। শুধু নায়িকাদের নকল ছবি এবং ভিডিয়ো তৈরি করে নয়, সমাজের সর্বস্তরে সব রকম অপরাধমূলক কাজে ব্যবহার করা হচ্ছে এই প্রযুক্তি।

—ফাইল চিত্র।

১৮ ১৯

বিশেষজ্ঞেরা জানাচ্ছেন, ভুয়ো তথ্যের মাধ্যমে লোক ঠকানোর ব্যবসাকে কৃত্রিম বুদ্ধিমত্তা যেন লক্ষ্মীলাভের পথ দেখিয়ে দিয়েছে। ‘ডিপফেক’ তারই ফল। অত্যন্ত সতর্ক ভাবে তা এড়িয়ে চলতে হবে। প্রয়োজনে দূরে থাকতে হবে প্রযুক্তি থেকে।

—ফাইল চিত্র।

১৯ ১৯

‘ডিপফেক’-এর মতো ভুয়ো কারসাজি ঠেকাতে সমাজমাধ্যমের প্ল্যাটফর্মগুলি ইতিমধ্যে বেশ কিছু বিধিনিষেধ আরোপ করেছে। তথ্যপ্রযুক্তির নতুন নিয়মও প্রয়োগ করা হচ্ছে। আগামী দিনে তার মাধ্যমে প্রযুক্তির অপব্যবহারের সঙ্গে লড়াই করা যাবে বলে আশাবাদী বিশেষজ্ঞেরা।

—ফাইল চিত্র।

(সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের Google News, X (Twitter), Facebook, Youtube, Threads এবং Instagram পেজ)
Follow us on:
Advertisement
আরও গ্যালারি
Advertisement