Advertisement
E-Paper

শুধু ছবি, ভিডিয়ো নয়, অডিয়োতেও আছে ‘ডিপফেক’! কী কী বিপদ ঘটতে পারে?

দক্ষিণী তারকা রশ্মিকা মন্দনার ‘ডিপফেক’ ভিডিয়ো নিয়ে সম্প্রতি তোলপাড় পড়ে গিয়েছে। ভুয়ো কারসাজির কবলে পড়েছেন বলি নায়িকারাও। তবে ‘ডিপফেক’ শুধু ছবি, ভিডিয়োতেই আর সীমাবদ্ধ নেই।

আনন্দবাজার অনলাইন ডেস্ক

শেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ০৮:৪৬
Deep fake audio is another cause of alarm in AI world
০১ / ১৯

বলিউড থেকে রাজনীতি, ‘ডিপফেক’ সমস্যায় জেরবার দেশ। বলিউড তারকারা তো বটেই, ভুয়ো কারসাজির হাত থেকে রেহাই পাননি স্বয়ং প্রধানমন্ত্রী নরেন্দ্র মোদীও।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০২ / ১৯

একটি ভাইরাল ভিডিয়োতে মোদীকে অন্য অনেকের সঙ্গে গরবা নাচতে দেখা গিয়েছে। প্রধানমন্ত্রী নিজে সেই ভিডিয়ো দেখে বিস্ময় প্রকাশ করেছেন এবং জানিয়েছেন, তিনি স্কুলজীবনের পরে ওই নাচ আর কখনও নাচেননি।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৩ / ১৯

দক্ষিণের তারকা অভিনেত্রী রশ্মিকা মন্দনার সূত্রে সম্প্রতি ‘ডিপফেক’ সমস্যা চর্চায় উঠে এসেছে। রশ্মিকার একটি ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে পড়ে। যেখানে তাঁকে কালো পোশাকে দেখা যায়। কিন্তু পরে জানা যায় ভিডিয়োটি ভুয়ো।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৪ / ১৯

ওই ভিডিয়োতে আদৌ রশ্মিকা ছিলেন না। ছিলেন অন্য এক মহিলা। তাঁর মুখের জায়গায় প্রযুক্তি ব্যবহার করে রশ্মিকার মুখ বসিয়ে দেওয়া হয়েছিল। নিখুঁত কারসাজির দৌলতে সকলেই বিশ্বাস করেছিলেন ভিডিয়োর নারী রশ্মিকাই বটে। পরে অবশ্য আসল ভিডিয়োটিও প্রকাশ্যে আসে।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৫ / ১৯

‘ডিপফেক’ নিয়ে উদ্বেগ প্রকাশ করেন অভিনেত্রী স্বয়ং। তিনি বলেন, ‘‘এই ধরনের জিনিস সত্যিই খুব ভয়ানক। প্রযুক্তির এই অপব্যবহারে গোটা সমাজ বিপদের মুখে দাঁড়িয়ে। আমার সঙ্গে এটা যদি স্কুল বা কলেজজীবনে ঘটত, কী ভাবে পরিস্থিতির সঙ্গে যুঝতাম, জানি না।’’

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৬ / ১৯

রশ্মিকার ‘ডিপফেক’ নিয়ে চর্চার মাঝেই পর পর ক্যাটরিনা কইফ, কাজল, আলিয়া ভট্টের মতো বলি নায়িকাদের ‘ডিপফেক’ ভিডিয়ো প্রকাশ্যে আসতে শুরু করে।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৭ / ১৯

তবে ‘ডিপফেক’ সমস্যা শুধু ছবি আর ভিডিয়োতে আটকে নেই। অডিয়োতেও রয়েছে ‘ডিপফেক’। যা নিয়ে উদ্বেগের মাত্রা ক্রমশ বাড়ছে। রাশ টানার আগেই নাগালের বাইরে বেরিয়ে যাচ্ছে ‘ডিপফেক’।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৮ / ১৯

অডিয়োতে ‘ডিপফেক’-এর অর্থ হল, কারও গলার স্বর প্রযুক্তির মাধ্যমে বদলে দেওয়া। অন্য কারও গলার স্বর তার জায়গায় বসিয়ে দেওয়া। এর মাধ্যমে সহজেই লোক ঠকানো যায়।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
০৯ / ১৯

অমিতাভ বচ্চনের রিয়েলিটি শো ‘কৌন বনেগা ক্রোরপতি’-র একটি অংশে অমিতাভের মুখে মধ্যপ্রদেশের ভোট সংক্রান্ত প্রচারমূলক কথা বসিয়ে দেওয়ার অভিযোগ উঠেছে। সেই ভিডিয়ো নিয়েও কম চর্চা হয়নি।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১০ / ১৯

‘ডিপফেক’ অডিয়োর কথা প্রথম প্রকাশ্যে এসেছিল ২০১৯ সালে। ব্রিটেনের এক বহুজাতিক সংস্থা থেকে মালিকের গলার স্বর নকল করে প্রায় আড়াই লক্ষ ডলার হাতিয়ে নেওয়া হয়েছিল।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১১ / ১৯

বর্তমানে আমেরিকার কিছু তথ্য বিশ্লেষক সংস্থা দাবি করেছে, ‘ডিপফেক’ অডিয়ো প্রযুক্তি কাজে লাগাচ্ছে চিনও। বেজিংয়ের কৃত্রিম বুদ্ধিমত্তা সংস্থা নাকি ভারতের পঞ্জাব, কাশ্মীরের মতো সীমান্ত লাগোয়া এলাকা থেকে গলার স্বরের নমুনা সংগ্রহ করছে। এতে ভবিষ্যতে বিপদ হতে পারে।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১২ / ১৯

‘ডিপফেক’ কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিরই ফসল। যা আগামী দিনে জাতীয় নিরাপত্তাকেও বিঘ্নিত করতে পারে। যুদ্ধ থেকে শুরু করে নির্বাচনী প্রতিদ্বন্দ্বিতা, সব ক্ষেত্রেই নির্বিচারে ‘ডিপফেক’ ব্যবহৃত হচ্ছে।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৩ / ১৯

ছবি নিয়ে কাটাছেঁড়া নতুন নয়। নব্বইয়ের দশক থেকেই ফোটোশপের ব্যবহার প্রচলিত। তার মাধ্যমে যে কোনও ছবিতে এক জনের মুখ অন্য জনের সঙ্গে বদলে দেওয়া যায়।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৪ / ১৯

তা হলে ‘ডিপফেক’-এ নতুন কী আছে? কেন তা এত ভয়ানক? এআই প্রযুক্তির যুগে ছবির মুখ বদলে দিতে আর কোনও বিশেষজ্ঞের প্রয়োজন নেই। কেবল দরকার একটি শক্তিশালী গ্রাফিক প্রসেসিং ইউনিট এবং কৃত্রিম বুদ্ধিমত্তা অ্যাপ।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৫ / ১৯

এই দুই উপকরণের সাহায্যে অনায়াসে যে কেউ যে কোনও জায়গা থেকে আসল ছবিতে কাটাছেঁড়া করে নকল তৈরি করতে পারেন। এআই প্রযুক্তি এতটাই উন্নত, আসল আর নকলের মধ্যে ফারাক প্রায় থাকে না বললেই চলে। একই কথা অডিয়োর ক্ষেত্রেও প্রযোজ্য।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৬ / ১৯

‘ডিপফেক’-এর বিষয়টি প্রথম প্রকাশ্যে আসে ২০১৭ সালে। পর্নোগ্রাফি ভিডিয়ো প্রকাশ করা একটি প্রোফাইল থেকে সমাজমাধ্যমে গ্যাল গ্যাডট, টেলর সুইফ্‌ট, স্কারলেট জনসনের মতো হলি তারকাদের মুখ বসানো নকল ভিডিয়ো প্রকাশ করা হয়।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৭ / ১৯

সম্প্রতি ভারতের বাজারেও ছেয়ে গিয়েছে ‘ডিপফেক’। শুধু নায়িকাদের নকল ছবি এবং ভিডিয়ো তৈরি করে নয়, সমাজের সর্বস্তরে সব রকম অপরাধমূলক কাজে ব্যবহার করা হচ্ছে এই প্রযুক্তি।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৮ / ১৯

বিশেষজ্ঞেরা জানাচ্ছেন, ভুয়ো তথ্যের মাধ্যমে লোক ঠকানোর ব্যবসাকে কৃত্রিম বুদ্ধিমত্তা যেন লক্ষ্মীলাভের পথ দেখিয়ে দিয়েছে। ‘ডিপফেক’ তারই ফল। অত্যন্ত সতর্ক ভাবে তা এড়িয়ে চলতে হবে। প্রয়োজনে দূরে থাকতে হবে প্রযুক্তি থেকে।

—ফাইল চিত্র।
Deep fake audio is another cause of alarm in AI world
১৯ / ১৯

‘ডিপফেক’-এর মতো ভুয়ো কারসাজি ঠেকাতে সমাজমাধ্যমের প্ল্যাটফর্মগুলি ইতিমধ্যে বেশ কিছু বিধিনিষেধ আরোপ করেছে। তথ্যপ্রযুক্তির নতুন নিয়মও প্রয়োগ করা হচ্ছে। আগামী দিনে তার মাধ্যমে প্রযুক্তির অপব্যবহারের সঙ্গে লড়াই করা যাবে বলে আশাবাদী বিশেষজ্ঞেরা।

—ফাইল চিত্র।

সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের মাধ্যমগুলি

Advertisement

আরও গ্যালারি

Share this article

CLOSE

Log In / Create Account

We will send you a One Time Password on this mobile number or email id

Or

By proceeding you agree with our Terms of service & Privacy Policy