কৃত্রিম মেধা বা এআইয়ের (আর্টিফিশিয়াল ইনটেলিজেন্স) তৈরি করা ভিডিয়ো ঘিরে বাড়ছে বিপদ! সেগুলি যে নকল, তা বোঝা দায়। ফলে এআইয়ের তৈরি করা ভুয়ো ভিডিয়োকে কাজে লাগিয়ে নানা অপকর্মের সুযোগ পাচ্ছে অপরাধীরা। এর থেকে কী ভাবে সতর্ক হবে আমজনতা? আনন্দবাজার ডট কমের এই প্রতিবেদনে রইল তার হদিস।
কয়েক বছর আগেও অবশ্য এই সমস্যা ছিল না। একটু খেয়াল করে দেখলেই এআই ভিডিয়ো চিনতে পারবেন সমাজমাধ্যম ব্যবহারকারীরা। কারণ, এর চরিত্রগুলি কথা বলে রোবটিক টোনে, যা সাধারণ মানুষের থেকে অনেকটাই আলাদা। এ ছাড়া হাতের আঙুলের নড়াচড়া দেখেও স্পষ্ট বোঝা যায় কোনটা আসল ভিডিয়া আর কোনটা তৈরি করেছে এআই।
কিন্তু, ২০২৫ সালে আরও উন্নত হয়েছে কৃত্রিম মেধা প্রযুক্তি। ফলে যাবতীয় বাধা কাটিয়ে উঠে এআই টুলের মাধ্যমে হুবহু আসলের মতো ভুয়ো ভিডিয়ো তৈরি করা জলভাত হয়ে গিয়েছে। এ বছরের জুনে ইরান-ইজ়রায়েল যুদ্ধের সময় হু-হু করে দুনিয়া জুড়ে ছড়িয়ে পড়ে কৃত্রিম বুদ্ধিমত্তার তৈরি ভুয়ো ভিডিয়ো এবং ছবি, যা দেখে তথ্যপ্রযুক্তি বিশ্লেষকদের একাংশের আশঙ্কা, এআই যে দিকে যাচ্ছে তাতে আগামী দিনে দু’টি দেশের মধ্যে যুদ্ধও বেধে যেতে পারে।
কৃত্রিম মেধার তৈরি নকল ছবি বা ভিডিয়োকে চিহ্নিত করার কোনও সুনির্দিষ্ট পদ্ধতি নেই। ইতিমধ্যেই এ ব্যাপারে অক্ষমতার কথা জানিয়ে দিয়েছে বিশেষজ্ঞেরা। বর্তমানে এআই ভিডিয়ো শনাক্ত করতে অনেকেই ব্যবহার করছেন গুগ্ল রিভার্স ইমেজ। এর সাহায্যে ‘ফ্রেম বাই ফ্রেম’ ভিডিয়ো বিশ্লেষণ করে সেটা আসল না কি ভুয়ো, তা বলে দিতে পারে এই টুল।
আরও পড়ুন:
তবে এ ব্যাপারে ইন্টারনেট ব্যবহারকারীদের অনেক বেশি সর্তক হওয়ার প্রয়োজন রয়েছে। বাস্তবে সম্ভব নয় এমন কোনও ভিডিয়ো বা ছবি দেখলে বুঝতে হবে সেটা বানিয়েছে এআই। খ্যাতনামীরা অদ্ভুত কথা বলছেন, মানুষ বা অন্য কোনও প্রাণী অদ্ভুত আচরণ করছে— এই ধরনের ভিডিয়ো থেকে দূরে থাকাই ভাল। সমাজমাধ্যমে কোনও কিছু শেয়ার করার আগে তাই সেটা বার বার যাচাই করার পরামর্শ দিয়েছেন বিশ্লেষকেরা।