আর্থিক প্রতারণায় পিসি-ভাইপো। ছবি: সংগৃহীত।
পিসি সঙ্গে ভাইপোর প্রায়শই কথা হত ফোনে। কিন্তু ভাইপোর গলা নকল করে কেউ তাঁকে আর্থিক প্রতারণা করতে পারে, তা ভাবতেই পারেননি বৃদ্ধা। প্রায় দেড় লক্ষ টাকা খুইয়ে পুলিশের দ্বারস্থ হলেন তিনি। দিল্লির ঘটনা।
অনলাইন আর্থিক জালিয়াতি রুখতে ‘এআই’ প্রযুক্তির ব্যবহার যেমন জনপ্রিয় হয়ে উঠছে, তেমনই সাধারণ মানুষকে বিপদের মুখেও ঠেলে দিচ্ছে। কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিশিয়াল ইনটেলিজেন্স প্রযুক্তির মাধ্যমে যে কোনও ব্যক্তির গলার স্বর হুবহু নকল করে ফেলা যায়। এক বার শুনেই তা ধরে ফেলা সহজ নয়। প্রতারকেরা তাই হাতিয়ার হিসাবে এই প্রযুক্তির দিকেই হাত বাড়াচ্ছে। একটি প্রতিবেদন থেকে জানা গিয়েছে, সম্প্রতি কানাডাবাসী ভাইপোর গলা নকল করে দিল্লিবাসী পিসির থেকে প্রায় দেড় লক্ষ টাকা হাতিয়ে নিয়েছে জালিয়াতেরা। পুরো ঘটনাটিই ঘটেছে এআই প্রযুক্তির সাহায্যে।
পুলিশ সূত্রে জানা গিয়েছে, বছর ৬০-এর বৃদ্ধা পিসিকে প্রায়শই ফোন করতেন তাঁর ভাইপো। ভারতের সঙ্গে কানাডার সময়ের ফারাক রয়েছে। কানাডায় যখন দিন, ভারতে তখন মধ্যরাত। ওই বৃদ্ধার কথায়, “সময়ের সঙ্গে সামঞ্জস্য রাখতে মধ্যরাতেই বেশি কথা হত আমাদের। অন্যান্য দিনের মতো সে দিনও মাঝ রাতে ফোনটা আসে। একেবারে ভাইপোর গলার স্বর নকল করে আমার সঙ্গে যে অন্য কেউ কথা বলল। আমি ঘুণাক্ষরেও টের পাইনি যে সেটা অন্য কেউ। ঝরঝরে পঞ্জাবি ভাষায় আমার ভাইপো যেমন কথা বলে, তেমন করেই কথা বলছিল ও।”
পুলিশ সূত্রে খবর, বিদেশে থাকা ভাইপোর গলা নকল করে প্রতারকেরা ওই প্রৌঢ়ার কাছে বিশেষ প্রয়োজনে দেড় লক্ষ টাকা সাহায্য চান। সত্যতা যাচাই না করেই ফোন মারফত ওই পরিমাণ টাকা পাঠিয়ে দেন পিসি। যত ক্ষণে তাঁর মনে সন্দেহ দানা বাঁধে, তত ক্ষণে যা হওয়ার হয়ে গিয়েছে। দিল্লির তথ্য প্রযুক্তি বিশেষজ্ঞেরা বলছেন, গলার স্বর নকল করে আর্থিক জালিয়াতির ঘটনা বিশ্বের নানা প্রান্তে বেড়েই চলেছে। কানাডা এবং ইজ়রায়েলের মতো দেশ জালিয়াতদের নতুন শিকার। দেশে-বিদেশে ছড়িয়ে থাকা বয়স্ক, নিঃসঙ্গ পরিজনেরাও তাঁদের নজরে থাকেন। তাই কোথাও টাকা পাঠানোর আগে সেই বিষয়ে বার বার যাচাই করে নেওয়ার পরামর্শ দিচ্ছেন তাঁরা।
Or
By continuing, you agree to our terms of use
and acknowledge our privacy policy