: জেনারেটিভ AI এবং উন্নত মেশিন লার্নিং অ্যালগরিদম ডেকে এনেছে এক ভয়ঙ্কর বিপদ। সাইবার জালিয়াতির দরজা হাট করে খুলে দিচ্ছে প্রযুক্তির উন্নতি। ইতিমধ্যেই আমরা Deepfake ভিডিও-র কথা শুনেছি। সেখানে স্ক্যামাররা জনপ্রিয় সেলিব্রিটিদের বিশ্বাসযোগ্য কিছু জাল ভিডিও তৈরি করতে AI-কে ব্যবহার করছে। ঠিক একই ভাবে আসছে ভয়েস ক্লোনিং-এর বিপদ। গত কয়েক মাস ধরেই শোনা যাচ্ছে প্রতারণার এই নতুন কৌশলের কথা।অত্যাধুনিক ভয়েস ক্লোনিং প্রযুক্তিকে কাজে লাগিয়ে প্রতারকরা লক্ষ লক্ষ টাকা প্রতারণা করে নিচ্ছে। এই পদ্ধতিতে জালিয়াতরা কারও পরিবারের সদস্যদের গলা নকল করে টাকা চাওয়ার অভিযোগ উঠছে। মাত্র কয়েক সপ্তাহ আগে, সংবাদ মাধ্যমে একটি ঘটনার কথা জানা গিয়েছিল, সেখানে দিল্লির এক বৃদ্ধ ৫০ হাজার টাকা জালিয়াতির অভিযোগ করেছিলেন। তাঁর খুড়তুতো ভাইয়ের ছেলেকে অপহরণ করা হয়েছে ভেবে তিনি প্রতারিত হন। প্রতারক, উন্নত কৌশল অবলম্বন করে, ছেলেটির একটি ক্লোন করা ভয়েস রেকর্ডিং চালিয়ে চাপ প্রয়োগ করে। আতঙ্কিত হয়ে ওই ব্যক্তি Paytm-এর মাধ্যমে ৫০ হাজার টাকা পাঠিয়ে দেন।পরে জানা যায় যে অপহরণের নাম করে তাঁর কাছ থেকে টাকা প্রতারণা করা হয়েছে। এই ধরনের জালিয়াতির খবর ধীরে ধীরে প্রকাশ্যে আসছে। স্ক্যামাররা আরও বিশ্বাসযোগ্য হওয়ার জন্য নতুন প্রযুক্তি এবং কৌশলগুলি আবিষ্কার করছে।এআই ভয়েস ক্লোনিং স্ক্যাম থেকে বাঁচার উপায়— ১. সন্দেহজনক কোনও কথোপকথন সর্বদা যাচাই করে নেওয়া উচিত। স্ক্যামাররা ভয় দেখানোর চেষ্টা করবেই। তাই প্রথমেই ভয় পেয়ে যাওয়া চলবে না, শান্ত থাকতে হবে।২. AI ভয়েস ক্লোনিং একটি অপেক্ষাকৃত নতুন প্রযুক্তি। এখনও ভয়েস ক্লোন করার সময় রোবটিক এবং ডিজিটাল শব্দ তৈরি হয়ে থাকে। বাক্যগুলি কীভাবে শেষ হচ্ছে সেদিকে খেয়াল রাখতে হবে। ভয়েসের মধ্যে একটি রোবোটিক আন্ডারটোন আছে কিনা তা দেখে নিতে হবে।৩. ভারতের প্রধানমন্ত্রী নরেন্দ্র মোদির কণ্ঠস্বরও মিম রিলে ক্লোন করা হয়েছে। তবে হ্যাঁ, তাতে একটি রোবোটিক ভঙ্গি রয়েছে। তাই হঠাৎ কোনও আত্মীয় ফোন করে টাকা চাইলেও সতর্ক হতে হবে। তাঁর সঙ্গে অন্য উপায়ে যোগাযোগের চেষ্টা করতে হবে।