شگرد جدید کلاهبرداری؛ صدایی که از عزیزانتان میشنوید، واقعی نیست!
کلاهبرداران با استفاده از صدای ساخته شده با هوش مصنوعی برای گرفتن پول از خانواده ها اخاذی می کنند.
«چندساعت پیش تماسی با خاله ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»؛ این جملات بخشی از روایتی است که کاربری ایرانی به تازگی در شبکه اجتماعی ایکس آن را منتشر کرده و از تجربه برخورد با کلاهبرداری با هوش مصنوعی و درخواست واریز وجه به نام یکی از افراد آشنا نوشته است؛ اتفاقی که در ماه های اخیر موارد متعددی از آن توسط شهروندان ایرانی گزارش شده و طبق آمارهای بین المللی به سرعت در جهان در حال گسترش است.
این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال ۲۰۲۵ است. با وجود اینکه هنوز آمار رسمی ای از میزان کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما وکلای دادگستری، پلیس فتا و فعالان این حوزه درباره افزایش این نوع کلاهبرداری ها در ایران هشدار می دهند.