1. صفحه اصلی
  2. /
  3. اخبار
  4. /
  5. ‌‏کلاهبرداری با دیپ فیک در امارات؛ ساخت صدای جعلی با هوش مصنوعی
‌‏کلاهبرداری با دیپ فیک در امارات؛ ساخت صدای جعلی با هوش مصنوعی

‌‏کلاهبرداری با دیپ فیک در امارات؛ ساخت صدای جعلی با هوش مصنوعی

د‌وبیاتی| ‏‌‏کلاهبرداری با دیپ فیک در امارات؛ یک میلیاردر هندی فاش کرد که کلاهبرداری مبتنی بر هوش مصنوعی نزدیک بود شرکت او را در دبی فریب دهد. این کلاهبرداری شامل یک کپی مصنوعی از صدای او بود که یکی از مدیران ارشد را تقریباً متقاعد کرد تا یک انتقال مالی بزرگ را تأیید کند. این مدیر ارشد، به سرعت تماس مشکوک را گزارش داد و از یک زیان مالی بزرگ جلوگیری کرد.

سونیال بهارتی میتال، بنیان‌گذار و رئیس گروه Bharti Enterprises، این ماجرا را در جریان اجلاس جهانی NDTV در روز دوشنبه توضیح داد. میتال بیان کرد که چگونه کلاهبردار صدای او را تقلید کرده بود که حتی خود او نیز پس از شنیدن ضبط «شوکه» شد. او گفت: «یکی از مدیران ارشد مالی من در دبی، که دفتر مرکزی آفریقا ما را مدیریت می‌کند، تماسی با صدای من دریافت کرد، با لحن من، که به او دستور می‌داد تا یک انتقال مالی بزرگ انجام دهد. او به اندازه کافی هوشیار بود تا متوجه شود که من هرگز چنین درخواستی را تلفنی انجام نمی‌دهم.»

این مدیر ارشد که نامش فاش نشده است، به سرعت تماس مشکوک را گزارش داد و از یک زیان مالی بزرگ جلوگیری کرد. میتال افزود: «وقتی صدای ضبط‌شده را شنیدم، کاملاً شوکه شدم که چقدر به‌طور کامل و دقیق تقلید شده بود. دقیقاً مثل صدای من به نظر می‌رسید.»

این حادثه در میان نگرانی‌های فزاینده جهانی و در امارات درباره سوءاستفاده از هوش مصنوعی، به‌ویژه فناوری دیپ‌فیک رخ داد. شورای امنیت سایبری امارات اخیراً درباره خطرات محتوای دیپ‌فیک هشدار داده و بر خطرات کلاهبرداری، نقض حریم خصوصی و اطلاعات نادرست تأکید کرده است. دیپ‌فیک‌ها — رسانه‌های تولید شده با هوش مصنوعی که برای تقلید از افراد واقعی طراحی شده‌اند — می‌توانند ویدئوها، تصاویر یا صداهای بسیار متقاعدکننده اما کاملاً ساختگی ایجاد کنند که تهدیدات جدی برای افراد و سازمان‌ها ایجاد می‌کنند.

این شورا همچنین یک کمپین آگاهی‌بخشی راه‌اندازی کرده است و هشدار داده که به اشتراک‌گذاری محتوای دیپ‌فیک می‌تواند منجر به کلاهبرداری یا عواقب قانونی شود و از مردم خواسته تا قبل از به اشتراک گذاشتن محتوای دیجیتال، صحت آن را بررسی کنند.

یک نظرسنجی اخیر از کاسپراسکای بیزینس دیجیتیسیشن نشان داد که در حالی که 75 درصد از کارکنان اماراتی معتقدند که می‌توانند یک دیپ‌فیک را شناسایی کنند، اما تنها 37 درصد در تشخیص تصاویر واقعی و تصاویر تولید شده توسط هوش مصنوعی موفق بودند. کارشناسان سایبری گفته‌اند که سازمان‌ها همچنان به‌شدت در برابر کلاهبرداری‌های دیپ‌فیک آسیب‌پذیر هستند، مانند آن‌هایی که شامل ویدئوها یا صدای جعلی مدیران عامل برای تأیید انتقال وجه هستند.

‌‏کلاهبرداری با دیپ فیک در امارات؛ ساخت صدای جعلی با هوش مصنوعی

dubiati پربازدیدترین پیج اینستاگرام ایرانیان در دبی!