کایل آلسپاچ، گزارشگر امنیت سایبری پروتکل، میگوید: «این نوع کلاهبرداریها هنوز در مراحل ابتدایی خود هستند، احتمالاً دیری نمیگذرد که این تاکتیکها به جریان اصلی تبدیل میشوند، و متأسفانه تشخیص واقعیتهای داستانی دشوارتر است؛ بنابراین، هیچ مانعی برای افزایش سریع تقلید بصری و صوتی مبتنی بر هوش مصنوعی وجود ندارد.
منبع: popci
تیم تحرریه شبکه خبری فناوری اطلاعات و ارتباطات
ابزارهای نوظهور هوش مصنوعی مانند Koe Recast و Voice.ai به سرعت در حال توسعه توانایی خود برای تبدیل ورودی صوتی به صدای درخواستی کاربران با ورودی کافی برای تجزیه و تحلیل هستند. در برخی موارد، این برنامه ها فقط به یک کلیپ 15-30 ثانیه ای نیاز دارند تا جعل هویت قانع کننده ای ایجاد کنند. اگرچه Koe Recast هنوز در مرحله آزمایش خصوصی آلفای خود است، نمونههایی با یک کلیپ کوتاه از مارک زاکربرگ که به عنوان یک راوی باس سنگین، یک زن و حتی یک شخصیت انیمه قوی ظاهر میشود، در دسترس است.
فیلترهای صوتی اگرچه لزوماً جدید نیستند، اما اخیراً با کمک هوش مصنوعی به طور جدی تری مورد توجه قرار گرفته اند. متأسفانه، این فیلترها پیامدهای اجتماعی نیز دارند، و مانند صنعت ویدیوی دیپفیک، به نظر میرسد که تنظیمکنندههای کمی میتوانند کاری برای جلوگیری از آن انجام دهند.
هدف در اینجا این است که به مردم کمک کنیم تا خود را به گونه ای بیان کنند که آنها را خوشحال کند. با این حال، منتقدان همچنان نسبت به اعتماد عمومی به این ابزارهای بالقوه مخرب تردید دارند. اخیراً، برخی از نمایندگیهای مرکز تماس برونسپاری نیز شروع به استفاده از نرمافزار هوش مصنوعی برای پاک کردن لهجهها از کشور خود کردهاند تا بیشتر «آمریکایی» به نظر برسند و در تلاش برای کاهش تعصب در میان مصرفکنندگان غربی هستند. در حالی که سازندگان این ابزار ادعا میکنند اختراع آنها از تعصب جلوگیری میکند، بسیاری مخالفت کردهاند که این ابزار تنها راهی برای جلوگیری از برخورد با مسائل بزرگتر است: بیگانههراسی و نژادپرستی.
توجه روزافزون به فناوری هوش مصنوعی عمیق در سالهای اخیر عمدتاً بر ترفندهای بصری متمرکز شده است. به ویدیوهایی فکر کنید که می توانند به طور ماوراء طبیعی چهره یک فرد را بر روی نسل دیگری از هنر سورئال بر اساس پیشنهادات کاربران و اخلاق ناراحت کننده پیرامون همه این توانایی ها بپوشانند. اما روش کلیدی دیگری برای تقلید دیجیتال متقاعدکننده اخیراً مورد بازبینی و بحث قرار گرفته است.
به همین ترتیب، کارمندان برخی از شرکتهای بزرگ طعمه کلاهبردارانی شدهاند که در حالی که از صداهای مشابه برای جعل هویت روسا استفاده میکنند، درخواست انتقال پول و رمز عبور میکنند.
ادامه مطلب
تحریریه ICTNN شبکه خبری