به گزارش ایتنا این یافتههای گزارش منتشر شده توسط مایکروسافت با همکاری شرکت OpenAI است، که در آن، ادعا کردهاند پنج کشور شامل روسیه، کره شمالی، ایران و چین، از خدمات و قابلیتهای هوش مصنوعی برای انجام فعالیتهای مخرب سایبری استفاده میکردند.
مایکروسافت در گزارشی گفت: «پشتیبانی از زبان یک ویژگی طبیعی LLM است و برای تهدیدکنندگان با تمرکز بر مهندسی اجتماعی، شبکههای حرفهای و سایر روابط جذاب است.»
در حالی که تا به امروز هیچ حمله مهم یا جدیدی با استفاده از LLM شناسایی نشده است، اکتشافات فناوریهای هوش مصنوعی از مراحل مختلف زنجیره حمله، مانند شناسایی، کدگذاری، و توسعه بدافزار فراتر رفته است.
این هکرها عموماً به دنبال استفاده از خدمات OpenAI برای جستوجوی اطلاعات منبع باز، ترجمه، یافتن خطاهای کدنویسی و اجرای وظایف اصلی کدگذاری بودند. برای مثال، گفته میشود که گروه دولتی وابسته به روسیه که تحت عنوان Forest Blizzard معروف به APT28ردیابی میشود، پیشنهاداتی برای انجام تحقیقات منبع باز در مورد پروتکلهای ارتباطات ماهوارهای و فناوری تصویربرداری راداری و همچنین برای پشتیبانی از وظایف اسکریپت داده است.
برخی از دیگرهکرهای قابل توجه در زیر ذکر شده است:
– Emerald Sleet با نام مستعار کیموسکی، تهدیدگری از کره شمالی، از LLM برای شناسایی کارشناسان، اتاقهای فکر و سازمانهای متمرکز بر مسائل دفاعی در منطقه آسیا-اقیانوسیه، درک نقصهای در دسترس عموم، کمک به برنامهنویسی اولیه و پیشنویس محتوا استفاده کرده است.
– Crimson Sandstorm معروف به امپریال کیتن، که از LLM برای ایجاد کدهای مربوط به برنامه و توسعه وب، تولید ایمیل های فیشینگ و تحقیق در مورد روش های رایج بدافزار برای فرار از شناسایی استفاده کرده است.(بنا به ادعای گزارش، این گروه ایرانی است.)
– Charcoal Typhoon با نام مستعار پاندای آبی، یک عامل تهدید چینی است که از LLM برای تحقیق در مورد شرکتها و آسیبپذیریهای مختلف، تولید اسکریپتها، ایجاد محتوای احتمالی برای استفاده در کمپینهای فیشینگ و شناسایی تکنیکهای رفتار پس از سازش استفاده کرده است.
– Salmon Typhoon معروف به Maverick Pand، یک عامل تهدید چینی است که از LLM برای ترجمه مقالات فنی، بازیابی اطلاعات در دسترس عموم در مورد آژانسهای اطلاعاتی متعدد و عوامل تهدید منطقهای، رفع خطاهای کدگذاری و یافتن تاکتیکهای پنهانکاری برای فرار از شناسایی استفاده کرده است.
مایکروسافت همچنین اعلام کرد که در حال تدوین مجموعهای از اصول برای کاهش خطرات ناشی از استفاده مخرب از ابزارهای هوش مصنوعی و APIها توسط تهدیدات دائمی دولتها، دستکاریکنندگان پیشرفته و سندیکایهای مجرم سایبری و ایجاد نردههای محافظ و ایمنی موثر است. این اصول شامل شناسایی و اقدام در برابراستفاده تهدیدگران مخرب به سایر ارائه دهندگان خدمات هوش مصنوعی وهمکاری با سایر ذینفعان و شفافیت است.
منبع: https://www.itna.ir/news/77426/%D9%87%D8%B4%D8%AF%D8%A7%D8%B1-%D9%85%D8%A7%DB%8C%DA%A9%D8%B1%D9%88%D8%B3%D8%A7%D9%81%D8%AA-openai-%D9%85%D9%88%D8%B1%D8%AF-%D9%87%DA%A9%D8%B1%D9%87%D8%A7%DB%8C-%D8%AF%D9%88%D9%84%D8%AA%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D8%AD%D9%85%D9%84%D8%A7%D8%AA-%D8%B3%D8%A7%DB%8C%D8%A8%D8%B1%DB%8C-%D8%A7%D8%B3%D8%AA%D9%81%D8%A7%D8%AF%D9%87-%D9%85%DB%8C-%DA%A9%D9%86%D9%86%D8%AF