«چت جیپیتی» پلتفرمی با بیشترین میزان استقبال و استفاده در تمام دورانها محسوب میشود؛ زیرا نهتنها به مردم توانایی بیسابقهای را برای استفادۀ گسترده و کاربردی از اطلاعات اینترنتی آن هم در کوتاهترین زمان ممکن داده است، بلکه باعث شده که شیوۀ انجام فعالیتها توسط کاربران یا چگونگی جستجوی اطلاعات در اینترنت و بهرهگیری از آنها نیز تغییر کند.
به گزارش ایتنا و به نقل از یورونیوز، اما یکی از نگرانیها درباره گستردگی استفاده از فناوریهای هوش مصنوعی از جمله «چت جیپیتی» این است که مجرمان و سایر بازیگران بد نیز میتوانند به این قدرت نامحدود اطلاعات دسترسی یابند و از آن در جهت اهداف خود استفاده کنند.
این همان چیزی است که یوروپل (پلیس اتحادیه اروپا) در گزارش اخیر خود به آن پرداخته است. در این گزارش آمده است که «چت جیپیتی» که بر اساس فناوری مدل زبان برنامهنویسی بزرگ یا LLM ساخته شده، «درک بهتر و متعاقب آن ارتکاب انواع جرایم را برای مجرمان آسانتر میکند».
چراکه اگر در «چت جیپیتی» سوالات مناسب و هدفمندی پرسیده شود، نهتنها اطلاعات گسترده و رایگانی در اختیار کاربران قرار میگیرد بلکه آموزش گام به گام چگونگی اقدام نیز داده میشود.
برخی از جنایاتی که یوروپل هشدار میدهد چت باتها یا LLMها میتوانند درآن موضوعات بطور بالقوه به مجرمان کمک کنند، به قرار زیر است:
تقلب، جعل هویت و مهندسی اجتماعی
«چت جیپیتی» و دیگر رباتهای چت مانند Google’s Bard، کاربران را با تواناییهای خود در ارائه متون در هر موضوعی و بر اساس درخواستهای کاربر، شگفتزده کردهاند.
آنها بطور مثال میتوانند سبک نوشتاری افراد مشهور را جعل کنند و سبکهای نوشتاری متون جدید را نیز بیاموزند. به این ترتیب فرصت خوبی برای مجرمانی فراهم میشود که میخواهند دست به جعل هویت اشخاص یا سبک نوشتاری یک سازمان بزنند و احتمالا آن را در کلاهبرداریها استفاده کنند.
یوروپل همچنین هشدار میدهد که «چت جیپیتی» میتواند برای مشروعیت دادن به انواع مختلف کلاهبرداریهای آنلاین، از جمله تولید انبوه محتوای جعلی برای رسانههای اجتماعی استفاده شود.
تا کنون یکی از راههای کشف کلاهبرداریها از مسیر ایمیل یا رسانههای اجتماعی، اشتباهات املایی یا دستوری آشکاری بوده که مجرمان هنگام نوشتن محتواها مرتکب میشدند. اما اکنون با داشتن قدرت فناوریهایی همچون «چت جیپیتی» حتی مجرمانی که درک کمی از زبان انگلیسی دارند، میتوانند محتوایی تولید کنند که دیگر این اشتباهات املایی و دستوری را نداشته باشد.
این فناوری همچنین برای کسانی که به تولید و انتشار تبلیغات و اطلاعات نادرست میپردازند مفید خواهد بود زیرا به آنها در ساختن استدلالها و روایتها آنهم با سرعت زیاد کمک میکند.
جرایم سایبری برای مبتدیان
«چت جیپیتی» نه تنها در نوشتن جملات خوب است، بلکه در تعدادی از «زبانهای برنامهنویسی» نیز مهارت دارد و به گفته یوروپل، این بدان معنی است که میتواند باعث گسترش جرایم سایبری شد.
در این گزارش هشدار داده شده که با نسخه فعلی «چت جیپیتی»، امکان ایجاد ابزارهای لازم برای انواع اهداف مخرب وجود دارد؛ به عنوان مثال ابزارهای لازم برای تولید صفحات فیشینگ.
به این ترتیب به مجرمانی که دانش کدنویسی کمی دارند یا دانشی در این باره ندارند نیز کمک میکند تا چیزهایی را طراحی کنند که قبلا اصلا نمیتوانستند.
پیامدهای فناوری دیپ فیک در دنیای واقعی
از نظر یوروپل، «چت جیپیتی» تنها یکی از حوزههای هوش مصنوعی است که میتواند بطور گسترده از سوی مجرمان استفاده شود. پیش از این نیز برخی فناوریهای جنجالی هوش مصنوعی مانند «دیپ فیک» آسیبهای جدی به جامعه رسانده بودند.
بطور مثال، یکی از پروندههای تخلفات اینترنتی درباره زنی ۱۸ ساله بوده است که در کمال ناباوری عکسهای پورن خود را در فضای مجازی در حال دست به دست شدن یافته است؛ آنهم در حالی که هرگز آن عکسها را نگرفته یا به اشتراک نگذاشته است. در واقع، صورت او در این تصاویر به کمک فناوریهای دیجیتالی به تصاویر بدن فرد دیگری اضافه شده است.
این زن در مصاحبه با یورونیوز گفت که آنچه روی داده برای او نتیجهای جز «حبس مادامالعمر» نداشته است.
گزارشی دیگر که در سال ۲۰۱۹ میلادی منتشر شد نیز نشان داد که ۹۶ درصد از محتوای دیپ فیکهای آنلاین، پورنوگرافیهای غیرقانونی است. گاه نیز از فناوری دیپ فیک صوتی، برای تقلید صدای یک نفر با هدف کلاهبرداری از اعضای خانوادهاش استفاده شده است.
یوروپل گزارش خود را با تاکید بر این نکته به پایان رسانده که برای مجریان قانون مهم است «در خط مقدم تحولات دنیای فناوری باقی بماند» تا بتوانند استفاده مجرمانه از هوش مصنوعی را پیشبینی و از وقوع آن جلوگیری کنند.
منبع: https://www.itna.ir/news/72871/%D9%86%DA%AF%D8%B1%D8%A7%D9%86%DB%8C-%DB%8C%D9%88%D8%B1%D9%88%D9%BE%D9%88%D9%84-%D8%A7%D8%AD%D8%AA%D9%85%D8%A7%D9%84-%D8%B3%D9%88%D8%A1%D8%A7%D8%B3%D8%AA%D9%81%D8%A7%D8%AF%D9%87-%D9%85%D8%AC%D8%B1%D9%85%D8%A7%D9%86-%D8%A7%D9%85%DA%A9%D8%A7%D9%86%D8%A7%D8%AA-%DA%86%D8%AA-%D8%AC%DB%8C-%D9%BE%DB%8C-%D8%AA%DB%8C