شرکت متا اخیرا اعلام کرد که مدل های هوش مصنوعی خود را برای استفاده در مقاصد امنیتی نظامی در اختیار دولت ایالات متحده قرار خواهد داد. اقدامی جنجالی که برای کاربران این نرم افزار یک معضل اخلاقی ایجاد کرد.
به گزارش ICTNN، متا اعلام کرد که مدل های خود را با نام “لاما” در اختیار سازمان های دولتی و شرکای بخش خصوصی آنها که در حوزه دفاع و امنیت ملی فعالیت می کنند، قرار می دهد. اگرچه این تصمیم برخلاف سیاست های خود متا است، زیرا طبق قوانین این شرکت، استفاده از مدل هوش مصنوعی لاما در فعالیت های نظامی، جنگ، صنایع هسته ای، جاسوسی، تروریسم، قاچاق انسان و سوء استفاده یا آسیب رساندن به کودکان ممنوع است.
معافیتهای سیاست متا محدود به ایالات متحده نخواهد بود، بلکه سازمانهای امنیت ملی بریتانیا، کانادا، استرالیا و نیوزلند را نیز شامل میشود. وضعیتی که شکنندگی فزاینده نرم افزار هوش مصنوعی منبع باز را نشان می دهد.
از سوی دیگر، در دسترس قرار دادن مدل هوش مصنوعی لاما در اختیار نهادهای امنیتی و نظامی کشورها به این معنی است که اطلاعات کاربران فیس بوک، اینستاگرام، واتس اپ و مسنجر که برخی از نسخه های آنها از Llama استفاده می کنند، ممکن است به طور ناخواسته در برنامه های نظامی در سراسر جهان درگیر شوند. یا
لاما چیست و چگونه کار می کند؟
Llama مجموعه ای از مدل های زبان بزرگ (شبیه به چت JPT) و مدل های چندوجهی بزرگ است که با داده های غیر متنی، از جمله صدا و تصویر کار می کند. متا مالک فیس بوک Llama را در رقابت با گپ GPT OpenAI راه اندازی کرد. تفاوت اصلی بین Llama Chat و GPT Chat این است که همه مدل های Llama به عنوان نرم افزار رایگان و متن باز ارائه می شوند. این بدان معنی است که هر کسی می تواند کد منبع الگوی Llama را دانلود، اجرا و تغییر دهد (به شرط داشتن سخت افزار مناسب). از طرف دیگر، چت GPT فقط از طریق OpenAI قابل دسترسی است.
ابتکار منبع باز، مرجعی که مسئول تعریف نرم افزار منبع باز است، اخیراً استانداردی را برای تعریف هوش مصنوعی منبع باز منتشر کرده است. این استاندارد “چهار آزادی” را برای طبقه بندی یک مدل به عنوان منبع باز مشخص می کند:
– از سیستم برای هر منظوری، بدون نیاز به اخذ مجوز استفاده کنید
– بررسی عملکرد سیستم و بررسی اجزای آن
– اصلاح سیستم برای هر منظوری از جمله اصلاح خروجی آن
– سیستم را با دیگران به اشتراک بگذارید تا از آن، با یا بدون تغییرات، برای هر هدفی استفاده کنند
در حالی که مدل هوش مصنوعی لاما این شرایط را ندارد. زیرا استفاده تجاری از آن محدود شده و فعالیت هایی که ممکن است مضر یا غیرقانونی باشد ممنوع است. علاوه بر این، هیچ شفافیت لازم در داده های آموزش لاما وجود ندارد. با این حال، متا همچنان از Llama به عنوان نرم افزار منبع باز یاد می کند.
پیوند خطرناک بین صنعت فناوری و ارتش
Meta Corporation تنها شرکت فناوری تجاری نیست که وارد حوزه کاربردهای نظامی هوش مصنوعی شده است. هفته گذشته، Anthropic همچنین همکاری خود را با شرکت تجزیه و تحلیل داده Palantir و Amazon Web Services اعلام کرد تا آژانسهای اطلاعاتی و دفاعی ایالات متحده به مدلهای هوش مصنوعی خود دسترسی داشته باشند.
متا از تصمیم خود مبنی بر در دسترس قرار دادن مدل هوش مصنوعی لاما برای آژانس های امنیت ملی و پیمانکاران دفاعی ایالات متحده دفاع کرد و گفت که این استفاده ها مسئولانه و اخلاقی هستند و به رفاه و امنیت ایالات متحده کمک می کنند.
در حالی که متا هنوز شفافیت لازم را در مورد داده هایی که برای آموزش مدل لاما استفاده می کند، ارائه نکرده است. اما شرکتهایی که مدلهای هوش مصنوعی مولد را توسعه میدهند اغلب از بازخورد کاربران برای بهبود بیشتر مدلهای خود استفاده میکنند و کاربران هنگام استفاده از این ابزارها اطلاعات شخصی زیادی را به اشتراک میگذارند.
Chat GPT و Dal-e گزینه جمع آوری نکردن داده های کاربر را ارائه می دهند. اما مشخص نیست که آیا مدل Llama نیز چنین امکانی را ارائه می دهد یا خیر. این امکان امتناع از جمع آوری داده ها هنگام ثبت نام در این خدمات به وضوح نمایش داده نمی شود و توجه به آن بر عهده کاربر است. با این حال، اکثر کاربران ممکن است ندانند که در کجا و چگونه از الگوی هوش مصنوعی Llama استفاده کنند.
به عنوان مثال، آخرین نسخه Llama از ابزارهای هوش مصنوعی موجود در فیس بوک، اینستاگرام، واتس اپ و مسنجر نیز پشتیبانی می کند. وقتی کاربران از قابلیت های هوش مصنوعی در این پلتفرم ها استفاده می کنند، در واقع از لاما استفاده می کنند.
چالش های استفاده از مدل های متن سنگین در حوزه نظامی
یکی از مزایای نرم افزارهای متن باز امکان مشارکت و همکاری رایگان در توسعه آنهاست. اما این می تواند منجر به سیستم هایی شود که به راحتی قابل دستکاری هستند. به عنوان مثال، پس از حمله روسیه به اوکراین در سال 2022، برخی از کاربران برای نشان دادن حمایت از اوکراین، تغییراتی در نرم افزار منبع باز ایجاد کردند.
این تغییرات شامل درج پیام های ضد جنگ و حذف فایل های سیستم در رایانه های روسیه و بلاروس بود. این جنبش به نرم افزار اعتراض معروف شد.
پیوند دادن نرمافزارهای AI منبع باز به برنامههای نظامی احتمالاً این شکنندگی را افزایش میدهد، زیرا استحکام نرمافزار منبع باز به مشارکت عموم کاربران بستگی دارد. در مورد مدل های زبان بزرگ مانند Llama، این مدل ها نیاز به تعامل و قابلیت استفاده کلی دارند زیرا طراحی آنها بر اساس یک حلقه بازخورد بین کاربران و سیستم هوش مصنوعی بهبود یافته است.
استفاده مشترک از ابزارهای منبع باز هوش مصنوعی بین دو گروه عموم مردم و ارتش که نیازها و اهداف متفاوتی دارند رخ می دهد، تفاوتی که چالش های جدیدی را برای هر دو گروه ایجاد خواهد کرد. برای ارتش، دسترسی باز به این معنی است که جزئیات عملیاتی یک ابزار هوش مصنوعی به راحتی در دسترس است، که می تواند منجر به مسائل امنیتی و آسیب پذیری شود. برای عموم مردم، عدم شفافیت در مورد نحوه استفاده ارتش از دادههای کاربران میتواند به یک معضل اخلاقی و بشردوستانه تبدیل شود.
ICTNN
تیم تحرریه شبکه خبری فناوری اطلاعات و ارتباطات