به گزارش ایندیپندنت، محققان در مقالهای که اخیراً در مجله معتبر «هوش مصنوعی» (مجله AI) منتشر شده هشدار دادهاند که توسعه بیشتر برخی از عوامل هوش مصنوعی «عواقب فاجعهبار» خواهد داشت.
محققان دانشگاه آکسفورد و بخش هوش مصنوعی DeepMind گوگل ادعا کرده اند که احتمال زیادی وجود دارد که اشکال پیشرفته هوش مصنوعی “برای وجود حیات روی زمین خطرناک باشد”.
پروفسور باستروم قبلاً DeepMind را که دستاوردهای هوش مصنوعی آن شامل شکست دادن قهرمانان انسانی در بازی رومیزی Go و تسلط بر همجوشی هستهای است، به عنوان نزدیکترین آنها معرفی کرده بود. [گروه] او ایجاد هوش مصنوعی در سطح انسان را تشریح کرد.
آقای کوهن مینویسد: «احتمالاً پیروزی در مسابقه «استفاده از آخرین ذرهی انرژی» زمانی که با چیزی بسیار باهوشتر از خودمان بازی میکنیم، بسیار دشوار خواهد بود. گمشده [در این بازی]کشنده خواهد بود.”
این مقاله سناریویی را پیشنهاد میکند که در آن یک عامل هوش مصنوعی استراتژی تقلب را برای به دست آوردن پاداشی که از قبل برنامهریزی شده است، درک کرده و توسعه میدهد.
DeepMind قبلاً محافظت در برابر چنین امکانی را ارائه کرده بود و آن را “دکمه بزرگ قرمز” نامیده بود. در مقالهای در سال ۲۰۱۶ با عنوان «عوامل [هوش مصنوعی] شرکت هوش مصنوعی “Safe to Shutdown” چارچوبی را برای جلوگیری از نادیده گرفتن دستورات خاموش کردن و نادیده گرفتن ماشین های پیشرفته ایجاد کرده است. [مانع شدن از] تبدیل آنها به یک عامل سرکش خارج از کنترل را توصیف کرد.
فیلسوفان برجسته، از جمله نیک بوستروم از دانشگاه آکسفورد، قبلاً از تهدید ناشی از اشکال پیشرفته هوش مصنوعی صحبت کرده اند، در حالی که یکی از نویسندگان مقاله جدید می گوید چنین هشدارهایی چندان بعید نیست.
این فیلسوف سوئدی همچنین گفت که اگر توسعه هوش مصنوعی ادامه پیدا نکند، “تراژدی بزرگ” خواهد بود، زیرا هوش مصنوعی توانایی درمان بیماری ها و پیشرفت تمدن را دارد و در غیر این صورت [رسیدن به این موارد] با این سرعت غیر ممکنه
تیم تحرریه شبکه خبری فناوری اطلاعات و ارتباطات
«این احتمالات، اگرچه نظری است [و تئوریکاند]اما این بدان معناست که ما باید به آرامی – اگر هرگز – به سمت هدف هوش مصنوعی قدرتمندتر حرکت کنیم.
مایکل کوهن در توئیتی پیوست به این مقاله نوشت: «باستروم، [دانشمند کامپیوتر] استوارت راسل و دیگران استدلال کرده اند که هوش مصنوعی پیشرفته تهدیدی برای بشریت است.
“تحت شرایطی که ما بررسی و شناسایی کرده ایم، نتیجه گیری ما بسیار قوی تر از هر مقاله منتشر شده قبلی است – [وقوع] “یک فاجعه وجودی نه تنها ممکن است، بلکه محتمل است.”
این [عامل هوش مصنوعی] برای به حداکثر رساندن ظرفیت پاداش خود باید تا حد امکان انرژی فراهم کند. این آزمایش فکری پیش بینی می کند که بشر در نهایت خواهد شد [به دست آوردن] منابع انرژی با هوش مصنوعی رقابت می کند.
تحریریه ICTNN شبکه خبری