تعارض عاطفی راه دیگری است که انسان ها کنترل خود را بر فناوری از دست می دهند. هر چه انسانها از نظر شهودی و احساسی با فناوری تعامل بیشتری داشته باشند، هدایت فناوری آسانتر است. این یکی از انگیزههای طراحی رباتهای اجتماعی و انساننما است که در آن انسانها با فناوری هوش مصنوعی تجسمی شده واکنش نشان میدهند و به همان شکلی که انسان با انسانها واکنش نشان میدهد و تعامل میکند. با این حال، نسبت دادن عواطف انسانی، عاملیت و سایر ویژگیهای انسانی، مانند فناوری که فاقد این قابلیتها است، میتواند منجر به تضاد عاطفی یک طرفه انسان و همچنین تعامل انسان و فناوری شود که نه عقلانیت، بلکه توسط عوامل عاطفی بر آن حاکم است. . در این نوع تعامل، انسان ها شرکای آسیب پذیرتری هستند.
جرون ون دن هون: استاد اخلاق و فناوری در دانشگاه صنعتی دلفت و یکی از نویسندگان کتاب Evil Online
ادامه مطلب
مشکل چیه ؟ به زودی ما قادر خواهیم بود هر ژنوم ویروسی را از ابتدا بنویسیم. با توجه به SARS-CoV-2 که باعث کووید-19 می شود، ممکن است دورنمای ترسناکی به نظر برسد، اما ویروس ها لزوما بد نیستند. در واقع، یک ویروس فقط یک ظرف از کد بیولوژیکی است. در آینده ممکن است در مورد ویروس های مفید به عنوان درمان سرطان یا بیماری های خاص بنویسیم. زیست شناسی مصنوعی نقش مهمی در بحران آب و هوا و کمبود غذا و آب در حال ظهور ما ایفا خواهد کرد. وابستگی پروتئین ما به حیوانات را کاهش می دهد و در نهایت پزشکی را شخصی می کند. آینده ای را تصور کنید که در آن بدن شما به عنوان داروخانه خودش عمل می کند.
ایمی وب: نویسنده و مدیر اجرایی Future Today.
طبق گزارش Gizmodo، کسانی که تمایل دارند به آخرالزمان فکر کنند، می دانند که فناوری، در خالص ترین شکل خود، فاجعه تمدن با آن بیاورید. با این حال، ممکن است این سوال برای شما پیش بیاید که خطرناک ترین تکنولوژی چه چیزی پدیدار می شود؟ برای پاسخ به این سوال، برای کسب اطلاعات بیشتر با تعدادی از کارشناسان تماس گرفتیم.
نظارت بر محل کار
الیزابت هیلد: استاد فلسفه، موسسه فناوری ایلینویز
رایان کالو: استاد حقوق، رئیس، رئیس و استاد گروه فناوری و جامعه، و عضو هیئت علمی آزمایشگاه سیاست فناوری و مرکز جامعه آگاه در دانشگاه واشنگتن
برای من خطرناک ترین فناوری در حال ظهور محاسبات کوانتومی است. به استثنای شکستن رمزگذاری، خطرات محاسبات کوانتومی چیز جدیدی نیست. در عوض، محاسبات کوانتومی تهدیدات حریم خصوصی و استقلال را که در عصر ابررایانه ها آغاز شد، تسریع می کند. با دسترسی به داده ها و قدرت پردازش کافی، سیستم های کامپیوتری امروزی به طور فزاینده ای قادر به استخراج اطلاعات بسیار نزدیک به ما هستند. می ترسم محاسبات کوانتومی همه اسرار ما را بر اساس اطلاعاتی که حتی فکر نمی کنیم می توانیم پنهان کنیم حدس می زند.
زیست شناسی
زیفر تکوت: دانشیار، حقوق، دانشگاه فوردهام
ترس دیگر از این پرونده سوء استفاده از اطلاعات است. خطر سوء استفاده از اطلاعات واقعی وجود دارد. هرکسی که به اطلاعات دسترسی داشته باشد مطمئناً می تواند از آن برای اهداف پلید استفاده کند. افراد دارای اطلاعات می توانند با توانایی جدید خود نظارت کنند که ما کجا می رویم و چه کسانی را ملاقات می کنیم و حتی پیش بینی کنند که در آینده چه کاری انجام می دهیم.
محاسبات کوانتومی
ما باید از داده ها و شواهد استفاده کنیم تا تصمیمات کلیدی در مورد برنامه ریزی ویروس های جدید برای مبارزه با بیماری بگیریم، حریم خصوصی ژنتیکی چگونه خواهد بود و چه کسی باید “مالک” موجودات زنده باشد. تنظیمکنندهها باید بدانند که شرکتها چگونه باید از سلولهای مهندسی شده درآمدزایی کنند و از چه فرآیندهایی باید برای نگهداری یک موجود مصنوعی در آزمایشگاه استفاده کرد. شما همچنین نقش مهمی در زیست شناسی مصنوعی دارید. اگر بتوانید بدن خود را دوباره برنامه ریزی کنید چه انتخاب هایی می کنید؟ آیا از ویرایش فرزندان آینده خود رنج خواهید برد؟ آیا با خوردن GMOs (جانداران اصلاح شده ژنتیکی) در صورت کاهش سرعت تغییرات آب و هوایی موافقید؟ وعده زیست شناسی مصنوعی آینده ای است که توسط قدرتمندترین و پایدارترین پلت فرم تولید بشریت ساخته شده است. ما در آستانه یک تکامل صنعتی جدید نفس گیر هستیم.
بی توجهی به انسان
واضح است که رقبای زیادی برای عنوان خطرناک ترین فناوری نوظهور وجود دارد. CRISPR و سایر فناوریهای ویرایش ژن میتوانند ویران کنند، اگرچه ممکن است نشان داده شود که قدرت کمتری نسبت به ادعای طرفدارانشان دارند. رسانه های اجتماعی قبلاً با ایجاد آسیب های گسترده قدرت خود را نشان داده اند. اما آنچه بیش از همه مرا آزار می دهد استفاده گسترده از تشخیص چهره در فناوری های نظارتی است. از بسیاری جهات، این فناوری می تواند یک دارایی اصلی برای جوامع باشد.
من فکر میکنم خطرناکترین فناوریها، فناوریهای اجتماعی یا شناختی هستند که مردم را از داشتن دید روشنی از جهان باز میدارد. این فناوری ها اغلب منجر به غیرانسانی شدن می شوند و افراد را به وسواس و بی فکری دعوت می کنند. آنها مانند ماشین های مه شکن هستند که شرایطی را ایجاد می کنند که انکار، انکار یا نادیده گرفتن مسائل انسانی را برای ما آسان می کند.
روبات های انسان نما
خطرناک ترین فناوری های نوظهور آنهایی هستند که خارج از کنترل و مقررات انسانی هستند. فن آوری ها به طور معجزه آسایی به خودی خود پدیدار نمی شوند، آنها ذاتاً خطرناک نیستند، آنها قصد ندارند خطرناک باشند. آنها هستند که آنها را طراحی می کنند، شکل می دهند، می سازند و از آنها استفاده می کنند. در حالی که گمانهزنیهای زیادی در مورد ظهور فناوریهای بالقوه فوقهوشمند هوش مصنوعی وجود دارد که میتوانند بر انسانها غلبه یا تسلط داشته باشند، من معتقدم راههای واقعیتری برای خارج شدن از کنترل فناوریهای نوظهور وجود دارد.
دیوید شوموی جونز: استاد اپیدمیولوژی دانشگاه هاروارد
با پاسخ دادن به سوالات، بدون شفافیت در مورد دادهها یا الگوریتمهایی که هوش مصنوعی به آنها میگوید، افراد میتوانند در مورد چگونگی تصمیمگیری که بر زندگیشان تأثیر میگذارد در تاریکی رها شوند. سیستم های هوش مصنوعی برای انتشار اطلاعات نادرست در اینترنت استفاده می شود.
خطرناک ترین فناوری در حال ظهور، زیست شناسی است. یا بهتر از آن، زیست شناسی مصنوعی، که یک هدف واحد دارد: دسترسی به سلول ها برای نوشتن کد بیولوژیکی جدید. زیست شناسی مصنوعی رشته ای از علم است که از مهندسی، هوش مصنوعی، ژنتیک و شیمی برای طراحی مجدد اجزای بیولوژیکی و موجودات با قابلیت های پیشرفته و اهداف جدید استفاده می کند. مجموعهای از فنآوریها و تکنیکهای بیولوژیکی جدید، عمدتاً زیر چتر زیستشناسی مصنوعی، به ما امکان میدهند نه تنها کد DNA را بخوانیم و ویرایش کنیم، بلکه آن را بنویسیم. این بدان معناست که به زودی ساختارهای زیستی و زنده را طوری برنامه ریزی خواهیم کرد که گویی کامپیوترهای کوچکی هستند.
تیم تحرریه شبکه خبری فناوری اطلاعات و ارتباطات
زیست شناسی مصنوعی به ما امکان می دهد توالی های DNA را در ابزارهای نرم افزاری بارگذاری کنیم. هنگامی که DNA برای رضایت محقق نوشته یا اصلاح شد، یک مولکول DNA جدید با استفاده از یک چاپگر سه بعدی از ابتدا چاپ می شود. فناوری سنتز DNA (تبدیل کد ژنتیکی دیجیتال به DNA مولکولی) به طور تصاعدی در حال پیشرفت است. فنآوریهای امروزی معمولاً رشتههایی از DNA به طول چندین هزار جفت باز را چاپ میکنند که میتوانند برای ایجاد مسیرهای متابولیک جدید برای یک سلول یا حتی کل ژنوم یک سلول، با هم ترکیب شوند.
فناوری تشخیص چهره
AI100، گزارش سال 2021 که ماه گذشته منتشر شد، برخی از خطرات اصلی هوش مصنوعی را فهرست کرده است. یکی از دغدغه های اصلی این گزارش در رابطه با هوش مصنوعی «تکنو حل گرایی» است، این ایده که می توان از فناوری هایی مانند هوش مصنوعی برای حل هر مشکلی استفاده کرد. توانایی که بسیاری از افراد تصمیمگیری را با هوش مصنوعی مرتبط میکنند باعث میشود که سیستمها حتی اگر سوء استفاده شوند، عینی و مفید باشند و به ما کمک میکنند تا تصمیمهای مغرضانه یا حتی تبعیضآمیز بر اساس نتایج بگیریم.
چیزی که زیست شناسی مصنوعی را به خطرناک ترین فناوری نوظهور تبدیل می کند علم نیست، بلکه ما انسان ها هستیم. ما باید مدل های ذهنی خود را به چالش بکشیم، سؤالات دشوار بپرسیم و در مورد منشا زندگی استدلال های منطقی داشته باشیم، در غیر این صورت با خطر از دست دادن فرصت ها مواجه می شویم. در دهه آینده، ما نیاز به اتخاذ تصمیمات آگاهانه و عاری از اطلاعات نادرست و سیاستمداران فرصت طلب خواهیم داشت که بیشتر به انتخاب های عاقلانه علاقه مند هستند تا منافع عمومی.
نظارت بر محل کار خصوصی و فرآیند قدرت کارفرما-کارمند در حال حاضر وحشتناک است زیرا به کارفرمایان اجازه می دهد با کارمندان مانند حیوانات رفتار کنند. نظارت بر کارگران و کارمندان به کارفرمایان اجازه میدهد تا از طریق سیستمهای هشدار اولیه، حریفان را از بین ببرند. تحقیقات قمار به کازینوها آموزش داده است که چگونه پروفایلهای بازی را برای شخصیسازی جاذبهها ایجاد کنند تا بتوانند از نقاط ضعف هر بازیکن حداکثر استفاده را ببرند. این فناوری که اکنون وارد نیروی کار شده است، در شرف تبدیل شدن به جریان اصلی است مگر اینکه آن را متوقف کنیم.
کمک به هوش مصنوعی در تصمیم گیری
مایکل لیتمن: استاد علوم کامپیوتر دانشگاه براون
تشخیص چهره می تواند بسیاری از تراکنش ها را کارآمدتر کند. نیازی نیست کارت شناسایی یا کارت پرواز خود را در فرودگاه نشان دهید یا در فروشگاه پرداخت کنید (تا زمانی که تصویر شما به یک پلت فرم پرداخت آنلاین پیوند داده شده باشد). تشخیص چهره همچنین میتواند با افزایش احتمال شناسایی و دستگیری مظنونان جنایی، جامعه را ایمنتر کند. بنابراین چگونه این فناوری ها می توانند خطرناک شوند؟ این یک ترس وجودی است: سفرهای ما دیگر خصوصی نخواهد بود. ما همیشه این توانایی را خواهیم داشت که بدانیم کجا هستیم و کجا بوده ایم. حتی اگر کسی از این اطلاعات سوء استفاده نکند، از دست دادن حریم خصوصی و ناشناس بودن برای من قابل توجه است.
تحریریه ICTNN شبکه خبری