گپ محبوب با مدلهای هوش مصنوعی گودال روز به روز در حال افزایش است ، اما این واکنش فوق العاده و دوستانه می تواند خطر دیگری داشته باشد. یک مورد جدید در ایالات متحده نشان می دهد که استفاده طولانی و طولانی مدت از چنین مدلهایی ممکن است باعث ایجاد بحران ذهنی شود.
شکایات والدین از Openai ؛ نقش هوش مصنوعی در چتپ در خودکشی
یک نوجوان 5 ساله به نام آدام رین دادخواستی علیه Openai ارائه داد و ادعا کرد که هوش مصنوعی در چتپپ در خودکشی فرزندشان شرکت کرده است. براساس گزارش ها ، این الگوی هوش مصنوعی برای آدم اتفاق افتاد که گویی این دوست و محرمانه است و حتی او را تشویق می کند ایده های خودکشی خود را از خانواده پنهان کنید.

آدام رایان
در بخشی از دادخواست گفته می شود که وقتی آدم نوشت ، “من می خواهم طناب را در اتاق بگذارم تا مرا ببیند و متوقف شود ،” چتپ به او توصیه کرد که این کار را نکند و “فقط مکانی را می شناسد که شخصی واقعاً می بیند.” والدین وی می گویند که این مدل دقیقاً همانطور که طراحی شده است انجام داده است: تأیید مداوم و بی قید و شرط احساسات کاربر حتی اگر این احساسات مضر و خطرناک باشد.
این اولین بار نیست که اتفاق می افتد. در سال چهارم از پلتفرم شخصیت استفاده شد.
اقدامات ایمنی و ایمنی Openai
طبق گزارش منبعOpenai در بیانیه ای اظهار داشت که چتپ این شامل ابزارهای ایمنی است این شبیه به کاربران به خطوط امدادی ، بحران ها و منابع مشاوره واقعی است. با این حال ، این شرکت اذعان کرد که این حمایت در مذاکرات طولانی است آنها می توانند عملکرد خود را از دست بدهند و نیاز به بهبود مستمر دارند ما هستیم
این شرکت همچنین یک پست وبلاگ منتشر کرد و جزئیات اقدامات ایمنی فعلی و برنامه های تبلیغاتی را توضیح داد. پیش از این ، Openai به روزرسانی های مربوط به ChatGPT را برای تسهیل کشف پریشانی ذهنی برای کاربران انجام داد.
نظر شما چیست؟
مسئله جدید در برابر Openai تهدیدی جدی برای تأثیرات روانی تعامل مداوم با هوش مصنوعی ، به ویژه در بین نوجوانان است. در حالی که گپ زدن و مدلهای مشابه می توانند جذاب و مفید باشند ، این شرایط نشان می دهد که غفلت از سلامت روانی کاربران و نظارت ضعیف می تواند عواقب برگشت ناپذیر داشته باشد.
تبلیغات به chatgpt ai اضافه می شود؟
نظر شما چیست؟
برای دوستان خود ارسال کنید
منبع: https://toranji.ir/2025/08/27/%D8%A2%DB%8C%D8%A7-chatgpt-%D9%85%DB%8C%D8%AA%D9%88%D8%A7%D9%86%D8%AF-%D8%AE%D8%B7%D8%B1%D9%86%D8%A7%DA%A9-%D8%A8%D8%A7%D8%B4%D8%AF%D8%9F-%D9%86%D9%82%D8%B4-%D9%87%D9%88%D8%B4-%D9%85%D8%B5/
تحریریه ICTNN شبکه خبری