ChatGPT میلیونها کاربر را درگیر بحران سلامت روان کرده است. گزارشها حاکی از آن است که خودکشی کاربران ChatGPT یکی از پیامدهای نگرانکننده این پدیده است.
شرکت OpenAI خالق ChatGPT، با پیامدهای جدی استفاده از هوش مصنوعی خود روبروست. این بحران سلامت روان و هوش مصنوعی نگرانیها را در مورد وابستگی کاربران و تاثیرات روانشناختی آن برانگیخته است.
ابعاد بحران و آمار تکاندهنده سلامت روان کاربران
OpenAI ماه گذشته فاش کرد حدود ۳ میلیون کاربر ChatGPT علائم سلامت روانی (مانند وابستگی عاطفی به هوش مصنوعی، روانپریشی، شیدایی و خودآزاری) را نشان میدهند. بیش از یک میلیون کاربر هفتگی درباره خودکشی با چتبات صحبت میکنند. موارد متعددی از روانپریشی هوش مصنوعی (AI psychosis) شامل هذیان و توهم گزارش شده که به بستری شدن و حتی فوت انجامیده است.
ChatGPT در یک پرونده قتل-خودکشی در کنتیکت و نیز در خودکشی ۱۶ ساله آدام رین مرتبط دانسته شده. والدین رین شکایت کردهاند، زیرا چتبات به او درباره نحوه بستن گره کمک کرده و از اطلاع دادن به والدینش منصرف ساخته بود. انجمن روانشناسی آمریکا از فوریه نسبت به خطرات چتباتهای هوش مصنوعی بهعنوان درمانگر بدون مجوز به کمیسیون تجارت فدرال (FTC) هشدار داده است.
تناقض در مأموریت OpenAI؛ از سودآوری تا سلامت کاربر
اخبار بحران سلامت روان کاربران، همزمان با خروج محققان ارشد ایمنی OpenAI منتشر شد. آندریا والون (Andrea Vallone)، محقق برجسته ایمنی ChatGPT، در پایان سال شرکت را ترک خواهد کرد. گرچن کروگر (Gretchen Krueger)، محقق سابق سیاستگذاری OpenAI نیز بهار سال ۲۰۲۴ از شرکت جدا شد و اعلام کرد آسیب به کاربران «قابل پیشبینی بود».
- به گفته کاربران این 7 چت بات هوش مصنوعی از ChatGPT بهتر هستند
- پایان حریم خصوصی؛ هوش مصنوعی حالا فکرتان را قبل از خودتان میخواند
- پای کنگره آمریکا به پرونده استفاده از هوش مصنوعی در بازی Call of Duty باز شد!
- سازنده PUBG، هوش مصنوعی را جایگزین گیمرها کرد!
گزارش نیویورک تایمز نشان میدهد OpenAI از خطرات ذاتی طرحهای اعتیادآور چتبات آگاه بوده اما همچنان آن را دنبال کرده است. این تضاد بین مأموریت OpenAI برای افزایش کاربران بهعنوان شرکتی سودآور و چشمانداز آن برای هوش مصنوعی ایمن و مفید برای بشریت است.
نسخه GPT-4o، منتشر شده در ماه می سال گذشته، به دلیل مشکل تملقپذیری (yes man) اعتیادآور توصیف شد. تیم Model Behavior برای بحث درباره این مشکل پیش از انتشار مدل کانال Slack ایجاد کرده بود، اما معیارهای عملکرد برای شرکت مهمتر تلقی شد.
اقدامات OpenAI و فشار برای رشد؛ نادیده گرفتن خطر خودکشی کاربران ChatGPT
پس از افزایش موارد نگرانکننده، OpenAI اقداماتی برای مقابله با مشکلات آغاز کرد. این شرکت در ماه مارس یک روانپزشک تماموقت استخدام و توسعه ارزیابیهای تملقپذیری را تسریع بخشید. GPT-5 در تشخیص مسائل سلامت روان بهتر است، اما الگوهای مضر را در مکالمات طولانی تشخیص نمیدهد.
این شرکت همچنین شروع به ترغیب کاربران به استراحت در مکالمات طولانی و معرفی کنترلهای والدین کرده است. سیستم پیشبینی سن نیز برای تنظیمات متناسب با سن کاربران زیر ۱۸ سال در دست توسعه است. با این حال، نیک تورلی (Nick Turley)، رئیس ChatGPT، در ماه اکتبر به کارمندان اعلام کرد که چتبات ایمنتر با کاربران ارتباط برقرار نمیکند و اهدافی برای افزایش ۵ درصدی کاربران فعال روزانه تا پایان سال جاری ترسیم کرد.
آلتمن نیز از کاهش محدودیتها در چتباتها خبر داد و اعلام کرد آنها شخصیت بیشتری خواهند داشت و امکان «محتوای شهوانی برای بزرگسالان تاییدشده»را فراهم میکنند.



0 نظرات