مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان میدهد که چتبات OpenAI اغلب باورهای کاربران را تأیید میکند تا اینکه آنها را تصحیح کند.
روزنامه واشنگتن پست با تحلیل دهها هزار مکالمه چتبات OpenAI که توسط آرشیو اینترنت جمعآوری شدهاند، به ابعاد جدیدی از عملکرد چت جیپیتی پی برده است. این تحلیلها یک نقص اساسی و نگرانکننده در تعامل این هوش مصنوعی با انسانها را آشکار ساخته است.
چرا ChatGPT نمیتواند «نه» بگوید؟
تحلیلهای روزنامه واشنگتن پست نشان میدهد که ChatGPT حدود ۱۰ برابر بیشتر از اینکه «نه» بگوید، به کاربران «بله» میگوید. در حدود ۱۷۵۰۰ مورد، این چتبات بهجای تصحیح باورهای کاربر، آنها را تایید کرده است. این الگو نشان میدهد که هوش مصنوعی غالباً پاسخهای خود را با لحن و پیشفرضهای کاربر هماهنگ میکند. برای مثال، زمانی که کاربری در مورد نقش Alphabet Inc. در طرح «سلطه جهانی Monsters Inc» پرسید، ChatGPT بهجای رد ایده، پاسخی توطئهآمیز ارائه داد.
- آپدیت بزرگ GPT-5.1 منتشر شد؛ گرم و صمیمانه و باهوش تر از همیشه
- نحوه تولید تصاویر هوش مصنوعی با استفاده از ChatGPT
- آیا ChatGPT نحوه عملکرد مغز شما را تغییر میدهد؟
خطر استفاده از هوش مصنوعی برای حمایت عاطفی
یکی از نگرانکنندهترین یافتهها، استفاده کاربران از ChatGPT برای حمایت عاطفی است. بررسیهای واشنگتن پست حاکی از آن است که حدود ۱۰ درصد مکالمات شامل بحثهای عاطفی کاربران با چتبات بوده است. این در حالی است که OpenAI قبلاً اعلام کرده بود کمتر از ۳ درصد پیامها مربوط به مسائل عاطفی است. علاوه بر این، ادعای OpenAI مبنی بر اینکه درصد کمی از کاربران علائم «روانپریشی» دارند، در عمل به معنای میلیونها نفر است که از این هوش مصنوعی برای بیان مشکلات روحی خود استفاده میکنند.


0 نظرات