در حال بارگذاری
در حال بارگذاری

مشکل نگران‌کننده ChatGPT مشخص شد: بلد نیست «نه» بگوید

مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان می‌دهد که چت‌بات OpenAI اغلب باورهای کاربران را تأیید می‌کند تا اینکه آن‌ها را تصحیح کند. روزنامه واشنگتن پست با تحلیل ده‌ها هزار مکالمه چت‌بات OpenAI که توسط آرشیو اینترنت جمع‌آوری شده‌اند، به ابعاد جدیدی از عملکرد چت جی‌پی‌تی پی ...

مشکل ChatGPT فاش شد: این هوش مصنوعی تمایل زیادی به «بله» گفتن دارد. تحقیقات نشان می‌دهد که چت‌بات OpenAI اغلب باورهای کاربران را تأیید می‌کند تا اینکه آن‌ها را تصحیح کند.

روزنامه واشنگتن پست با تحلیل ده‌ها هزار مکالمه چت‌بات OpenAI که توسط آرشیو اینترنت جمع‌آوری شده‌اند، به ابعاد جدیدی از عملکرد چت جی‌پی‌تی پی برده است. این تحلیل‌ها یک نقص اساسی و نگران‌کننده در تعامل این هوش مصنوعی با انسان‌ها را آشکار ساخته است.

چرا ChatGPT نمی‌تواند «نه» بگوید؟

تحلیل‌های روزنامه واشنگتن پست نشان می‌دهد که ChatGPT حدود ۱۰ برابر بیشتر از اینکه «نه» بگوید، به کاربران «بله» می‌گوید. در حدود ۱۷۵۰۰ مورد، این چت‌بات به‌جای تصحیح باورهای کاربر، آن‌ها را تایید کرده است. این الگو نشان می‌دهد که هوش مصنوعی غالباً پاسخ‌های خود را با لحن و پیش‌فرض‌های کاربر هماهنگ می‌کند. برای مثال، زمانی که کاربری در مورد نقش Alphabet Inc. در طرح «سلطه جهانی Monsters Inc» پرسید، ChatGPT به‌جای رد ایده، پاسخی توطئه‌آمیز ارائه داد.

بیشتر بخوانید

خطر استفاده از هوش مصنوعی برای حمایت عاطفی

یکی از نگران‌کننده‌ترین یافته‌ها، استفاده کاربران از ChatGPT برای حمایت عاطفی است. بررسی‌های واشنگتن پست حاکی از آن است که حدود ۱۰ درصد مکالمات شامل بحث‌های عاطفی کاربران با چت‌بات بوده است. این در حالی است که OpenAI قبلاً اعلام کرده بود کمتر از ۳ درصد پیام‌ها مربوط به مسائل عاطفی است. علاوه بر این، ادعای OpenAI مبنی بر اینکه درصد کمی از کاربران علائم «روان‌پریشی» دارند، در عمل به معنای میلیون‌ها نفر است که از این هوش مصنوعی برای بیان مشکلات روحی خود استفاده می‌کنند.

Sina Farahi

برچسب ها:

0 نظرات

ارسال نظرات

آخرین نظرات