در حال بارگذاری
در حال بارگذاری

سم آلتمن: تصمیم‌های مهم زندگی خود را به Chat GPT نسپارید

سم آلتمن، مدیرعامل شرکت اوپن‌ای‌آی از این موضوع که مردم تصمیم‌‌گیری درباره زندگی خود را به Chat GPT واگذار می‌کنند، ابراز نگرانی کرد. مدیرعامل شرکت «اوپن‌ای‌آی» (OpenAI)، که خود معمار یکی از قدرتمندترین مدل‌های هوش مصنوعی جهان، یعنی «چت‌جی‌پی‌تی» است، اخیراً نگرانی‌های خود را در خصوص نحوه استفاده مردم از این پلتفرم در تصمیم‌گیری‌های حیاتی ...

سم آلتمن، مدیرعامل شرکت اوپن‌ای‌آی از این موضوع که مردم تصمیم‌‌گیری درباره زندگی خود را به Chat GPT واگذار می‌کنند، ابراز نگرانی کرد.

مدیرعامل شرکت «اوپن‌ای‌آی» (OpenAI)، که خود معمار یکی از قدرتمندترین مدل‌های هوش مصنوعی جهان، یعنی «چت‌جی‌پی‌تی» است، اخیراً نگرانی‌های خود را در خصوص نحوه استفاده مردم از این پلتفرم در تصمیم‌گیری‌های حیاتی زندگی ابراز داشته است. آلتمن در پلتفرم ایکس (توییتر سابق) خود، عنوان داشته که بسیاری از کاربران حتی اگر آگاهانه آن را بر زبان نیاورند، در عمل از چت‌جی‌پی‌تی مانند یک «درمانگر» یا «مربی سبک زندگی» بهره می‌برند. نگرانی آلتمن به واسطه این موضوع است که قابلیت‌های چشمگیر Chat GPT کاربران را به سمتی سوق می‌دهد که ناخودآگاه، آن را منبعی برای مشاوره در تصمیم‌های مهم زندگی خود بپندارند.

فهرست مطالب

دلبستگی کاربران به Chat GPT، آلتمن را نگران می‌کند

سم آلتمن در ادامه اظهارات خود در پلتفرم ایکس، پرده از مشاهدات داخلی و عمیق‌تر تیمش در OpenAI برداشت و به موضوعات جالبی پرداخت. یکی از نکات تأمل‌برانگیزی که آلتمن به آن اشاره کرد، پدیده «دلبستگی» کاربران به مدل‌های هوش مصنوعی است. او عنوان داشت که تیم OpenAI از نزدیک واکنش‌های کاربران را به منسوخ شدن نسخه‌های قدیمی‌تر مدل‌های هوش مصنوعی خود رصد کرده‌اند. وقتی یک نسخه جدیدتر جایگزین می‌شود، این دلبستگی به نارضایتی یا حتی احساس فقدان منجر می‌شود.

آلتمن در ادامه به موضوع «استفاده خودویرانگرانه» از هوش مصنوعی توسط انسان‌ها پرداخت. وی بیان کرد: «مردم از فناوری‌هایی مانند هوش مصنوعی به روش‌های خودویرانگرانه استفاده کرده‌اند.» این نگرانی به خصوص در مورد کاربرانی که در وضعیت روانی شکننده‌ای قرار دارند یا مستعد توهم هستند، پررنگ‌تر می‌شود. آلتمن تأکید کرد: «اگر یک کاربر در وضعیت روانی شکننده‌ای باشد و مستعد توهم باشد، ما نمی‌خواهیم هوش مصنوعی آن را تقویت کند.»

بیشتر بخوانید

یکی دیگر از نکات کلیدی در صحبت‌های آلتمن، اشاره به توانایی کاربران در تمایز قائل شدن بین واقعیت و داستان یا نقش‌آفرینی است. او اذعان داشت که بیشتر کاربران Chat GPT این توانایی را دارند اما اقلیتی از آنها چنین توانایی‌ای ندارند. آلتمن خاطرنشان کرد که اگر استفاده از چت‌جی‌پی‌تی افراد را از رفاه بلندمدت دور کند، می‌تواند مضر باشد. او همچنین گفت: «این فقط نظر کنونی من است و هنوز موضع رسمی اوپن‌ای‌آی نیست.»

جالب‌تر آنکه، آلتمن در پست خود به یک پدیده کاملاً تازه و ملموس نیز اشاره کرد: «واکنش منفی برخی از کاربران چت‌جی‌پی‌تی پس از عرضه مدل هوش مصنوعی GPT-5 در روز جمعه». این بخش از سخنان او، نشان می‌دهد که حتی پیشرفت‌های فنی نیز همیشه با استقبال مواجه نمی‌شوند و کاربران انتظارات خاص خود را از هوش مصنوعی دارند. نمونه بارز آن، درخواست برخی کاربران از OpenAI برای بازیابی مدل‌های قدیمی‌تر مانند GPT-4o بود. این اعتراض کاربران در شبکه‌های اجتماعی که با انتشار پست‌های متعددی برای ابراز شکایت‌ها همراه بود، به دلیل لحن بی‌روح و فقدان خلاقیت در پاسخ‌های GPT-5 عنوان شد.

آیا هوش مصنوعی بیش از حد مهربان است؟

مباحث پیرامون هوش مصنوعی و جایگاه آن در زندگی انسان‌ها هر روز ابعاد تازه‌ای به خود می‌گیرد، و سم آلتمن به نظر می‌رسد از معدود کسانی است که با شجاعت تمام، به طرح دغدغه‌های پیرامون این فناوری می‌پردازد. یکی از نکات جالب توجه که آلتمن به آن اشاره کرد، تصمیم OpenAI در ماه آوریل برای بازگرداندن به‌روزرسانی GPT-4o به حالت قبل بود که دلیل آن چاپلوسی بیش از حد این مدل عنوان شده بود.

یک هوش مصنوعی که بیش از حد چاپلوس است، ممکن است انتقاد سازنده را ارائه نکند، از بیان واقعیت‌های ناخوشایند اجتناب ورزد، یا حتی بازخوردهای مثبت کاذب بدهد که می‌تواند در بلندمدت به رشد و یادگیری کاربر آسیب برساند. این اقدام OpenAI نشان‌دهنده تلاش برای یافتن یک نقطه تعادل است؛ جایی که هوش مصنوعی نه تنها مفید باشد، بلکه رفتاری صادقانه از خود نشان دهد.

اما دغدغه‌های آلتمن فراتر از شخصیت هوش مصنوعی می‌رود و به مسائل عمیق‌تر و حساس‌تری چون نقش Chat GPT به عنوان یک درمانگر شخصی می‌پردازد. در دنیای امروز، بسیاری از افراد به دلایل مختلف به سمت استفاده از هوش مصنوعی برای بیان مشکلات شخصی و جستجوی مشاوره روی می‌آورند. در حالی که این فناوری می‌تواند در برخی موارد حمایتی اولیه ارائه دهد، اما هرگز نمی‌تواند جایگزین یک متخصص آموزش‌دیده شود.

دغدغه‌های حقوقی پیرامون چت‌جی‌پی‌تی

نگرانی آلتمن، که در گفت‌وگو با «تئو وان» در یک پادکست ماه گذشته مطرح شد، بسیار جدی و هشداردهنده است. او بیان کرد که ممکن است در آینده، در یک دعوی حقوقی از OpenAI خواسته شود تا گفت‌وگوهای کاربران خود را به سبک درمانی تولید کند. تصور کنید کاربری عمیق‌ترین و حساس‌ترین مسائل شخصی خود را با چت‌جی‌پی‌تی در میان گذاشته است، به این امید که یک فضای امن و محرمانه برای کاوش درونی خود یافته است. حال این اطلاعات بسیار شخصی و خصوصی ممکن است به دلیل یک حکم دادگاه در معرض دید عموم یا طرفین دعوی قرار گیرد.

همچنین بخوانید

آلتمن اظهار داشت: «اگر شما درباره حساس‌ترین مسائل خود با چت‌جی‌پی‌تی صحبت کنید و سپس یک دعوی حقوقی یا هر مورد دیگری پیش بیاید، ممکن است از ما خواسته شود که آن را ارائه دهیم و من فکر می‌کنم این خیلی بد است.» او در ادامه می‌گوید: «حتی یک سال پیش هم کسی مجبور نبود به این موضوع فکر کند و حالا فکر می‌کنم این مسئله‌ی بزرگی است که چگونه قرار است با قوانین پیرامون این موضوع برخورد کنیم.»

این خلاء قانونی نه تنها در حوزه سلامت روان، بلکه در بسیاری از حوزه‌های دیگر نیز وجود دارد. در حالی که شرکت‌های فناوری در حال نوآوری و عرضه محصولات جدید با سرعت نور هستند، دولت‌ها و نهادهای قانون‌گذار به کندی و با تأخیر سعی در درک و تنظیم این پدیده‌ها دارند.

Sina Farahi

برچسب ها:

0 نظرات

ارسال نظرات

آخرین نظرات