در حال بارگذاری
در حال بارگذاری

آیا استفاده از ChatGPT واقعا ما را احمق و تنبل می‌کند؟

آیا استفاده از ChatGPT هوش ما را کاهش می‌دهد و ما را تنبل می‌کند؟ یک پژوهش جدید به بررسی تاثیر این ابزار بر مغز می‌پردازد و نتایج آن فراتر از تصور است. از زمان عرضه ChatGPT در سال ۲۰۲۲ هوش مصنوعی مولد به سرعت وارد زندگی کاری، تحصیلی و شخصی ما شد. این فناوری به ...

آیا استفاده از ChatGPT هوش ما را کاهش می‌دهد و ما را تنبل می‌کند؟ یک پژوهش جدید به بررسی تاثیر این ابزار بر مغز می‌پردازد و نتایج آن فراتر از تصور است.

از زمان عرضه ChatGPT در سال ۲۰۲۲ هوش مصنوعی مولد به سرعت وارد زندگی کاری، تحصیلی و شخصی ما شد. این فناوری به ما کمک کرد تا تحقیق، تولید محتوا و بسیاری از کارهای دیگر را با سرعتی بی‌سابقه انجام دهیم.

اشتیاق برای ابزارهای هوش مصنوعی مولد به طور قابل درکی افزایش یافته است. سرعت پذیرش آن حتی از اینترنت یا کامپیوترهای شخصی نیز بیشتر بود. اما کارشناسان هشدار می‌دهند که باید با احتیاط پیش برویم.

هوش مصنوعی مولد مانند هر فناوری جدید دیگری می‌تواند جامعه را به جلو ببرد، اما اگر کنترل نشود عواقبی نیز به همراه خواهد داشت.

یکی از این صداهای منتقد ناتاشا گاوندر-روپرت، مدیر بخش هوش مصنوعی جرایم مالی در رابوبانک است. او درباره اخلاق و تعصب در هوش مصنوعی و اینکه آیا ما در حال برون‌ سپاری مغزمان به ماشین‌ها هستیم صحبت می‌کند.

یک سوال مهم که ذهن ما را درگیر می‌کند این است که با افزایش وابستگی ما به هوش مصنوعی مولد برای یافتن پاسخ‌ها، این اتکا چه تاثیری بر هوش ما خواهد داشت؟

مغز شما هنگام استفاده از ChatGPT چگونه کار می‌کند؟

در این پژوهش، محققان به ۵۴ دانشجو یک وظیفه مقاله‌ نویسی دادند. یک گروه از ChatGPT استفاده کردند و گروه دیگر از گوگل بدون کمک هوش مصنوعی. گروه سوم نیز مجبور بودند فقط با استفاده از مغز خود مقاله بنویسد.

در حین نوشتن، فعالیت مغزی آن‌ها با استفاده از الکترودها اندازه‌گیری شد. پس از سه جلسه، گروهی که فقط از مغز خود استفاده کرده بود، بالاترین سطح اتصال ذهنی را نشان داد. در مقابل، کاربران ChatGPT کمترین سطح را داشتند. به نظر می‌رسید افرادی که از هوش مصنوعی کمک می‌گرفتند روی حالت خودکار بودند.

در دور چهارم نقش‌ها برعکس شد. گروهی که فقط از مغز خودشان استفاده کرده بودند، این بار از ChatGPT کمک گرفتند. در حالی که گروه هوش مصنوعی مجبور شدند به تنهایی و بدون کمک مقاله بنویسند.

نتیجه این بود که گروه اول مقالات خود را بهبود بخشیدند، اما گروه دوم برای به خاطر آوردن آنچه قبلا نوشته بودند، دچار مشکل شدند. به طور کلی این مطالعه نشان داد که در طول چهار ماه شرکت‌ کنندگانی که فقط از مغزشان استفاده کردند در سطوح عصبی، زبانی و رفتاری عملکرد بهتری داشتند. در حالی که افراد با استفاده از ChatGPT زمان کمتری را صرف مقالات خود می‌کردند.

آیا استفاده از ChatGPT به مرگ تفکر انتقادی منجر می‌شود؟

معلمانی که مقالات را بررسی کردند گفتند که فاقد تفکر اصیل و روح هستند. این یافته‌ها بیشتر از آنکه درباره تحلیل رفتن مغز باشند درباره میانبرهای ذهنی هستند.

آن‌ها نشان دادند که اتکای بیش از حد به مدل‌های زبان بزرگ می‌تواند تعامل ذهنی را کاهش دهد. اما با استفاده فعال و متفکرانه می‌توان از این خطرات جلوگیری کرد.

محققان همچنین تاکید کردند که این مطالعه برای نتیجه‌گیری قطعی بسیار کوچک و ساده بود. در واقع شاید چیزی که واقعا مغز ما را می‌پوساند، تیترهای کلیک‌ محور و جنجالی رسانه‌ها باشد.

به نظر می‌رسد خود محققان نیز این نگرانی‌ها را دارند. آن‌ها یک وب‌سایت با صفحه پرسش‌های متداول ایجاد کردند. در آنجا از خبرنگاران خواستند از زبانی که نادرست است و یافته‌ها را جنجالی می‌کند استفاده نکنند.

آن‌ها این هیاهوی رسانه‌ای را به خبرنگارانی که از مدل‌های زبان بزرگ برای خلاصه کردن مقاله استفاده کرده بودند، نسبت دادند. این موضوع نشان می‌دهد که دانشجویان، خبرنگاران و عموم مردم باید نسبت به اطلاعاتی که دریافت می‌کنند نگاهی منتقدانه داشته باشند. چه این اطلاعات از رسانه‌ها باشد چه از هوش مصنوعی مولد.

تعصب در هوش مصنوعی؛ مشکلی عمیق‌تر از آنچه فکر می‌کنیم

پژوهشگران دانشگاه وریج آمستردام نگران هستند که با افزایش اتکای ما به مدل‌های زبانی بزرگ، تفکر انتقادی ما در معرض خطر قرار گیرد. تفکر انتقادی یعنی توانایی و تمایل ما برای زیر سوال بردن و تغییر هنجارهای اجتماعی.

بیشتر بخوانید

دانشجویان ممکن است کمتر به فرآیندهای جستجوی جامع بپردازند. زیرا به لحن معتبر و آگاهانه خروجی هوش مصنوعی مولد اعتماد می‌کنند. آن‌ها ممکن است کمتر دیدگاه‌های ناگفته در پس خروجی را زیر سوال ببرند. در نتیجه نمی‌توانند بفهمند چه دیدگاه‌هایی نادیده گرفته شده است.

این خطرات به یک مشکل عمیق‌تر در هوش مصنوعی اشاره دارد. وقتی خروجی‌های آن را بدون چون و چرا می‌پذیریم، ممکن است تعصبات پنهان و فرضیات چالش‌برانگیز را نادیده بگیریم.

حل این مشکل فقط به راه‌حل‌های فنی نیاز ندارد، بلکه نیازمند تاملی انتقادی درباره معنای خود تعصب است. به گفته ناتاشا گاوندر-روپرت تعصب تعریف ثابتی ندارد، چیزی که من مغرضانه می‌دانم ممکن است برای شخص دیگری متفاوت باشد.

ما به عنوان انسان باید تصمیم بگیریم و بگوییم این استاندارد اصولی است که هنگام بررسی داده‌هایمان اعمال خواهیم کرد. هنجارها و تعصبات اجتماعی ثابت نیستند و همیشه در حال تغییرند.

با تکامل جامعه، داده‌های تاریخی که مدل‌های زبان بزرگ ما بر اساس آن آموزش دیده‌اند، تکامل نمی‌یابند. ما باید منتقد باقی بمانیم و اطلاعاتی را که دریافت می‌کنیم به چالش بکشیم تا جامعه‌ای عادلانه‌تر بسازیم.

Sina Farahi

برچسب ها:

0 نظرات

ارسال نظرات

آخرین نظرات