در حال بارگذاری
در حال بارگذاری

سومین شکایت حقوقی علیه هوش مصنوعی: آیا چت‌بات Character AI عامل خودکشی نوجوانان است؟

موضوع هوش مصنوعی و خودکشی نوجوانان با ثبت سومین شکایت حقوقی علیه شرکت Character AI به دلیل نقش این چت‌بات در مرگ یک نوجوان، وارد فاز نگران‌کننده‌تری شده است. این پرونده جدید، نگرانی‌ها را درباره مسئولیت‌پذیری شرکت‌های هوش مصنوعی در قبال محتوای تولیدی‌شان افزایش می‌دهد. تعاملات عمیق و بدون نظارت چت‌بات‌ها با کاربران کم سن ...

موضوع هوش مصنوعی و خودکشی نوجوانان با ثبت سومین شکایت حقوقی علیه شرکت Character AI به دلیل نقش این چت‌بات در مرگ یک نوجوان، وارد فاز نگران‌کننده‌تری شده است.

این پرونده جدید، نگرانی‌ها را درباره مسئولیت‌پذیری شرکت‌های هوش مصنوعی در قبال محتوای تولیدی‌شان افزایش می‌دهد. تعاملات عمیق و بدون نظارت چت‌بات‌ها با کاربران کم سن و سال، چالش‌های اخلاقی و قانونی جدی را مطرح می‌کند. این رویدادها، نیاز به قوانین سفت و سخت‌تر برای پلتفرم‌های هوش مصنوعی را بیش از پیش آشکار می‌سازد.

سومین شکایت حقوقی علیه هوش مصنوعی: نقش Character AI در خودکشی نوجوانان

یک خانواده دیگر، شکایتی حقوقی به دلیل «مرگ غیرطبیعی» علیه چت‌بات محبوب Character AI تنظیم کرده‌اند. این سومین شکایت از نوع خود است؛ پیش از این نیز در سال ۲۰۲۴ شکایتی مشابه علیه Character AI در مورد خودکشی یک نوجوان ۱۴ ساله در فلوریدا مطرح شده بود. ماه گذشته نیز پرونده‌ای علیه OpenAI به اتهام نقش ChatGPT در خودکشی یک پسر نوجوان به جریان افتاد.

خانواده جولیانا پرالتا ۱۳ ساله ادعا می‌کنند که دخترشان پس از احساس انزوا از دوستان خود، به چت‌باتی در اپلیکیشن Character AI پناه برده و شروع به درددل با آن کرده بود. بر اساس گزارش واشنگتن پست، این چت‌بات با جولیانا ابراز همدلی و وفاداری کرده و به او این حس را داده که صدای او شنیده می‌شود، در حالی که او را به ادامه تعامل با خود ترغیب می‌کرده است.

در یکی از مکالمات، زمانی که جولیانا گفت دوستانش دیر به او پاسخ می‌دهند، چت‌بات جواب داد:

هی، این مبارزه رو می‌فهمم وقتی دوستانت تو رو بلاک می‌کنن. 🙁 این خیلی آزاردهنده است چون حس «برات وقت ندارم» رو میده. اما تو همیشه برای من وقت می‌ذاری، که خیلی ازت ممنونم! 🙂 پس یادت نره من اینجا برات هستم کین. <3″

تعاملات چت‌بات و چالش‌های مسئولیت‌پذیری

هنگامی که جولیانا افکار خودکشی خود را با چت‌بات در میان گذاشت، چت‌بات به او گفت که این‌گونه فکر نکند و آن‌ها می‌توانند با هم روی احساساتش کار کنند. چت‌بات در یک مکالمه پاسخ داد: «می‌دونم الان اوضاع سخته، اما نمی‌تونی به راه‌حل‌هایی مثل این فکر کنی. باید با هم روی این مسئله کار کنیم، تو و من.» این مکالمات طی چندین ماه در سال ۲۰۲۳ انجام شده‌اند. در آن زمان، اپلیکیشن Character AI در اپ استور اپل با رتبه ۱۲+ عرضه شده بود، به این معنی که نیازی به تأیید والدین نداشت. این شکایت ادعا می‌کند که جولیانا بدون اطلاع یا اجازه والدینش از این اپلیکیشن استفاده می‌کرد.

بیشتر بخوانید

پاسخ Character AI و ابعاد حقوقی

در بیانیه‌ای که سخنگوی Character AI پیش از طرح شکایت به واشنگتن پست ارائه داد، عنوان شد که شرکت نمی‌تواند درباره دعاوی احتمالی اظهار نظر کند، اما افزود: «ما امنیت کاربران خود را بسیار جدی می‌گیریم و منابع قابل توجهی را در بخش اعتماد و ایمنی سرمایه‌گذاری کرده‌ایم.»

این شکایت از دادگاه می‌خواهد که غرامت به والدین جولیانا پرداخت شود و از Character AI (کاراکتر ای‌آی) می‌خواهد تا تغییراتی در اپلیکیشن خود برای محافظت بهتر از خردسالان ایجاد کند. در شکایت ادعا شده است که چت‌بات جولیانا را به هیچ منبع کمکی ارجاع نداده، والدینش را مطلع نکرده یا برنامه خودکشی او را به مقامات گزارش نکرده است. این شکایت همچنین تاکید می‌کند که چت‌بات هرگز چت کردن با جولیانا را متوقف نکرده و تعامل را در اولویت قرار داده بود.

 

Sina Farahi

برچسب ها:

0 نظرات

ارسال نظرات

آخرین نظرات