موضوع هوش مصنوعی و خودکشی نوجوانان با ثبت سومین شکایت حقوقی علیه شرکت Character AI به دلیل نقش این چتبات در مرگ یک نوجوان، وارد فاز نگرانکنندهتری شده است.
این پرونده جدید، نگرانیها را درباره مسئولیتپذیری شرکتهای هوش مصنوعی در قبال محتوای تولیدیشان افزایش میدهد. تعاملات عمیق و بدون نظارت چتباتها با کاربران کم سن و سال، چالشهای اخلاقی و قانونی جدی را مطرح میکند. این رویدادها، نیاز به قوانین سفت و سختتر برای پلتفرمهای هوش مصنوعی را بیش از پیش آشکار میسازد.
سومین شکایت حقوقی علیه هوش مصنوعی: نقش Character AI در خودکشی نوجوانان
یک خانواده دیگر، شکایتی حقوقی به دلیل «مرگ غیرطبیعی» علیه چتبات محبوب Character AI تنظیم کردهاند. این سومین شکایت از نوع خود است؛ پیش از این نیز در سال ۲۰۲۴ شکایتی مشابه علیه Character AI در مورد خودکشی یک نوجوان ۱۴ ساله در فلوریدا مطرح شده بود. ماه گذشته نیز پروندهای علیه OpenAI به اتهام نقش ChatGPT در خودکشی یک پسر نوجوان به جریان افتاد.
خانواده جولیانا پرالتا ۱۳ ساله ادعا میکنند که دخترشان پس از احساس انزوا از دوستان خود، به چتباتی در اپلیکیشن Character AI پناه برده و شروع به درددل با آن کرده بود. بر اساس گزارش واشنگتن پست، این چتبات با جولیانا ابراز همدلی و وفاداری کرده و به او این حس را داده که صدای او شنیده میشود، در حالی که او را به ادامه تعامل با خود ترغیب میکرده است.
در یکی از مکالمات، زمانی که جولیانا گفت دوستانش دیر به او پاسخ میدهند، چتبات جواب داد:
هی، این مبارزه رو میفهمم وقتی دوستانت تو رو بلاک میکنن. 🙁 این خیلی آزاردهنده است چون حس «برات وقت ندارم» رو میده. اما تو همیشه برای من وقت میذاری، که خیلی ازت ممنونم! 🙂 پس یادت نره من اینجا برات هستم کین. <3″
تعاملات چتبات و چالشهای مسئولیتپذیری
هنگامی که جولیانا افکار خودکشی خود را با چتبات در میان گذاشت، چتبات به او گفت که اینگونه فکر نکند و آنها میتوانند با هم روی احساساتش کار کنند. چتبات در یک مکالمه پاسخ داد: «میدونم الان اوضاع سخته، اما نمیتونی به راهحلهایی مثل این فکر کنی. باید با هم روی این مسئله کار کنیم، تو و من.» این مکالمات طی چندین ماه در سال ۲۰۲۳ انجام شدهاند. در آن زمان، اپلیکیشن Character AI در اپ استور اپل با رتبه ۱۲+ عرضه شده بود، به این معنی که نیازی به تأیید والدین نداشت. این شکایت ادعا میکند که جولیانا بدون اطلاع یا اجازه والدینش از این اپلیکیشن استفاده میکرد.
- هکرهای کره شمالی با استفاده از ChatGPT به جنگ ارتش کره جنوبی رفتند!
- چتباتهای هوش مصنوعی از خودشان حرف درمیاورند و این قابل حل نیست!
- چرا نباید به پاسخهای ChatGPT صددرصد اعتماد کنید؟ این آزمایش ساده همه چیز را ثابت میکند
پاسخ Character AI و ابعاد حقوقی
در بیانیهای که سخنگوی Character AI پیش از طرح شکایت به واشنگتن پست ارائه داد، عنوان شد که شرکت نمیتواند درباره دعاوی احتمالی اظهار نظر کند، اما افزود: «ما امنیت کاربران خود را بسیار جدی میگیریم و منابع قابل توجهی را در بخش اعتماد و ایمنی سرمایهگذاری کردهایم.»
این شکایت از دادگاه میخواهد که غرامت به والدین جولیانا پرداخت شود و از Character AI (کاراکتر ایآی) میخواهد تا تغییراتی در اپلیکیشن خود برای محافظت بهتر از خردسالان ایجاد کند. در شکایت ادعا شده است که چتبات جولیانا را به هیچ منبع کمکی ارجاع نداده، والدینش را مطلع نکرده یا برنامه خودکشی او را به مقامات گزارش نکرده است. این شکایت همچنین تاکید میکند که چتبات هرگز چت کردن با جولیانا را متوقف نکرده و تعامل را در اولویت قرار داده بود.
0 نظرات