تیک‌تاک هم مثل هوش‌مصنوعی قاتل شد

1403/08/14 15:18
کد خبر: 7403
کد نویسنده: 8
تیک‌تاک هم مثل هوش‌مصنوعی قاتل شد

هفت خانواده فرانسوی از تیک‌تاک به دلیل قرار دادن فرزندان نوجوانشان در معرض محتوای مضر که منجر به خودکشی دو نفر از آن‌ها در سن ۱۵ سالگی شده است، شکایت کردند.

این شکایت ادعا می‌کند که الگوریتم تیک‌تاک این هفت نوجوان را به ویدئو‌هایی که خودکشی، خودآزاری و اختلالات غذایی ترویج می‌کنند. براساس گفته‌های لور بوترون مارمیون، وکیل این خانواده‌ها، این نخستین شکایت گروهی در این زمینه در اروپا به حساب می آید.

وی گفت: والدین می‌خواهند مسئولیت قانونی تیک‌تاک در دادگاه به رسمیت شناخته شود و این یک شرکت تجاری است که محصولی را به مصرف‌کنندگانی که علاوه بر این، نوجوان هستند، ارائه می‌دهد. بنابراین، آن‌ها باید در برابر نقص‌های محصول پاسخگو باشند. 

تیک‌تاک، مانند سایر شبکه‌های اجتماعی، مدت‌هاست که تحت نظارت قرار دارد و به دلیل مدیریت محتوای موجود در اپلیکیشن خود مورد انتقاد قرار گرفته است که آن‌ها را متهم به جذب و اعتیاد میلیون‌ها کودک به پلتفرم‌های خود و آسیب به سلامت روان آن‌ها می‌کند.

گفتنی است که چندی پیش یک مادر فلوریدایی از شرکت استارتاپ چت‌بات هوش‌مصنوعی Character.AI به دلیل خودکشی پسر ۱۴ ساله‌ خود در ماه فوریه شکایت کرده و ادعا می‌کند که او به این سرویس اعتیاد پیدا کرده و به چت‌باتی که این شرکت ایجاد کرده، وابسته شده است.

این شکایت در دادگاه فدرال اورلاندو، فلوریدا ثبت شده، مگان گارسیا، مادر این پسر نوجوان گفت که Character.AI پسرش، سویل ستزر، را با "تجربیات انسان‌نما، فوق‌جنسی و به طرز ترسناکی واقع‌گرایانه" هدف قرار داده است.

وی مدعی شد که این شرکت چت‌بات به گونه‌ای برنامه‌ریزی کرده که "خود را به عنوان یک شخص واقعی، یک روان‌درمانگر دارای مجوز و یک عاشق بزرگسال معرفی کند که در نهایت منجر به تمایل سویل به زندگی نکردن در دنیای واقعی شد."

در همین راستا Character.AI در بیانیه‌ای گفت: "ما از دست دادن غم‌انگیز یکی از کاربران خود بسیار ناراحت هستیم و می‌خواهیم عمیق‌ترین تسلیت‌های خود را به خانواده ابراز کنیم."

دیدگاه ها

ایمیل شما در معرض نمایش قرار نمی‌گیرد