هفت خانواده فرانسوی از تیکتاک به دلیل قرار دادن فرزندان نوجوانشان در معرض محتوای مضر که منجر به خودکشی دو نفر از آنها در سن ۱۵ سالگی شده است، شکایت کردند.
این شکایت ادعا میکند که الگوریتم تیکتاک این هفت نوجوان را به ویدئوهایی که خودکشی، خودآزاری و اختلالات غذایی ترویج میکنند. براساس گفتههای لور بوترون مارمیون، وکیل این خانوادهها، این نخستین شکایت گروهی در این زمینه در اروپا به حساب می آید.
وی گفت: والدین میخواهند مسئولیت قانونی تیکتاک در دادگاه به رسمیت شناخته شود و این یک شرکت تجاری است که محصولی را به مصرفکنندگانی که علاوه بر این، نوجوان هستند، ارائه میدهد. بنابراین، آنها باید در برابر نقصهای محصول پاسخگو باشند.
تیکتاک، مانند سایر شبکههای اجتماعی، مدتهاست که تحت نظارت قرار دارد و به دلیل مدیریت محتوای موجود در اپلیکیشن خود مورد انتقاد قرار گرفته است که آنها را متهم به جذب و اعتیاد میلیونها کودک به پلتفرمهای خود و آسیب به سلامت روان آنها میکند.
گفتنی است که چندی پیش یک مادر فلوریدایی از شرکت استارتاپ چتبات هوشمصنوعی Character.AI به دلیل خودکشی پسر ۱۴ ساله خود در ماه فوریه شکایت کرده و ادعا میکند که او به این سرویس اعتیاد پیدا کرده و به چتباتی که این شرکت ایجاد کرده، وابسته شده است.
این شکایت در دادگاه فدرال اورلاندو، فلوریدا ثبت شده، مگان گارسیا، مادر این پسر نوجوان گفت که Character.AI پسرش، سویل ستزر، را با "تجربیات انساننما، فوقجنسی و به طرز ترسناکی واقعگرایانه" هدف قرار داده است.
وی مدعی شد که این شرکت چتبات به گونهای برنامهریزی کرده که "خود را به عنوان یک شخص واقعی، یک رواندرمانگر دارای مجوز و یک عاشق بزرگسال معرفی کند که در نهایت منجر به تمایل سویل به زندگی نکردن در دنیای واقعی شد."
در همین راستا Character.AI در بیانیهای گفت: "ما از دست دادن غمانگیز یکی از کاربران خود بسیار ناراحت هستیم و میخواهیم عمیقترین تسلیتهای خود را به خانواده ابراز کنیم."
دیدگاه ها