Demandan a Roblox y Discord tras el suicidio de una niña de 13 años

Una nueva demanda alega que Roblox y Discord son responsables por no proteger a una niña de 13 años que murió por suicidio.
La demanda, presentada la semana pasada en el Tribunal de Distrito de los Estados Unidos para el Distrito Este de Kentucky, División de Covington, por Jaimee Seitz, afirma que las aplicaciones Discord y Roblox fueron responsables del suicidio de su hija, Audree Heine.
[Estamos en WhatsApp. Empieza a seguirnos ahora]
La demanda sostiene que Heine fue empujada al suicidio por "una comunidad en línea dedicada a glorificar la violencia y a emular a notorios tiradores masivos, una comunidad que puede prosperar y depredar a niños pequeños como Audree solo debido a la conducta flagrantemente ilícita de los demandados".
Según se explica en la demanda, la comunidad en línea en cuestión, la "Comunidad del Crimen Real" (True Crime Community), "idolatra a los tiradores masivos y se superpone con otras ideologías violentas y extremistas", veneraba a los autores de la masacre de 1999 en la Escuela Secundaria Columbine en Colorado y "los representaba como inadaptados incomprendidos que se vengaron de sus acosadores, y fomentaba la violencia contra uno mismo y contra los demás".
La demanda identificó a Roblox como un "lugar central para el contenido de la TCC", incluyendo juegos diseñados para recrear masacres pasadas. Citó a Discord como la fuente de "consejos sobre cómo construir simuladores de tiroteos escolares y diseñar avatares de Roblox que se asemejen a tiradores escolares notorios".
"A través de sus constantes tergiversaciones sobre la seguridad, los demandados presentan sus aplicaciones como lugares apropiados para que los niños jueguen", se lee en la demanda. "En realidad, y como bien saben los demandados, el diseño de sus aplicaciones convierte a los niños en blancos fáciles para comportamientos depredadores".
"Usuarios malintencionados, a menudo adultos, utilizan las plataformas de los demandados para dirigirse a niños vulnerables y luego prepararlos para la explotación sexual o la violencia. Estos procesos depredadores similares implican el tipo de manipulación y presión que Audree experimentó en Roblox y Discord".
La demanda alega que las plataformas no implementaron características de seguridad adecuadas para proteger a los usuarios menores de edad. Por ejemplo, según la demanda, Discord y Roblox carecen de una verificación de edad adecuada para los usuarios.
Anapol Weiss, un bufete de abogados con sede en Filadelfia, Pensilvania, que ha presentado varias demandas contra Roblox en el pasado, representa a Seitz.
"No se trata de un fallo menor en la seguridad, se trata de una empresa que da a los pedófilos herramientas poderosas para depredar a niños inocentes y desprevenidos", dijo Alexandra Walsh, socia de Anapol Weiss, en un comunicado.
"El trauma resultante es horrible, desde el 'grooming', la explotación, hasta la agresión física. En este caso, una niña perdió la vida. Esto tiene que parar".
La demanda de la familia es la duodécima que Anapol Weiss ha presentado contra plataformas de juegos en línea por presunta protección inadecuada de menores, lo que, según el bufete, "indica un patrón de desprecio corporativo por la seguridad infantil".
Discord ha sido criticado durante mucho tiempo por su presunta incapacidad para proteger a los niños que utilizan la plataforma, y el Centro Nacional sobre Explotación Sexual (NCOSE, por sus siglas en inglés) ha incluido la aplicación de comunicaciones en su lista de la "Docena Sucia" durante los últimos cuatro años.
"Aunque Discord afirma haber realizado cambios para prevenir la explotación, estas políticas son meramente una fachada. El NCOSE y otros expertos en seguridad infantil han demostrado que estos cambios de seguridad son defectuosos", declaró el NCOSE en marzo.
"Además, adultos y menores siguen teniendo la misma configuración predeterminada para el contenido explícito, lo que significa que los menores siguen teniendo acceso total para ver y enviar pornografía y otro contenido sexualmente explícito en los servidores de Discord y en mensajes privados".
El pasado noviembre, Roblox anunció que implementaría varias medidas de seguridad infantil, incluyendo la gestión parental remota de las cuentas de los niños, la posibilidad de que los cuidadores establezcan límites de tiempo de pantalla diario, restricciones en la comunicación para usuarios menores de 13 años y mayores límites en el acceso a contenido gráfico.
"Desde el día de nuestro lanzamiento, hemos tenido una creciente población de usuarios más jóvenes y queremos ayudar a mantenerlos seguros en Roblox. Nos tomamos la seguridad muy en serio", declaró la compañía.
"Nuestro objetivo es hacer de Roblox la plataforma en línea más segura y cívica posible porque es lo correcto para los niños, sus padres y cuidadores, nuestros inversores y nuestra empresa".







 
 




 
  
  
  
 