TikTok puede ser responsable de la muerte de un niño de 10 años – Mother Jones

7 min read

Madre Jones; Yui Mok/AP Luche contra la desinformación: Suscríbase al boletín gratuito Mother Jones Daily y manténgase al tanto de las noticias importantes. La vida de Taiwanna Anderson cambió para siempre en diciembre de 2021 cuando encontró a su hija de 10 años, Nylah, inconsciente, colgada de un Correa para equipaje en el armario del dormitorio. Nilah era joven y no tenía tendencias suicidas, y se encontró con el “Blackout Challenge” en una serie de videos que el algoritmo de TikTok había seleccionado para ella. Un desafío que circula en una aplicación para compartir vídeos anima a los usuarios a ahogarse con objetos domésticos hasta perder el conocimiento. Cuando recuperaron la conciencia Deberían subir los resultados del vídeo para que otros los repliquen. Después de pasar varios días en la unidad de cuidados intensivos del hospital, Nylah sucumbió a las heridas de estrangulamiento. Anderson está demandando a TikTok por responsabilidad del producto y negligencia que, según ella, provocó la muerte de Nilah. Durante años, los demandantes han intentado demandar a varias plataformas de Internet. Por los peligros que ocurren en línea Esas plataformas se benefician del equivalente a una tarjeta para salir libre de la cárcel: la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley de 1996 que ofrece aplicaciones y Los sitios web tienen amplia inmunidad de responsabilidad por el contenido publicado en sus sitios por usuarios externos. En 2022, un juez de distrito federal aceptó la defensa de la Sección 230 de TikTok y desestimó la demanda de Anderson sobre la base de que se estima que TikTok no creó el video del desafío del apagón. Lo que vio Nylah, lo hizo un usuario externo de TikTok: “TikTok lee la Sección 230 de la Ley de Decencia en las Comunicaciones para permitir que las niñas de 10 años las ignoren casualmente”, pero cuando el martes. El Tribunal Federal de Apelaciones del Tercer Circuito emitió una opinión sobre la reactivación del caso de la madre. Al permitir que su caso contra TikTok avance a juicio, es posible que TikTok no haya tomado el video que anima a Nylah a ahorcarse, pero la plataforma “toma decisiones sobre el contenido que recomienda y promueve para usuarios específicos”, escribió la jueza Patty Shwartz en el fallo. Opinión del Tribunal de Apelación «Y al hacerlo, participó en su propio discurso en primera persona». «TikTok leyó la Ley de Decencia en las Comunicaciones, Sección 230, para permitirle ignorar la muerte de una niña de 10 años», escribió el juez Paul Matey. en un voto concurrente parcial que intentó ir más allá que los otros dos magistrados del panel. Los expertos legales en responsabilidad tecnológica dijeron que la decisión general del panel podría tener un impacto importante en todo tipo de plataformas en línea que usan algoritmos similares a los de TikTok, ya que cada plataforma que usa un algoritmo de recomendación que podría contarse como actividad expresiva o discurso expresivo se despertó en su cuenta. oficina del asesor general y dijo: ‘Santo cielo’”, dijo Leah Plunkett, miembro del cuerpo docente de la Facultad de Derecho de Harvard y autora de Sharenthood, un libro sobre la protección de los niños en línea, «si la gente no despierta». [Wednesday] Así es como debería ser”. Los partidarios de la Sección 230 sostienen que una amplia protección de la responsabilidad es esencial para la larga existencia y evolución de Internet como herramienta social. Si los sitios web fueran responsables de moderar las grandes cantidades de contenido creado por cientos de millones de usuarios independientes, Argumentaron que la demanda devastaría las tesorerías de las plataformas y abrumaría al sistema judicial. «Si tienes menos instancias ejecutando 230 plataformas diferentes, «Se enfrentará a una mayor responsabilidad y, en última instancia, perjudicará a los usuarios de Internet», dijo Sophia Cope, abogada principal de Electronic Frontier Foundation, una organización creativa y sin fines de lucro dedicada a la libertad de expresión. Una interpretación más estricta de la exención de la Sección 230 permitiría a las plataformas “No quiero alojar contenido de terceros. o restringir severamente lo que los usuarios pueden publicar”, dijo Cope, y agregó que tales cambios afectarían las plataformas que participan en Pero los críticos del alcance actual de la Sección 23o dicen que la ley se ha interpretado de manera demasiado indulgente. Y al menos a veces las empresas Deben rendir cuentas por el contenido dañino que publican sus plataformas en línea. En una gran audiencia esta semana El tribunal de apelaciones dijo que cuando una plataforma modera contenido dañino No son usuarios de terceros. Podrá participar en forma de “Actividad expresiva” que puede ser demandada “TikTok tomó la decisión consciente de no moderar los desafíos. En cambio, atiende cada vez más a niños, muchos de los cuales pueden estar bajo la influencia de los algoritmos adictivos de TikTok”, dijo Carrie Goldberg, una abogada involucrada. Varias demandas por responsabilidad de productos contra empresas de tecnología La decisión del martes marca un cambio respecto de fallos anteriores de tribunales federales sobre la responsabilidad (o falta de ella) de las plataformas en línea. Esto se debe a que el Tribunal de Apelaciones tiene nueva jurisprudencia que considerar. en julio La Corte Suprema emitió una decisión a favor de las plataformas tecnológicas a instancias del grupo comercial NetChoice, pero destacó la capacidad de las plataformas para participar en actividades expresivas, como la moderación de contenidos o la eliminación de las plataformas de los políticos. si ellos eligen La Corte Suprema dijo en su estrecha decisión en el caso que Interferir con esa capacidad implicaría los derechos de la plataforma de la Primera Enmienda NetChoice contra Bad Temper. Algunos expertos creen que la decisión de NetChoice no tiene nada que ver con la Sección 230, que fue aprobada originalmente por el Congreso con la intención de proteger las nuevas plataformas tecnológicas de demandas. moderar parte de su contenido Pero no funciona lo suficientemente bien. “No hay conflicto entre la moderación y la clasificación de (1) el discurso de la plataforma y (2) la inmunización por 230”, escribió en Twitter Daphne Keller del Cyber ​​​​Policy Center de Stanford. “El objetivo de 230 es alentar e inmunizar. moderación”. Pero para los defensores de la demanda 230, nuevamente, el hecho de que los argumentos anteriores de NetChoice ante la Corte Suprema fueron utilizados por el Tercer Circuito para determinar si las amplias protecciones de la Sección 230 deberían ser válidas. «Es ridículamente irónico», dijo Goldberg, porque «NetChoice es la 230 organización de cabildeo más solidaria que existe». lo que significa que los casos La jurisdicción del Tercer Distrito no debe descartarse de conformidad con la Sección 230 antes de que el tribunal de primera instancia pueda determinar los hechos. ensayo “Se deben enviar mensajes” a plataformas que utilizan algoritmos de moderación de contenido. “Que se acabó el tren de la salsa”, dijo Goldberg a Mother Jones. “Estos gigantes tecnológicos han estado ganando dinero durante demasiado tiempo. Me siento cómodo con la idea de que los niños muertos son el precio de crecer agresivamente”.

You May Also Like

More From Author

+ There are no comments

Add yours