Esta demanda podría hacer que las redes sociales sean más seguras para sus hijos

[ad_1]

Se permite que avance una demanda que acusa a las empresas de redes sociales de dañar intencionalmente a niños a través de diseños de plataformas adictivos, dictaminó hoy un tribunal federal.

Presentado en nombre de cientos de menores en todo Estados Unidos, el demanda consolidada alega que empresas como Meta, Snap, TikTok y YouTube diseñaron específicamente sus plataformas para «enganchar» a los usuarios jóvenes, lo que provoca problemas de salud mental como ansiedad y depresión.

El caso consolida más de 100 demandas individuales presentadas a principios de 2022, poco después de que la denunciante de Facebook Frances Haugen investigación interna filtrada sobre los efectos adversos de Instagram en la salud mental de los adolescentes.

El juez permite que proceda la mayor parte de la demanda

“Se alega que los acusados ​​apuntan a los niños como mercado principal y diseñaron sus plataformas para atraerlos y adictos”, escribió la jueza Yvonne González Rogers en el orden emitido en California.

Las empresas intentaron desestimar la demanda, argumentando que están protegidas de responsabilidad en virtud de la Sección 230 de la Ley de Decencia en las Comunicaciones. Conocida simplemente como Sección 230, esta ley de 1996 protege las plataformas en línea de demandas por contenido generado por los usuarios.

Pero después de un análisis detallado, escribió Rogers, «el enfoque de ‘todo o nada’ de las partes ante las mociones de desestimación no aborda suficientemente la complejidad de las cuestiones que enfrenta este litigio».

En el centro de la demanda se encuentran las acusaciones sobre los feeds interminables, las notificaciones automáticas, las recomendaciones algorítmicas y otras características de diseño de las plataformas que las hacen adictivas. Los demandantes dicen que estas elecciones intencionales de diseño son las culpables de los daños a la salud mental, no el contenido en sí.

Rogers estuvo de acuerdo. La sección 230 no prohíbe las reclamaciones por responsabilidad del producto centradas en defectos de diseño, como controles parentales ineficaces, verificación de edad, límites de tiempo y barreras para la eliminación de cuentas. Sin embargo, se descartaron las afirmaciones sobre el uso de algoritmos para recomendar cuentas y algunas funciones de notificación.

“Lo mismo se aplica aquí. El Tribunal debe considerar la conducta específica a través de la cual los acusados ​​supuestamente violaron sus deberes para con los demandantes”, escribió Rogers. «Son estas acusaciones detalladas y específicas de conducta las que requieren análisis».

Descubrimiento potencialmente dañino por delante

A medida que el caso avanza hacia el descubrimiento, podrían salir a la luz documentos internos y datos de las empresas de tecnología relacionados con su conocimiento de posibles daños. Los demandantes argumentan que las empresas eran conscientes de los efectos sobre la salud mental de los niños, pero hicieron poco para chocar los problemas de seguridad.

“El enfoque de todo o nada de las partes no representa de manera justa o precisa la aplicación de la inmunidad de la Sección 230 por parte del Noveno Circuito”, escribió Rogers. «Más bien, el Tribunal ha realizado un análisis de los defectos de funcionalidad reales alegados en la denuncia».

Demanda busca cambios de diseño y daños

La demanda busca aplicar la ley de responsabilidad del producto a las redes sociales, tratando las plataformas como productos defectuosos que requieren diseños y advertencias mejorados.

Las empresas de tecnología han mantenido durante mucho tiempo inmunidad legal únicamente para el contenido de los usuarios. Aún así, este caso y otros señalan una nueva amenaza centrada en algoritmos, sistemas de recomendación y otras opciones operativas integradas en las plataformas.

Los abogados de las empresas no han indicado si apelarán la decisión, lo que permitirá que avancen partes importantes de la demanda. Con miles de millones de dólares y el diseño futuro de las redes sociales en juego, el caso está siendo seguido de cerca en los círculos tecnológicos y legales.

Si se certifica la demanda colectiva, los demandantes buscarán daños y perjuicios y forzarán cambios en la plataforma, como límites de tiempo predeterminados, verificación de edad, transparencia algorítmica, etc. Sin embargo, el caso aún enfrenta obstáculos como demostrar que las plataformas causaron sin rodeos daños a la salud mental sufridos por menores individuales.

En última instancia, la demanda apunta al modelo de negocio publicitario central de las empresas de redes sociales que depende de maximizar el tiempo de participación del usuario a través de opciones de diseño como feeds de desplazamiento interminable. Cualquier cambio impuesto a las empresas podría afectar sus ganancias.

Mirando hacia el futuro

Si bien aún se encuentra en una etapa temprana, el fallo mixto mantiene viva la demanda y allana el camino para que documentos internos expongan potencialmente hasta qué punto Facebook, Snapchat, TikTok y YouTube pueden haber llegado para enganchar a los usuarios jóvenes a expensas de su bienestar. .


Imagen de portada: DavideAngelini/Shutterstock

[ad_2]

Consultar el artículo en la publicación original

Esta demanda podría hacer que las redes sociales sean más seguras para sus hijos