Por primera vez, Meta ha sido considerada legalmente responsable de diseñar intencionalmente plataformas que ponen en peligro la seguridad infantil. Fallos recientes en Nuevo México y Los Ángeles marcan un punto de inflexión en la forma en que se ve a las empresas de tecnología: no como plataformas neutrales, sino como entidades que pueden ser responsables de las características adictivas y dañinas incorporadas en sus productos. Estos casos no tienen que ver con el contenido; se trata de cómo las plataformas están diseñadas para explotar la psicología humana, particularmente entre los usuarios jóvenes.
La marea legal está cambiando
El jurado de Nuevo México encontró a Meta responsable bajo la Ley de Prácticas Desleales del estado, lo que resultó en una multa de 375 millones de dólares. Simultáneamente, un jurado de Los Ángeles determinó que Meta (70%) y YouTube (30%) eran responsables de la angustia mental de un demandante de 20 años, lo que llevó a una multa combinada de 6 millones de dólares. Si bien estas cantidades pueden parecer pequeñas para un gigante tecnológico como Meta, los expertos legales advierten que esto es solo el comienzo. Miles de casos similares están pendientes y 40 fiscales generales estatales han presentado demandas paralelas.
Este cambio en los precedentes legales es importante porque pasa por alto las protecciones habituales que se otorgan a las empresas de redes sociales según los argumentos de la Primera Enmienda. Los tribunales ahora se centran en opciones de diseño (desplazamiento interminable, notificaciones constantes y funciones diseñadas para un uso compulsivo) en lugar de contenido generado por el usuario. Como explica la abogada Allison Fitzpatrick, la estrategia refleja las demandas exitosas contra la industria tabacalera, dirigidas a los mecanismos adictivos en lugar de culpar a los consumidores individuales.
Documentos internos revelan manipulación deliberada
Los metadocumentos internos recientemente revelados pintan un panorama condenatorio. Los informes de 2019 muestran que la compañía reconoció que sus plataformas impactan negativamente el bienestar de los usuarios, pero continuó priorizando la “participación de los adolescentes”. Un estudio destacó que el 12,5% de los usuarios exhibieron patrones de uso problemáticos, mientras que los ejecutivos discutieron estrategias para maximizar la retención, incluso sugiriendo formas de eludir los controles parentales (“echando un vistazo a tu teléfono en medio de Química :)”, se lee en un correo electrónico interno).
Según se informa, el propio Mark Zuckerberg comentó sobre la necesidad de evitar notificar a los padres sobre el uso de los adolescentes. Estas revelaciones confirman que Meta era plenamente consciente del daño, pero persiguió activamente diseños adictivos para impulsar el compromiso. A pesar de esto, Meta sostiene que está tomando medidas y señala nuevas funciones de seguridad como cuentas de Instagram para adolescentes con configuraciones de privacidad predeterminadas y recordatorios de límites de tiempo.
Los límites de la regulación
El gobierno de Estados Unidos está respondiendo con esfuerzos legislativos, pero muchos proyectos de ley enfrentan críticas por priorizar potencialmente la vigilancia y la censura sobre la seguridad infantil real. La Ley de Seguridad Infantil en Línea, si bien obtuvo el apoyo de las principales empresas tecnológicas, ha generado reacciones negativas por cláusulas que podrían adelantarse a las regulaciones estatales y cerrar vías legales para las víctimas. Kelly Stonelake, exdirectora de Meta que demandó a la empresa por presunta discriminación, advierte contra tal extralimitación, argumentando que la solución requiere un enfoque “complejo y matizado”.
La cuestión central no es simplemente bloquear contenido dañino; se trata de desmantelar las características de diseño que explotan las vulnerabilidades en los cerebros en desarrollo. Los documentos internos de Meta demuestran que la empresa sabía lo que estaba haciendo. El litigio en curso probablemente obligará a una mayor transparencia y potencialmente conducirá a sanciones financieras más sustanciales.
En última instancia, estos casos representan un momento crítico en el debate sobre la responsabilidad tecnológica. La pregunta ahora es si una mayor presión legal obligará a Meta –y otras plataformas– a rediseñar fundamentalmente sus productos de manera que prioricen el bienestar del usuario sobre las métricas de participación a corto plazo.





















