Condenas históricas a Meta y YouTube por daño a adolescentes: el juicio y los informes periciales psiquiátricos
- hace 15 horas
- 22 Min. de lectura

El mes de marzo de 2026 ha quedado grabado como un hito fundacional en la intersección entre la tecnología, la salud pública y la responsabilidad corporativa. Tras años de debates sobre los efectos de la digitalización en la juventud, dos jurados independientes en Estados Unidos —uno en el Tribunal Superior del Condado de Los Ángeles, California, y otro en un tribunal estatal en Santa Fe, Nuevo México— emitieron veredictos históricos que condenan a gigantes tecnológicos como Meta (matriz de Facebook, Instagram y WhatsApp) y Google (matriz de YouTube). Las sentencias dictaminaron que estas plataformas no son meros espacios neutrales de interacción, sino productos inherentemente defectuosos y peligrosos que han sido diseñados deliberadamente para crear adicción, lucrándose a costa del bienestar psicológico y la seguridad física de los adolescentes.
Este informe analiza en profundidad los argumentos, las pruebas periciales y los testimonios de los expertos que lograron desmoronar las defensas multimillonarias de Silicon Valley. Un equipo de psiquiatras, neurocientíficos, terapeutas y exempleados arrepentidos lograron convencer a ciudadanos comunes de que la crisis de salud mental adolescente no es un fenómeno accidental, sino el resultado directo de una ingeniería de la atención fríamente calculada.
El cambio de paradigma: del contenido a la arquitectura del producto
Para comprender la magnitud de los veredictos de 2026, es fundamental entender el muro de impunidad que había protegido a las redes sociales durante casi tres décadas: la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 de Estados Unidos. Esta ley establece que las plataformas de internet no pueden ser consideradas legalmente responsables por el contenido que publican sus usuarios. Durante años, cada vez que una familia intentaba demandar a una red social porque su hijo había sufrido acoso cibernético, extorsión o había sido expuesto a retos mortales, las corporaciones tecnológicas se escudaban en la Sección 230, argumentando que ellas solo proveían la "pizarra" y no eran responsables de lo que otros escribían en ella.
Sin embargo, en el litigio consolidado de California (conocido formalmente como JCCP 5255), los abogados de la parte demandante, liderados por Mark Lanier y Matthew Bergman, orquestaron un giro estratégico brillante. En lugar de centrarse en los videos, las fotos o los mensajes específicos que causaron daño, los abogados dirigieron la atención del jurado hacia el diseño del software y la arquitectura del producto. Argumentaron que las plataformas no son pasivas; sus algoritmos de recomendación, el desplazamiento infinito, las notificaciones y la reproducción automática son decisiones de ingeniería creadas por la empresa.
El abogado Mark Lanier utilizó una analogía que resonó profundamente en el jurado, describiendo estas características de diseño como "caballos de Troya". Explicó que las aplicaciones se presentan como herramientas maravillosas y coloridas de conexión social, pero una vez que los adolescentes las invitan a entrar en sus vidas, toman el control de sus sistemas neurológicos. Lanier simplificó el caso a lo que llamó el "ABC" de las redes sociales: "Addicting the Brains of Children" (Adictos a los cerebros de los niños), sosteniendo que Meta y YouTube habían diseñado intencionalmente máquinas de adicción para maximizar sus ingresos por publicidad.
Este enfoque fue el que permitió sortear el escudo legal de la Sección 230, abriendo la puerta para que los jurados evaluaran las plataformas bajo las leyes de responsabilidad por productos defectuosos y negligencia corporativa, de la misma manera que se evaluaría a un fabricante de automóviles por instalar frenos defectuosos a sabiendas.
La ciencia de la adicción: el peritaje neurobiológico y psiquiátrico
El caso principal en Los Ángeles giró en torno a una demandante de 20 años identificada en los documentos judiciales por sus iniciales, K.G.M., y conocida durante el juicio como Kaley. Su historia personal sirvió como el caso de prueba ("bellwether trial") representativo de miles de demandas similares presentadas por familias e instituciones educativas de todo el país. Kaley comenzó a utilizar YouTube cuando tenía apenas 6 años e Instagram a los 9 años. Según su testimonio y el de sus abogados, esta exposición temprana a plataformas altamente estimulantes moldeó su desarrollo cerebral, generándole una dependencia compulsiva que desembocó en una depresión, ansiedad severa, trastorno dismórfico corporal e ideación suicida cuando alcanzó la adolescencia.
Para demostrar que la adicción a las redes sociales no es simplemente un término coloquial para describir un mal hábito, sino una alteración clínica y neurológica real, la parte demandante convocó a algunas de las voces más respetadas en el campo de la psiquiatría y la neurociencia.
La Dra. Kara Bagot y el desarrollo del cerebro adolescente
Una de las piezas centrales del rompecabezas probatorio fue el testimonio de la Dra. Kara Bagot, una destacada psiquiatra y neurocientífica infantil que fue fundamental en el desarrollo del histórico estudio ABCD (Adolescent Brain Cognitive Development) impulsado por los Institutos Nacionales de Salud de Estados Unidos. La Dra. Bagot pasó cinco días en el estrado de los testigos, soportando un intenso contrainterrogatorio por parte de los abogados de Meta y Google, pero logrando ilustrar al jurado sobre cómo el diseño de estas plataformas explota directamente las vulnerabilidades de un cerebro en desarrollo.
Con un grado de certeza médica razonable, Bagot testificó que Kaley había desarrollado una verdadera adicción a las redes sociales, señalando que YouTube actuó como la "droga de entrada" en la infancia temprana de la niña. La experta proporcionó un desglose minucioso de las funciones específicas de la plataforma que impulsan el uso compulsivo y que lograron convencer al jurado de la existencia de un diseño malicioso.
El desplazamiento infinito ("infinite scroll") y la reproducción automática ("autoplay") fueron identificados por la Dra. Bagot no como mejoras de conveniencia, sino como mecanismos diseñados para eliminar las señales de parada naturales del cerebro. En el mundo físico, casi todas las actividades tienen un final natural que obliga al cerebro a tomar la decisión consciente de continuar o detenerse (por ejemplo, llegar al final de un capítulo de un libro o al final de un programa de televisión). Al eliminar este punto de fricción, las plataformas obligan a la corteza prefrontal del adolescente —el área del cerebro responsable del autocontrol y la toma de decisiones, que aún está inmadura— a trabajar horas extras para frenar el impulso de seguir mirando, un esfuerzo que inevitablemente conduce a la fatiga cognitiva y al fracaso en el autocontrol.
Asimismo, Bagot explicó cómo los algoritmos de recomendación y el sistema de notificaciones constantes secuestran el sistema de atención del adolescente. Cada notificación ("ping") y cada actualización en el recuento de "me gusta" genera una respuesta biológica. La experta argumentó que la falta de herramientas de verificación de edad reales en plataformas como Instagram y YouTube permitió que Kaley y millones de niños como ella fueran sometidos a estos estímulos en los años más críticos de su neurodesarrollo. Al finalizar su exhaustivo y riguroso testimonio, en el que se negó a reducir la complejidad del cerebro humano a respuestas binarias exigidas por la defensa, la Dra. Bagot fue despedida de la sala del tribunal con un discreto aplauso, un indicador del profundo impacto que sus palabras tuvieron en los presentes.
La Dra. Anna Lembke y la dopamina
Para fortalecer aún más la comprensión biológica de la adicción tecnológica, el jurado escuchó el testimonio pericial de la Dra. Anna Lembke, psiquiatra, experta en medicina de la adicción de la Universidad de Stanford y autora del libro "Dopamine Nation". La intervención de Lembke fue crucial para refutar el argumento de la defensa tecnológica de que las redes sociales, al no ser sustancias químicas que se ingieren, no pueden causar una adicción.
La Dra. Lembke explicó que el cerebro humano no distingue entre la fuente del estímulo placentero; los mecanismos de recompensa social integrados en las plataformas de Meta y Google activan exactamente las mismas vías neurológicas dopaminérgicas que se activan con las máquinas tragaperras, el alcohol o las drogas narcóticas. Las redes sociales utilizan un proceso psicológico conocido como "recompensa variable intermitente". Cuando un adolescente publica una foto en Instagram o revisa TikTok, no sabe si recibirá tres "me gusta" o trescientos, ni si los comentarios serán elogiosos o crueles. Esta imprevisibilidad es el motor biológico más potente para generar hábitos compulsivos.
La experta detalló ante el jurado el ciclo destructivo de esta hiperestimulación: cuando un adolescente inunda constantemente su cerebro con niveles artificialmente altos de dopamina derivados de la validación digital, el cerebro, en su intento por mantener el equilibrio (homeostasis), se adapta regulando a la baja o cerrando sus propios receptores de dopamina. Esto induce a los usuarios a un estado crónico de déficit de dopamina, que clínicamente se experimenta como anhedonia (incapacidad para sentir placer), irritabilidad, ansiedad y depresión. A partir de este punto, explicó Lembke, el adolescente ya no utiliza el teléfono para sentirse bien, sino para dejar de sentirse mal, buscando aliviar el dolor psicológico de la abstinencia química. Este concepto resonó profundamente en el jurado al evaluar la metamorfosis de la salud mental de la joven demandante.
A continuación se muestra una síntesis de la relación establecida por las peritos entre el diseño técnico de las plataformas y sus repercusiones en el bienestar neurobiológico:
Característica Estructural del Producto | Mecanismo Neurobiológico Explotado | Diagnóstico Clínico y Comportamental |
Notificaciones push y recuento de "Me Gusta" | Activación del sistema de recompensa variable (vías dopaminérgicas) | Comportamiento compulsivo de revisión, dependencia emocional, ansiedad anticipatoria. |
Desplazamiento Infinito y Reproducción Automática | Evasión de la saciedad cognitiva; anulación de la corteza prefrontal inmadura | Pérdida profunda de la noción del tiempo, interrupción del ciclo de sueño, agotamiento mental. |
Filtros de Belleza y Edición de Imagen | Estimulación del sesgo de comparación social ascendente | Desarrollo de trastorno dismórfico corporal, fobia social, trastornos de la conducta alimentaria. |
Algoritmos de Recomendación (Feeds de video) | Explotación del sesgo de negatividad; entrega de contenido de alta carga emocional | Formación de cámaras de eco que exacerban la ideación suicida y la depresión severa. |
El rostro clínico del daño: el testimonio de Victoria Burke
Si bien los neurocientíficos y académicos proporcionaron el marco teórico poblacional, era imperativo para el éxito de la demanda conectar esta teoría generalizada con el sufrimiento específico de Kaley. Para lograr este nexo causal, los abogados llamaron al estrado a Victoria Burke, la terapeuta que trató directamente a la demandante de forma regular a partir del año 2019, cuando Kaley tenía 13 años.
El peritaje de Burke fue intensamente personal y clínicamente incuestionable. Fue ella quien evaluó y diagnosticó a la adolescente con trastorno dismórfico corporal y fobia social, patologías que la terapeuta vinculó firmemente con la exposición crónica a Instagram y YouTube. Durante su testimonio, Burke explicó cómo el sentido de identidad, la autoestima y la estabilidad emocional de Kaley estaban casi fusionados con su actividad en las redes sociales. Describió que las interacciones digitales tenían un impacto tan desproporcionado que podían "hacer o deshacer su estado de ánimo" en cuestión de minutos, dejándola vulnerable a una inestabilidad emocional extrema.
Un momento revelador del interrogatorio a Burke fue su descripción de cómo la plataforma no solo actuaba como una adicción activa, sino como un escudo paralizante contra el mundo real. La terapeuta narró cómo Kaley desarrolló la compulsión de sacar su teléfono en situaciones sociales físicas para simular que estaba ocupada, con el único fin de evitar ser percibida por sus compañeros como alguien que estaba sola o que no tenía amigos. Burke reconoció que, inicialmente, las plataformas de Kaley tenían aspectos positivos, como servir de salida creativa para sus ediciones de video y arte digital, pero que rápidamente se transformaron en una dependencia tiránica de la que la menor no podía escapar a pesar de los intentos terapéuticos por reducir su tiempo de pantalla.
Los abogados de Meta, conscientes del daño que el testimonio de Burke estaba infligiendo a su caso, sometieron a la terapeuta a un agresivo contrainterrogatorio. Intentaron desacreditarla argumentando que la "adicción a las redes sociales" no era un diagnóstico formalmente reconocido en la última versión del Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-5), el texto de referencia para los profesionales de la salud mental en Estados Unidos. La estrategia de la defensa consistió en sugerir que Burke y los abogados estaban inventando una enfermedad. Sin embargo, Burke mantuvo su postura clínica, argumentando que, independientemente de la terminología burocrática del manual, los comportamientos de Kaley se superponían de manera inequívoca con las características clínicas del trastorno obsesivo-compulsivo y la fobia social, y que, en su opinión profesional experta, la adicción a estas plataformas fue el principal factor contribuyente.
La agresividad del abogado de Meta durante este interrogatorio provocó que la jueza Carolyn B. Kuhl tuviera que detener temporalmente los procedimientos para reprender a la defensa por intentar acorralar e intimidar a la terapeuta, un detalle que no pasó desapercibido para los miembros del jurado, quienes mostraban expresiones de claro rechazo ante las tácticas de intimidación de las tecnológicas.
Los informantes de Silicon Valley: desentrañando el encubrimiento corporativo
Demostrar que Kaley sufrió daños neurológicos y psiquiátricos no era suficiente bajo la ley estadounidense para lograr una condena por daños punitivos. Los demandantes debían probar negligencia, o idealmente fraude y malicia; es decir, debían demostrar que Google y Meta sabían que sus productos estaban arruinando la salud mental de los niños y que, en lugar de arreglarlos, decidieron ocultar la información para proteger sus modelos de negocio lucrativos. Este pilar fundamental de la acusación se construyó gracias a la valentía de los informantes internos ("whistleblowers") y ex ejecutivos de seguridad de las propias compañías.
Arturo Béjar: el enmascaramiento del lenguaje y la fe de errores intencional
Arturo Béjar, ex ejecutivo de seguridad de Meta, proporcionó uno de los testimonios más perjudiciales para la corporación de Mark Zuckerberg. Hablando desde la experiencia directa en las reuniones de alto nivel de Silicon Valley, Bejar reveló al jurado que la crisis de salud mental adolescente no fue una sorpresa imprevista para la empresa. Testificó que, para el año 2019, las divisiones internas de investigación de Meta ya habían identificado de manera concluyente que la adicción era un problema epidémico y grave entre sus usuarios más jóvenes.
Sin embargo, en un esfuerzo flagrante por mitigar la responsabilidad legal futura, Béjar narró cómo la alta dirección de Meta emitió directrices para prohibir a los empleados utilizar la palabra "adicción" en cualquier comunicación interna, estudio o presentación. En su lugar, se instruyó a los investigadores y directivos a emplear el eufemismo de "uso problemático" ("problematic use"). Este peritaje fue devastador, ya que demostró una clara conciencia de culpabilidad corporativa.
Bejar también ilustró al jurado sobre la práctica de los "patrones oscuros" ("dark patterns") en el diseño de software. Explicó cómo la interfaz de Instagram utilizaba trucos psicológicos visuales para desalentar a los usuarios que querían reportar abusos o comportamientos dañinos. Mencionó específicamente el famoso diseño del "botón azul", que dificultaba intencionalmente el proceso de denuncia para reducir artificialmente las estadísticas de quejas en la plataforma. Además, al abordar la repetida excusa de las tecnológicas de que es tecnológicamente imposible verificar adecuadamente la edad de los usuarios y evitar que niños pequeños accedan a las redes, Béjar fue categórico: desde el punto de vista de la ingeniería, no es una tarea difícil. Aseguró bajo juramento que Meta tenía la capacidad tecnológica plena para identificar, rastrear y eliminar a millones de usuarios menores de 13 años de sus servidores en cualquier momento, pero la compañía eligió conscientemente no hacerlo para no mermar su codiciada base de usuarios.
Frances Haugen: la ciencia de datos al servicio de los beneficios
Aunque su testimonio se hizo mundialmente famoso en 2021 ante el Senado, el trabajo y los documentos aportados por la científica de datos y ex empleada de Facebook, Frances Haugen, constituyeron la columna vertebral de la prueba de malicia. Los peritajes basados en los miles de folios filtrados por Haugen demostraron repetida y consistentemente que cada vez que Meta se enfrentó a una elección entre implementar una medida para proteger a los usuarios y una medida para aumentar el tiempo de conexión, los ejecutivos resolvieron el conflicto a favor de sus propios beneficios económicos.
La información proporcionada por Haugen sacó a la luz investigaciones internas espeluznantes realizadas por la propia compañía, estudios que las autoridades de relaciones públicas negaban sistemáticamente en público. Uno de los datos empíricos más citados en el tribunal reveló que el 13,5% de las adolescentes en el Reino Unido sentían que Instagram empeoraba directamente sus pensamientos suicidas y sus problemas de autoestima. La tesis era clara: Meta conocía la letalidad de su producto algorítmico mucho mejor que los psiquiatras y los padres, pero optó por mantener oculta esa información, perpetrando lo que Mark Lanier comparó directamente con la conspiración de ocultación llevada a cabo por la industria tabaquera en la década de 1990.
Brooke Istook: desmontando el mito de la culpa parental
Para anticiparse al argumento de la defensa, que invariablemente culpa a los padres por no supervisar adecuadamente el uso de teléfonos inteligentes de sus hijos, los abogados de Kaley presentaron a Brooke Istook, experta en seguridad infantil y dinámicas familiares digitales.
El peritaje de Istook demolió la idea de que unos simples controles parentales pueden contrarrestar los algoritmos de atención. Istook describió la profunda brecha tecnológica generacional y cómo empresas como Meta se aprovechan agresivamente de ella. Puso al descubierto la hipocresía corporativa al revelar que los equipos de crecimiento ("growth teams") de Instagram incentivaron activamente la creación de lo que los jóvenes llaman "FINSTAs" (Fake Instagrams o cuentas secundarias secretas). Estas cuentas paralelas están diseñadas intrínsecamente para estar ocultas de las miradas de los padres y profesores.
Istook pintó un cuadro sombrío de las promesas de seguridad engañosas que estas corporaciones venden a las familias. Concluyó que los padres se encuentran en una posición en la que es materialmente imposible ganar: se les pide que supervisen y limiten el acceso a plataformas que han sido deliberadamente estructuradas por los mejores ingenieros de software del mundo para eludir la vigilancia de los adultos y generar dependencia clandestina en los menores.
La cúpula directiva ante el jurado: Zuckerberg y Mosseri en el estrado
Una de las victorias más significativas de estos procesos judiciales fue obligar a los líderes intocables de Silicon Valley a bajar de sus pedestales corporativos y sentarse en el estrado de los testigos frente a padres, víctimas y jurados ciudadanos. Durante seis semanas, los pasillos del juzgado en Los Ángeles vieron desfilar a figuras de la talla del director ejecutivo de Meta, Mark Zuckerberg, y el jefe de Instagram, Adam Mosseri.
Adam Mosseri testificó bajo juramento que él, personalmente, no creía que las personas pudieran volverse clínicamente adictas a las redes sociales, un punto que reiteró para desestimar las acusaciones de negligencia de diseño. Su negación se basaba en la misma táctica utilizada por el abogado de la empresa respecto al manual psiquiátrico oficial. Sin embargo, su testimonio chocó frontalmente con la evidencia documental presentada por la abogacía de Kaley. El jurado pudo observar correos electrónicos internos donde investigadores de la compañía describían la situación en términos inequívocos: "IG [Instagram] es una droga... Básicamente somos traficantes" ("We're basically pushers"). El mismo correo indicaba que Mosseri se había asustado o "enloquecido" ("freaked out") cuando los empleados plantearon formalmente las preocupaciones sobre los picos de dopamina inducidos por la aplicación.
Por su parte, la comparecencia de Mark Zuckerberg marcó su primer testimonio ante un jurado civil en su carrera, un cambio drástico respecto a las audiencias políticas en el Capitolio donde habitualmente podía esquivar preguntas incómodas con respuestas preparadas por sus asesores. Zuckerberg intentó argumentar que el consenso científico no demostraba un vínculo causal entre las redes sociales y la crisis de salud mental.
Sin embargo, la evidencia más abrumadora presentada contra el fundador de Facebook provino de su propia bandeja de salida. El abogado Mark Lanier proyectó correos electrónicos internos enviados por Zuckerberg a sus ejecutivos en 2015, exigiendo de manera imperativa un incremento del "12% de aumento" en el tiempo de uso ("time spent") de las aplicaciones por parte de los adolescentes. Otro memorándum directo de 2017 afirmaba como directriz corporativa: "Mark ha decidido que la máxima prioridad de la empresa son los adolescentes".
Ante el jurado, Zuckerberg y su equipo de defensa intentaron racionalizar estos correos afirmando que aumentar el compromiso de los usuarios es simplemente un objetivo de negocio estándar en la industria tecnológica, no un complot maquiavélico para destruir las mentes jóvenes. YouTube, cuyo director general no subió al estrado en persona pero que enfrentó cargos similares, mantuvo una postura aún más austera. Su abogado argumentó lacónicamente: "YouTube no creó un producto que perjudicara a la Sra. GM. Ella no es adicta a YouTube", afirmando que proveer una experiencia saludable a los jóvenes era el núcleo del trabajo de Google.
El juicio de Nuevo México: explotación sexual y algoritmos depredadores
Mientras el caso de Kaley en California se centraba en la psicología de la adicción, la depresión y los trastornos de conducta alimentaria a nivel individual, el conglomerado Meta se enfrentaba simultáneamente a un juicio masivo a nivel estatal en Nuevo México. Allí, el Fiscal General Raúl Torrez presentó una demanda no por negligencia individual, sino acusando a Meta de violar deliberadamente la Ley de Prácticas Desleales del Estado al engañar al público sobre la seguridad de sus aplicaciones, y permitir que sus plataformas se convirtieran en terrenos de caza para la explotación sexual infantil.
En este litigio que duró cerca de siete semanas, el jurado de Santa Fe escuchó peritajes que iban más allá de la psiquiatría y se adentraban en el reino del análisis algorítmico criminal, apoyado por investigadores estatales encubiertos, expertos en seguridad cibernética y educadores del sistema público.
La "Operación MetaPhile" y el algoritmo facilitador
El aspecto más escalofriante y persuasivo del juicio en Nuevo México fue la presentación de los resultados de una investigación encubierta sin precedentes llevada a cabo por el Departamento de Justicia del estado, denominada "Operación MetaPhile". Esta operación demostró pericialmente que las plataformas de Meta no eran simplemente intermediarios pasivos que alojaban contenido ilegal, sino que sus sistemas de aprendizaje automático operaban como servicios de "emparejamiento" activo entre depredadores adultos y niños vulnerables.
Los agentes investigadores testificaron cómo crearon múltiples perfiles falsos ("cuentas señuelo") diseñados para hacerse pasar por menores de edad, como "Sunny Paxton" de doce años y "Issa Bee" de trece. Para eludir las políticas superficiales de edad de Meta, el perfil de "Issa Bee" fue registrado con un año de nacimiento falso que indicaba que era adulta. Sin embargo, toda su actividad conductual, publicaciones sobre la escuela, intereses y lenguaje dejaban meridianamente claro que se trataba de una niña preadolescente.
El peritaje técnico sobre el comportamiento de la red social reveló que el algoritmo de Meta identificó y clasificó rápidamente el perfil como correspondiente a una niña. Y en una flagrante demostración de peligro algorítmico, en lugar de proteger la cuenta o bloquear su interacción con adultos desconocidos, el motor de recomendación de Meta comenzó a promocionar activamente el perfil de la niña entre redes y grupos de hombres adultos con comportamientos pedófilos documentados. La "Operación MetaPhile" no fue solo un ejercicio teórico: condujo al arresto en el mundo real de tres hombres que acudieron a habitaciones de motel creyendo que iban a perpetrar abusos sexuales contra menores que habían sido contactadas y cultivadas ("groomed") directamente a través de las sugerencias del algoritmo de Facebook e Instagram.
El cifrado de mensajes y la obstrucción a la Justicia
La fiscal principal, Linda Singer, presentó testimonios periciales adicionales sobre cómo las decisiones técnicas de Meta obstruían activamente el trabajo policial. Se presentó evidencia técnica detallada sobre la transición de Meta hacia el cifrado de extremo a extremo (End-to-End Encryption) en Facebook Messenger. Aunque Meta vendía esta función al público como una victoria para la privacidad, los expertos demostraron que la compañía sabía perfectamente que Messenger era la herramienta de comunicación principal utilizada por los depredadores para intercambiar Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés).
Al implementar una encriptación irrompible sin salvaguardas para la protección de menores, Meta cegó voluntariamente sus propios sistemas de detección de abusos y bloqueó el acceso de las autoridades a pruebas cruciales de crímenes graves. Singer argumentó ante el jurado que las deficiencias y problemas de seguridad expuestos "no fueron errores", sino que representaban el "producto de una filosofía corporativa que eligió el crecimiento y el compromiso sobre la seguridad de los niños".
A estos peritajes de alto nivel se sumaron las opiniones de educadores locales de las escuelas públicas de Nuevo México. Los maestros y directores testificaron sobre el caos continuo en las aulas, la epidemia de depresión escolar y, sobre todo, la creciente crisis de "sextorsión" (extorsión sexual por fotografías íntimas) que comenzaba en las aulas a través de Instagram y se cobraba la vida de adolescentes vulnerables, generando perturbaciones irremediables en las instituciones de enseñanza.
El fracaso de la estrategia de la defensa: desviar la culpa
Tanto en Los Ángeles como en Nuevo México, las estrategias de los equipos legales corporativos demostraron ser ineficaces y, en muchos momentos, contraproducentes frente a la solidez de las pruebas periciales.
La principal línea defensiva de Meta y Google fue intentar desvincular el diseño de sus plataformas de los daños psíquicos y sociales sufridos por los jóvenes. Los abogados argumentaron consistentemente que las crisis de salud mental, incluyendo la de la joven Kaley, estaban arraigadas en dinámicas familiares disfuncionales, historiales de trauma preexistentes, dificultades académicas, predisposiciones genéticas, y los innegables efectos colaterales de la pandemia de COVID-19.
Este intento de culpabilizar a las víctimas y a su entorno llegó a su punto de máxima tensión durante el juicio en California. El abogado de Meta, Paul Schmidt, en un esfuerzo desesperado por desacreditar la causa de los problemas mentales de Kaley, intentó introducir como prueba un formulario de solicitud de asistencia de vivienda que la joven de 20 años había rellenado tras ser desahuciada por su madre. En dicho formulario, completado mucho después de iniciada la demanda, Kaley había justificado su necesidad de vivienda indicando que había sufrido "exposición a negligencia, abuso emocional, físico y sexual durante la infancia".
Schmidt argumentó ante el jurado que, puesto que la joven no había incluido la "adicción a las redes sociales" en ese formulario de vivienda como la causa de sus traumas, la demanda carecía de validez, insinuando que abusos no revelados eran los verdaderos culpables de su dismorfofobia y fobia social. Sin embargo, la jueza Carolyn B. Kuhl bloqueó severamente esta maniobra. Tras revisar el vasto historial médico de más de 200 páginas de Kaley, donde el presunto "abuso sexual" jamás había sido mencionado ni tratado en sus extensas terapias desde que tenía 3 años, la jueza determinó que la joven probablemente había exagerado su solicitud para asegurar un techo, y reprendió al abogado de Meta por intentar introducir tácticas sensacionalistas y engañosas para distraer al jurado de la evidencia psiquiátrica central sobre el efecto de los algoritmos.
Esta confrontación fue un microcosmos del rechazo de los jurados hacia las tácticas corporativas. Las excusas sobre "herramientas de control parental" y "falta de causalidad clínica" palidecieron ante la montaña de evidencia médica interna y la crueldad documentada de las operaciones algorítmicas.
A continuación se resume la dualidad de las narrativas en torno a la responsabilidad presentadas en los tribunales:
Argumento de la Parte Demandante / Estado | Argumento de Defensa Corporativa (Meta/YouTube) | Resultado Probatorio (Peritaje) |
El diseño (scroll infinito, autoplay) está patentado para eludir el control consciente adolescente y generar adicción. | La adicción a plataformas sociales no existe clínicamente según el manual DSM-5. | Terapeutas y psiquiatras validaron que el mecanismo biológico es idéntico a la dependencia de sustancias químicas. |
Los ejecutivos conocían el daño, priorizaron el "engagement" y ordenaron censurar la palabra "adicción". | Los correos reflejan solo métricas estándar de retención en la industria; la empresa invierte en seguridad. | Los documentos filtrados comprobaron que el beneficio publicitario superó consistentemente a la seguridad física. |
Los algoritmos conectaron proactivamente a niñas con redes de depredadores sexuales y pedófilos (Operación MetaPhile). | La plataforma provee herramientas de bloqueo y la seguridad recae en la supervisión de los padres en el hogar. | Investigaciones encubiertas demostraron que el sistema recomendaba y facilitaba proactivamente los delitos. |
El veredicto: el derrumbe del blindaje corporativo
Tras presenciar semanas de testimonios contrapuestos, ambos jurados emitieron veredictos que redefinirán el futuro de internet.
En el Tribunal Superior del Condado de Los Ángeles, después de escuchar pacientemente los argumentos y deliberar de forma inusualmente exhaustiva durante nueve días laborables completos, el jurado falló a favor de Kaley. Determinaron que Meta y YouTube eran legalmente responsables de actuar con negligencia tanto en el diseño de las aplicaciones (haciéndolas adictivas y peligrosas) como en su deber corporativo de advertir a los menores sobre los riesgos inminentes a la salud.
El jurado asignó el 70% de la responsabilidad a Meta y el 30% a la plataforma de vídeo de Google, otorgando a la joven de 20 años una compensación de 3 millones de dólares por daños y perjuicios sufridos durante su infancia y adolescencia. Sin embargo, la condena económica inicial fue apenas la superficie del golpe legal. De manera devastadora para Silicon Valley, los doce ciudadanos del jurado afirmaron de forma rotunda en su formulario de veredicto que ambas compañías habían operado con "malicia, opresión y fraude". Este hallazgo jurídico particular es catastrófico para las empresas, ya que activa automáticamente la segunda fase del juicio, permitiendo al jurado imponer daños punitivos diseñados específicamente para castigar la mala conducta atroz de corporaciones valoradas en miles de millones de dólares.
Paralelamente, a cientos de kilómetros en Nuevo México, un segundo panel de jurados desmanteló los argumentos corporativos de Zuckerberg en menos de un día de deliberación, concluyendo un macrojuicio de casi siete semanas. El jurado falló a favor de los fiscales del estado, sentenciando que Meta dañó a sabiendas la salud mental infantil y ocultó activamente el grado de explotación sexual y peligro pedófilo que asolaba a Facebook, WhatsApp e Instagram.
El veredicto estatal determinó que la compañía se involucró en prácticas comerciales "inconcebibles" ("unconscionable trade practices") que sacaron ventaja injusta y fraudulenta de la inexperiencia y vulnerabilidad biológica de los niños. Los ciudadanos del jurado identificaron miles de violaciones individuales a la Ley de Prácticas Desleales del estado. Con una claridad moral contundente, la miembro del jurado Linda Payton, de 38 años, declaró a la prensa que el panel decidió imponer la pena monetaria máxima permitida por la ley, 5.000 dólares por cada una de las miles de infracciones, porque creían firmemente que "cada niño valía la cantidad máxima". Este razonamiento culminó en una monumental multa civil de 375 millones de dólares impuesta al gigante de las redes sociales por un solo estado de la nación.
Conclusión y repercusiones futuras
Las condenas gemelas dictadas en marzo de 2026 contra Meta y YouTube no representan el final de la batalla legal, sino apenas la primera grieta profunda en el muro. Hasta este año histórico, ni un solo caso que intentara responsabilizar a los gigantes tecnológicos por el sufrimiento de los niños había logrado superar las mociones preliminares para ser juzgado ante un panel de ciudadanos.
El triunfo en Los Ángeles fue apenas el primero de los más de 20 juicios de prueba ("bellwether trials") seleccionados del fondo consolidado que ampara a más de 1.600 familias, 250 distritos escolares y cientos de entidades de salud pública que exigen indemnizaciones multimillonarias y cambios sistémicos en la arquitectura del software. Asimismo, la victoria punitiva en Nuevo México ha establecido un precedente legal vinculante y una hoja de ruta pericial inestimable (incluyendo herramientas como la "Operación MetaPhile" y los peritajes neurológicos de dopamina) que los más de 40 Fiscales Generales estatales de todo el país utilizarán en sus propios litigios inminentes.
El trabajo de los peritos médicos, como las doctoras Kara Bagot y Anna Lembke, así como el testimonio de la terapeuta Victoria Burke y la valentía de informantes como Frances Haugen y Arturo Béjar, han logrado materializar lo abstracto. Han traducido el oscuro vocabulario del diseño de software en una narrativa biológica irrefutable sobre la explotación dopaminérgica de la corteza prefrontal infantil. El argumento de que las redes sociales son espacios pasivos, que la adicción es una elección y que la responsabilidad reside únicamente en los padres abrumados, ha sido juzgado y descartado legalmente como un fraude corporativo. Estas sentencias garantizan que la era del crecimiento sin rendición de cuentas, amparada por la inmunidad ciega, ha llegado a su fin.
Referencias
Addiction Center. (2026, February 2). Social Media Addiction Lawsuit. https://www.addictioncenter.com/news/2026/02/social-media-addiction-lawsuit/
Altoona Mirror. (2026, March). Meta New Mexico Children Mental Health Safety Jury Finds Harms. https://www.altoonamirror.com/news/national/2026/03/meta-newmexico-children-mental-health-safety-jury-finds-harms/
Associated Press. (2026, March). Meta Facebook New Mexico Trial. https://apnews.com/article/meta-facebook-new-mexico-trial-28eabd8ec5f58c1d1ecddc21bb107de7
Associated Press. (2026, March). Social Media Lawsuits Meta Google TikTok. https://apnews.com/article/social-media-lawsuits-meta-google-tiktokl-96922e625326f6e6dce55c6b73b17360
Associated Press. (2026, March). Meta Trial Child Sexual Exploitation. https://apnews.com/article/meta-trial-child-sexual-exploitation-5ad9f7bf1ad05bef9d177938e94f0e8b
Beasley Allen. (2026). Social Media Addiction Lawsuits. https://www.beasleyallen.com/social-media/
Bloomberg Law. (2026, February 19). Social Media Plaintiff Says She Spent 16 Hours Scrolling One Day. https://news.bloomberglaw.com/litigation/social-media-plaintiff-says-she-spent-16-hours-scrolling-one-day
CBS News. (2026, March 25). Meta YouTube Social Media Addiction Lawsuit Verdict. https://www.cbsnews.com/news/meta-youtube-social-media-addiction-lawsuit-verdict/
Click Orlando. (2026, March 24). New Mexico Jury Finds Meta Violated Consumer Protection Law At Trial About Child Safety.
Courthouse News. (2026, March 12). Landmark Social Media Addiction Trial Heads to Jury. https://www.courthousenews.com/landmark-social-media-addiction-trial-heads-to-jury/
Courthouse News. (2026, March 24). Still No Verdict in LA's Landmark Social Media Trial. https://www.courthousenews.com/still-no-verdict-in-las-landmark-social-media-trial/
CT Public. (2026, March 25). Jury Orders Meta and Google to Pay Woman 3 Million in Social Media Addiction Trial. https://www.ctpublic.org/2026-03-25/jury-orders-meta-and-google-to-pay-woman-3-million-in-social-media-addiction-trial
Daily Journal. (2026, March). Meta and Google Found Liable for Negligence in the Design of Instagram and YouTube. https://www.dailyjournal.com/articles/390405-meta-and-google-found-liable-for-negligence-in-the-design-of-instagram-and-youtube
Fox Business. (2026). Judge Blocks Meta From Introducing Exaggerated Claims Social Media Trial. https://www.foxbusiness.com/technology/judge-blocks-meta-from-introducing-exaggerated-claims-social-media-trial
Harvard Gazette. (2026, February 27). Is Social Media Responsible for What Happens to Users? https://news.harvard.edu/gazette/story/2026/02/is-social-media-responsible-for-what-happens-to-users/
Iowa Public Radio. (2026, February 5). Meta Goes to Trial in New Mexico Over Child Exploitation Claims. https://www.iowapublicradio.org/news-from-npr/2026-02-05/meta-goes-to-trial-in-new-mexico-over-child-exploitation-claims
Kancelaria Skarbiec. (2026). The New Mexico trial that could redefine what Big Tech owes children. https://kancelaria-skarbiec.pl/en/meta-newmexico-trial/
KLCC. (2026, March 25). Jury Holds Meta and Google Liable for Role in Young Woman's Mental Health Issues. https://www.klcc.org/npr-news/2026-03-25/jury-holds-meta-and-google-liable-for-role-in-young-womans-mental-health-issues
KSAT. (2026, March 25). Jury Finds Instagram and YouTube Liable in Landmark Social Media Addiction Trial. https://www.ksat.com/business/2026/03/25/jury-finds-instagram-and-youtube-liable-in-landmark-social-media-addiction-trial/
Los Angeles Times. (2026, March 25). Social Media Lawsuit Trial Meta Google Verdict. https://www.latimes.com/california/story/2026-03-25/social-media-lawsuit-trial-meta-google-verdict
Macquarie University Lighthouse. (2026, March). Zuckerberg borrows Big Tobacco playbook in landmark social media addiction trial. Psychologists aren't buying it. https://lighthouse.mq.edu.au/article/2026/march-2026/zuckerberg-borrows-big-tobacco-playbook-in-landmark-social-media-addiction-trial.-psychologists-arent-buying-it
Maverrik. (2026). California trial accuses Meta and YouTube of engineering addiction social media algorithm design. https://maverrik.io/blog/california-trial-accuses-meta-and-youtube-of-engineering-addiction-social-media-algorithm-design/
Motley Rice. (2026). YouTube Lawsuits. https://www.motleyrice.com/social-media-lawsuits/youtube
National Today. (2026, March). Meta YouTube Face Lawsuit Over Social Media Addiction. https://nationaltoday.com/us/ca/los-angeles/news/2026/03/03/meta-youtube-face-lawsuit-over-social-media-addiction/
Panish Law. (2025). JCCP Sargon Ruling. https://www.panish.law/wp-content/uploads/2025/09/JCCP-Sargon-Ruling-9.22.2025.pdf
PBS NewsHour. (2026, March). Instagram and YouTube Found Liable in Landmark Social Media Addiction Trial in California. https://www.pbs.org/newshour/nation/instagram-and-youtube-found-liable-in-landmark-social-media-addiction-trial-in-california
PBS NewsHour. (2026, March). Jury finds Meta's platforms are harmful to children in 1st wave of social media addiction lawsuits. https://www.pbs.org/newshour/nation/jury-finds-metas-platforms-are-harmful-to-children-in-1st-wave-of-social-media-addiction-lawsuits
Platformer. (2026). The Infinite Scroll Goes on Trial. https://www.platformer.news/the-infinite-scroll-goes-on-trial/
San Jose Inside. (2026). New Mexico Wins 375M Landmark Verdict Against Meta. https://www.sanjoseinside.com/business/new-mexico-wins-375m-landmark-verdict-against-meta/
Social Media Victims Law Center. (2026). Social Media Lawsuits. https://socialmediavictims.org/social-media-lawsuits/
Sokolove Law. (2026). Social Media Addiction. https://www.sokolovelaw.com/personal-injury/social-media-addiction/
Spencer Law. (2026). Social Media Addiction Lawsuits 2026 KGM Trial MDL 3047. https://www.spencer-law.com/post/social-media-addiction-lawsuits-2026-kgm-trial-mdl-3047
Tech Policy Press. (2026). What Does the First US Social Media Addiction Trial Mean for the Tech Industry? https://www.techpolicy.press/what-does-the-first-us-social-media-addiction-trial-mean-for-the-tech-industry/
The Business Journal. (2026). Landmark Trial in New Mexico to Decide Whether Meta Misled Users About Children's Safety Risks. https://thebusinessjournal.com/landmark-trial-in-new-mexico-to-decide-whether-meta-misled-users-about-childrens-safety-risks/
The Guardian. (2026, February 25). Woman says 'addictive design' of Meta and YouTube hooked her before she was 10. https://www.theguardian.com/technology/2026/feb/25/social-media-meta-youtube-trial
The Guardian. (2026, March 19). Meta Child Safety Trial Facebook Instagram. https://www.theguardian.com/us-news/2026/mar/19/meta-child-safety-trial-facebook-instagram
The Guardian. (2026, March 24). Meta New Mexico Jury. https://www.theguardian.com/technology/2026/mar/24/meta-new-mexico-jury
The Guardian. (2026, March 25). Jury Verdict US First Social Media Addiction Trial Meta YouTube. https://www.theguardian.com/media/2026/mar/25/jury-verdict-us-first-social-media-addiction-trial-meta-youtube
Time. (2026). Raul Torrez New Mexico Meta Lawsuit. https://time.com/7327229/raul-torrez-new-mexico-meta-lawsuit/
Top Class Actions. (2026). Meta Google Social Media Addiction Trial Hears Expert Testimony. https://topclassactions.com/lawsuit-settlements/lawsuit-news/meta-google-social-media-addiction-trial-hears-expert-testimony/
Washington Examiner. (2026). LA Jury Finds Meta and YouTube Liable Social Media Addiction. https://www.washingtonexaminer.com/news/justice/4503360/la-jury-finds-meta-and-youtube-liable-social-media-addiction/
Washington Post. (2026, March 24). Meta Jury Harm Children. https://www.washingtonpost.com/technology/2026/03/24/meta-jury-harm-children/
WCNC. (2026). Social Media Addiction Trial Woman Testifies. https://www.wcnc.com/article/news/nation-world/social-media-addiction-trial-woman-testifies/507-6413fb5c-cd4c-4e92-b65a-c78f3cd9d3cb
Wikipedia. (2026). K.G.M. v. Meta et al. https://en.wikipedia.org/wiki/K.G.M._v._Meta_et_al.
WUNC. (2026, January 27). Meta and YouTube Head to Trial Over Harm to Children After TikTok Settles. https://www.wunc.org/2026-01-27/meta-and-youtube-head-to-trial-over-harm-to-children-after-tiktok-settles
WVIA. (2026, March 24). New Mexico Jury Says Meta Harms Children's Mental Health and Safety Violating State Law. https://www.wvia.org/news/2026-03-24/new-mexico-jury-says-meta-harms-childrens-mental-health-and-safety-violating-state-law
Este artículo ha sido redactado con ayuda de Inteligencia Artificial.


