41 estados y el Distrito de Columbia, en Estados Unidos, están demandando a Meta, alegando que el gigante tecnológico daña a los niños al crear funciones adictivas en Instagram y Facebook. Las acciones legales del martes representan el esfuerzo más significativo de las autoridades estatales para frenar el impacto de las redes sociales en la salud mental de los niños.
El aluvión de demandas es la culminación de una extensa investigación de 2021 sobre las afirmaciones de que Meta contribuye a los problemas de salud mental entre los jóvenes.
“Nuestra investigación bipartidista ha llegado a una conclusión solemne: Meta ha estado dañando a nuestros niños y adolescentes, cultivando la adicción para aumentar las ganancias corporativas”, dijo en un comunicado el Fiscal General de California, Rob Bonta (D), uno de los funcionarios que lidera el esfuerzo.
33 estados, incluidos Colorado y California, están presentando una demanda conjunta en un tribunal federal del Distrito Norte de California, mientras que los fiscales generales de DC y ocho estados están presentando quejas separadas en tribunales federales, estatales o locales.
Si bien el alcance exacto de los reclamos legales puede variar, se espera que muestren un panorama similar: la compañía ha enganchado a niños en sus plataformas utilizando tácticas dañinas y manipuladoras.
La denuncia federal de 233 páginas alega que la empresa participó en un “plan para explotar a los usuarios jóvenes con fines de lucro” engañando a los usuarios sobre sus características de seguridad y la prevalencia de contenido dañino en sus productos, recopilando datos de usuarios más jóvenes y violando las leyes federales sobre la protección de la privacidad de los niños. Los funcionarios estatales afirman que la empresa implementó cambios a sabiendas para mantener a los niños en el sitio en detrimento de su bienestar.
Las quejas subrayan la creciente preocupación entre los líderes gubernamentales de que las principales redes sociales ponen en riesgo el bienestar de sus usuarios más jóvenes al diseñar sus productos de manera que optimicen la participación por encima de la seguridad.
La portavoz de Meta, Liza Crenshaw, dijo en un comunicado que la compañía está “decepcionada de que en lugar de trabajar productivamente con compañías de toda la industria para crear estándares claros y apropiados para la edad de las muchas aplicaciones que usan los adolescentes, los fiscales generales han elegido este camino”.
El efecto de los productos de Meta en los jóvenes saltó a la atención nacional después de que un informe del Wall Street Journal de 2021 detallara una investigación interna, filtrada por la denunciante de Facebook Frances Haugen, que mostraba que Instagram empeoraba los problemas corporales de algunas adolescentes.
Las revelaciones marcaron el comienzo de un ajuste de cuentas político en Washington y en las capitales estatales de todo el país, con los legisladores lanzando nuevos esfuerzos para restringir el uso de las redes sociales por parte de los niños y los reguladores renovando el escrutinio de las prácticas de seguridad de Meta.
Pero los esfuerzos para aprobar nuevas protecciones de privacidad y seguridad para los niños en línea han languidecido a nivel federal, dejando en gran medida a los estados seguir adelante con nuevas medidas agresivas.
Estados como Arkansas y Utah han aprobado leyes que prohíben el acceso a las redes sociales a niños menores de 13 años y exigen que los adolescentes menores de 18 años obtengan el consentimiento de sus padres para acceder a los sitios. Mientras tanto, California aprobó reglas que exigen que las empresas de tecnología examinen sus productos en busca de riesgos e incorporen barreras de seguridad y privacidad en sus herramientas. En lugar de la legislación federal, los padres y los distritos escolares también han asumido el asunto, presentando demandas acusando a Meta, TikTok y otras plataformas de empeorar la crisis de salud mental juvenil del país y profundizar los problemas de ansiedad, depresión y imagen corporal entre los estudiantes.
Los crecientes casos legales llegan en un momento en que la investigación sobre la conexión entre el uso de las redes sociales y los problemas de salud mental sigue siendo turbia. A principios de este año, el Cirujano General de EEUU, Vivek H. Murthy, publicó un aviso argumentando que el uso excesivo de las redes sociales en la niñez puede conducir a un mayor riesgo de mala salud mental, incluidos problemas de sueño o insatisfacción corporal. Pero un informe de la Asociación Estadounidense de Psicología encontró que el uso de las redes sociales “no es inherentemente beneficioso ni perjudicial para los jóvenes” y que se deberían realizar más investigaciones sobre el tema.
Al iniciar su investigación en 2021, las autoridades estatales dijeron que la empresa “no protegió a los jóvenes en sus plataformas” y la acusaron de “explotar a los niños con fines de lucro”.
El gigante tecnológico rechazó la investigación en ese momento y el portavoz de Meta, Andy Stone, dijo que las acusaciones eran “falsas y demuestran un profundo malentendido de los hechos”.
Desde entonces, Meta ha presentado numerosos cambios en políticas y productos destinados a hacer que sus aplicaciones sean más seguras para los niños, incluida la entrega a los padres de herramientas para rastrear la actividad de sus hijos, la incorporación de advertencias que instan a los adolescentes a tomar un descanso de las redes sociales y la implementación de configuraciones de privacidad más estrictas por defecto para usuarios jóvenes.
Pero los cambios han hecho poco para apaciguar a sus críticos a nivel estatal y federal, quienes sostienen que la compañía ha eludido su responsabilidad de proteger a sus usuarios jóvenes más vulnerables.
Durante años, a Meta le ha preocupado que los jóvenes pasen menos tiempo en Facebook, mientras que los adolescentes acuden en masa a competidores como TikTok y Snapchat. Para atraer a usuarios más jóvenes, la compañía ha intentado replicar TikTok con su servicio de vídeos cortos, Reels.
Pero el impulso para atraer a los jóvenes ha llamado la atención de los reguladores, preocupados de que aplicaciones como Facebook e Instagram dañen la salud mental de los jóvenes, los atraigan a productos adictivos a una edad temprana y comprometan su privacidad. Meta sostiene que la investigación sobre los efectos de las redes sociales en los jóvenes es mixta y que la empresa toma precauciones para proteger a los usuarios.
Después de que las revelaciones de Haugen se hicieran públicas, Meta anunció que estaba pausando sus planes para crear una aplicación de Instagram diseñada especialmente para niños menores de 13 años. Grupos de defensa, fiscales generales estatales y legisladores habían instado a la compañía a abandonar el proyecto por preocupación por la salud mental de los jóvenes. salud.
La compañía dijo en ese momento que todavía creía en el concepto de una aplicación de Instagram orientada a los niños porque los niños simplemente mentían sobre su edad para unirse a Instagram.
La administración Biden está examinando por separado el historial de Meta en materia de seguridad de los niños, y la Comisión Federal de Comercio propone un plan para impedir que la empresa monetice los datos que recopila de los usuarios jóvenes. Stone, de Meta, lo calificó de “truco político” y dijo que la empresa “lucharía vigorosamente” contra la medida.
Si bien los esfuerzos para frenar el impacto de las redes sociales en los niños están ganando fuerza entre los legisladores y los encargados de hacer cumplir la ley, se topan cada vez más con obstáculos importantes en los tribunales.
Los jueces federales bloquearon recientemente las leyes de seguridad infantil recientemente aprobadas en California y Arkansas, diciendo que podrían violar las protecciones de la Primera Enmienda y, en ocasiones, planteando dudas sobre su eficacia y si realmente mantendrían a los niños más seguros.
Las autoridades estatales y federales han examinado durante años el manejo de la información personal privada de los niños por parte de las empresas de tecnología, y en ocasiones han impuesto enormes multas a las empresas de redes sociales. En 2019, la FTC y el estado de Nueva York llegaron a un acuerdo de 170 millones de dólares con YouTube, propiedad de Google, por cargos de que la empresa recopiló ilegalmente datos de usuarios menores de 13 años.
Pero en los últimos años, los funcionarios se han centrado cada vez más en cómo las empresas de tecnología podrían estar exacerbando la ansiedad, la depresión y otros problemas de salud mental entre niños y adolescentes.
Indiana, Arkansas y Utah han presentado demandas separadas acusando a TikTok de dañar a los niños mediante funciones adictivas, exponiéndolos a contenido inapropiado o engañando a los consumidores sobre sus protecciones de seguridad. Arkansas presentó una demanda similar acusando a Meta de violar las normas estatales contra prácticas comerciales engañosas.
© 2023, The Washington Post