El crecimiento de estas iniciativas refleja una preocupación compartida: el uso intensivo de redes sociales por parte de niños y adolescentes. Sin embargo, esa preocupación no se traduce en una estrategia única, sino en enfoques opuestos que plantean implicaciones muy distintas para usuarios, empresas y reguladores, tanto a nivel técnico como social.
Por un lado, varios países han optado por limitar el acceso mediante prohibiciones directas. Australia fue pionera al vetar el uso de redes sociales a menores de 16 años, y otras regiones como España, Francia o Portugal estudian o aplican medidas similares con el objetivo de reducir la exposición temprana a riesgos digitales.
El principal problema de este enfoque es técnico y social a la vez. Para hacerlo efectivo, obliga a implementar sistemas de verificación de edad que afectan a todos los usuarios, no solo a los menores, lo que abre interrogantes sobre privacidad, discriminación y posibles usos indebidos de los datos personales.
Además, algunos expertos cuestionan la base científica de estas decisiones. Aunque existen indicios de impacto en la salud mental, no hay un consenso definitivo sobre la relación directa entre el uso de redes sociales y problemas psicológicos, lo que convierte estas medidas en decisiones más políticas que concluyentes desde el punto de vista empírico.
Frente a este modelo restrictivo, emerge un segundo enfoque que está ganando peso: responsabilizar a las plataformas de su diseño. En lugar de prohibir el acceso, la idea es modificar cómo funcionan las redes sociales para reducir su capacidad de generar uso compulsivo, especialmente entre los usuarios más jóvenes.
Brasil se ha alineado con esta estrategia, impulsando medidas que limitan funciones como el scroll infinito, la reproducción automática de vídeos o los sistemas de notificaciones constantes. Estas características, ampliamente utilizadas por las plataformas, están diseñadas para maximizar el tiempo de permanencia del usuario y reforzar patrones de uso repetitivo.
Este cambio introduce una lógica diferente. Ya no se trata de restringir quién accede, sino de intervenir en el propio producto, obligando a las empresas a integrar mecanismos de seguridad desde el diseño, incluyendo ajustes en algoritmos, límites de uso y configuraciones por defecto orientadas a la protección del usuario.
Las plataformas, por su parte, han empezado a incorporar algunas funciones de control, como herramientas parentales o recordatorios de descanso. Sin embargo, muchos especialistas consideran que estas medidas trasladan la responsabilidad al usuario y no abordan el problema estructural del diseño, que sigue priorizando la permanencia.
El debate también tiene una dimensión económica y estratégica. Las grandes tecnológicas prefieren adaptarse a regulaciones que permitan seguir operando antes que enfrentarse a prohibiciones que limiten su acceso a mercados clave. Aun así, el marco regulatorio sigue lleno de incertidumbre y lo que está en juego no es solo la protección de los menores, sino el modelo de funcionamiento de las plataformas digitales en su conjunto.