Las nuevas leyes en Brasil y Australia, junto con una ola de denuncias y demandas judiciales en Estados Unidos y otros países, marcan un punto de inflexión: la protección de la infancia en internet pasó a convertirse en una obligación legal para las empresas.
En Argentina —como en gran parte del mundo— la edad mínima para crear cuentas en redes sociales es de 13 años, establecida por las propias plataformas. Sin embargo, es sabido que chicos y chicas se las rebuscan para poder ingresar igual: hoy los verificadores de edad no son suficientes para limitar ese acceso. ¿Es seguro que accedan a estos entornos?
Como siempre decimos, el acompañamiento de las familias es fundamental para que puedan vivir experiencias en redes de manera cuidada, y así explorar el mundo y socializar, entre tantas otras posibilidades que acercan. Pero en los últimos años, hay factores que hacen que a veces este acompañamiento no sea suficiente. Estamos hablando del diseño mismo de las plataformas y en la moderación de contenidos a través de algoritmos guiados por información personal de los usuarios.
Desde el momento en que una cuenta adolescente se activa, hoy las plataformas más populares pueden:
Podemos decir que los y las adolescentes, que transitan una etapa donde la identidad está en pleno desarrollo, son hoy usuarios integrados al modelo de negocios de las plataformas. Si miramos este fenómeno en clave de derechos, hay varios que pueden considerarse vulnerados, como el derecho a la salud y a la privacidad. La pregunta es quién debe responsabilizarse de esto.
En los últimos años, a lo largo del mundo hubo denuncias hacia las principales empresas de redes sociales por vulnerar derechos de niños, niñas y adolescentes. Los reclamos judiciales se centran mayormente en los daños a la salud mental que pueden generar las plataformas: ansiedad, depresión, trastornos alimentarios, pérdida de autoestima y aumento de la ideación suicida, entreo otros. Estas demandas también hacen foco en la exposición a contenidos peligrosos o inadecuados a sus edades: videos o imágenes que muestran altos grados de violencia, sexualización temprana, desafíos virales de alto riesgo y de consumos problemáticos. En 2024, en Estados Unidos se presento´una denuncia hacia Meta por más de 40 Estados. En 2025, crecieron las demandas contra la plataforma Roblox vinculadas a la exposición de NNA a contenidos de autolesión o situaciones de abuso. En América Latina, Brasil se convirtió en el país con mayor avance judicial en este terreno: organizaciones de defensa del consumidor denunciaron a TikTok, Meta y otras plataformas por no implementar mecanismos efectivos de protección para el uso infantil y reclamaron multas por eso. Además, el gobierno brasileño intervino en casos de uso peligroso de chatbots con inteligencia artificial que simulaban vínculos con menores.
Estos casos marcaron un precedente en adjudicar una responsabilidad a las grandes empresas de tecnología sobre las consecuencias que puede generar su uso en NNA. Ya no se discute solo la posibilidad que tienen chicos y familias de controlar y autorregular su uso de redes, sino el diseño estructural de las plataformas y su responsabilidad directa sobre las consecuencias.
Frente a este escenario, algunos países comenzaron a avanzar con regulaciones más estrictas. Nos interesa reflexionar sobre dos casos que este año adquirieron mucha resonancia.
En septiembre de 2025, en Brasil se aprobó la llamada Ley ECA Digital, que entrará en vigencia en marzo de 2026. Esta regulación, no prohíbe el acceso de niñas, niños y adolescentes a las plataformas, pero impone límites fuertes a las empresas cuando hay menores de edad involucrados. Entre sus principales puntos:
La ley brasileña comparte varios puntos en común con una la Ley de Servicios Digitales sancionada en 2022 por la Unión Europea. Se trata de la primera legislación de este nivel de robustez en nuestra región, por lo que constituye una medida interesante de observar, considerando las particularidades que caracterizan a América Latina en relación con los países del norte global.
Australia, en cambio, adoptó un camino más extremo: aprobó una ley que prohíbe directamente que menores de 16 años tengan cuentas en redes sociales, incluso con autorización familiar. La responsabilidad recae totalmente en las empresas, que deberán implementar sistemas de verificación estrictos y enfrentar multas millonarias si no cumplen.
Si bien la medida fue celebrada por mucha gente, UNICEF Australia y el Consejo de Investigación de Australia se ocuparon de recabar la voz de los jóvenes sobre este tema, que en muchos casos, se oponen a la medida:
|
“Va a afectar a la audiencia de fotografía que tengo y a la marca que estoy empezando, así que no voy a poder expresarme ni promocionarme”. 14 años. “Aprendí mucho gracias a las redes sociales y a los sitios web, así que ¿por qué prohibirlas? También me ayudan hablar con mis primos que viven en el extranjero. Por favor, no prohíban las redes sociales 😞😞”. 14 años. “Las redes sociales son una forma de conectar y hablar con personas en distintos niveles. Acercan a la gente, ¿por qué prohibirlas para los menores de 16? Los adultos también son un problema”. 15 años. “Disfruto hablar con la gente en redes y mantener buenos vínculos con otras personas. También me mantiene al día con lo que pasa, tanto en lo político como en lo que ocurre en el mundo con las noticias y esas cosas”. 15 años. "Prohibirlo por completo, así de una, solo hace que sea mucho más difícil que encontrar una solución al problema… es como tomar el camino fácil”. 12 años. |
Ese parece ser uno de los grandes dilemas que dejan estas nuevas regulaciones. Tanto la ley de Brasil como la de Australia avanzan hacia un diseño de plataformas basado en los derechos de niños, niñas y adolescentes, algo especialmente necesario en esta época atravesada por la inteligencia artificial generativa y algoritmos cada vez más perfeccionados. En ambos casos, la responsabilidad no recae sobre las familias y las escuelas, sino sobre las plataformas, otro punto fundamental si consideramos el desbalance de poder que tienen los ciudadanos comunes frente a actores que hoy concentran un enorme poder económico: ambas normativas prevén multas severas como forma de hacer cumplir esas obligaciones. La diferencia central está en el enfoque: mientras Brasil apuesta por regular cómo funcionan las plataformas contemplando que chicos y chicas puedan acceder, Australia elige directamente excluir su acceso. Esta prohibición puede sonar, para muchos adultos, como una solución rápida y tranquilizadora, pero abre un debate más profundo: cómo garantizar el cuidado sin recortar derechos, y cómo incluir también a chicos y chicas en los procesos de creación de estas leyes que, al fin y al cabo, intervienen en su vida digital.
En este sentido, resulta pertinente señalar que estas legislaciones implementan el uso de sistemas biométricos de verificación de edad. Estos mecanismos hoy todavía generan controversias por los riesgos que implican en términos de vulneración de la privacidad y protección de datos personales. Por otro lado, ninguna de estas medidas puede ser efectiva si no se complementa con educación: en una sociedad cada vez más digitalizada, es esencial que se construyan criterios de uso y habilidades de autocuidado para el uso de medios digitales.
Argentina observa este proceso desde un marco legal todavía limitado en relación a estos temas. Reflexionar sobre lo que está ocurriendo en otros países es una oportunidad para anticiparse, debatir y construir políticas públicas que pongan en el centro el derecho de niños, niñas y adolescentes a crecer en entornos digitales más seguros con pensamiento crítico y creatividad.