- España plantea prohibir el acceso a redes sociales a menores de 16 años sin posibilidad de consentimiento parental, obligando a las plataformas a implantar sistemas reales y efectivos de verificación de edad.
- El plan endurece la gobernanza digital, incluyendo posibles responsabilidades legales para directivos, sanciones por incumplimiento y la persecución de prácticas como la manipulación algorítmica o la difusión de contenidos nocivos.
- España se alinea con países como Australia, donde la restricción se aplica poniendo el foco en las empresas, no en las familias, y abre un nuevo escenario sobre privacidad, control tecnológico y protección de menores en el entorno digital.

España anuncia la prohibición del acceso a redes sociales para menores de 16 años y presenta un paquete de medidas para reforzar la gobernanza digital
En un anuncio que marca un punto de inflexión en la regulación del entorno digital, el presidente del Gobierno de España, Pedro Sánchez, confirmó ayer 3 de febrero de 2026 que España prohibirá el acceso a redes sociales a personas menores de 16 años. El anuncio se realizó en el marco de la Cumbre Mundial de Gobiernos que se celebra en Dubái, y viene acompañado de un paquete de cinco medidas destinadas a recuperar el control sobre el espacio digital, proteger a los más jóvenes y reforzar la seguridad, la legalidad y la democracia en internet.
Social media has become a failed state.
If we want to protect our children there is only one thing we can do: take back control.
Las redes sociales se han convertido en un Estado fallido.
Si queremos proteger a nuestros hijos, solo tenemos una opción: recuperar el control. pic.twitter.com/1MvCNxiLys
— Pedro Sánchez (@sanchezcastejon) February 3, 2026
El objetivo declarado por el Gobierno es poner fin al que Sánchez ha descrito como un «estado fallido digital», donde «las leyes se ignoran y los delitos se toleran». Según el presidente, las redes sociales han evolucionado hasta convertirse en espacios que, sin una regulación efectiva, pueden exponer a niños y adolescentes a riesgos como la exposición a contenidos nocivos, la adicción, la manipulación de sus datos y la desinformación.
A falta aún de tener las medidas concretas con todo detalle, analizamos cada una de las cinco medidas que conforman este nuevo plan de gobernanza digital, poniendo especial atención en sus implicaciones y cómo podrían transformar el uso de las plataformas sociales en España y más allá.
1. Prohibición del acceso a redes sociales a menores de 16 años
La medida más impactante del paquete es la prohibición estricta del acceso a redes sociales para menores de 16 años. España elevará a esa edad mínima la posibilidad de abrir cuentas o interactuar en plataformas sociales, sin posibilidad de excepción incluso con consentimiento parental. Según recoge elpais, en el proyecto de ley para proteger a los menores en internet, impulsado por el Ministerio de Juventud e Infancia (que está actualmente en tramitación en el Congreso), ya consta una regulación al respecto: para poder registrarse en estas plataformas hay que tener, como mínimo, 16 años. Sin embargo, en su actual redacción, el proyecto de ley permite que los menores de esa edad puedan abrirse cuentas con la autorización de sus progenitores. Eso ya no será posible si sale adelante esta enmienda, que deberá negociarse en el Congreso.
La iniciativa parte de la convicción de que las redes sociales, tal y como están diseñadas actualmente, no son entornos saludables para niños más pequeños. Argumentos clave del Gobierno incluyen:
- La profunda influencia de estas plataformas sobre el desarrollo emocional y social de los adolescentes.
- La exposición continua a contenidos que pueden ser violentos, sexualizados o manipuladores.
- El papel de los algoritmos en captar y mantener la atención de los usuarios jóvenes durante largos periodos, potenciando la adicción digital.
Menores y Redes sociales ¿Cuál es la edad mínima para cada una de ellas?
Para hacer efectiva esta prohibición, las plataformas deberán implementar sistemas de verificación de edad robustos y efectivos, mucho más allá de los actuales mecanismos basados en simples declaraciones de fecha de nacimiento. La idea es que estas barreras técnicas impidan el acceso real de menores a servicios como TikTok, Instagram, X u otras redes, mediante comprobaciones que pueden incluir validaciones biométricas o certificados seguros de edad, respetando siempre la protección de datos personales.
Esta decisión sitúa a España junto a otros países pioneros, como Australia y Francia, que ya han adoptado enfoques similares para blindar a la infancia frente a riesgos digitales.
2. Fin de la impunidad de directivos de plataformas digitales
La segunda medida busca acabar con la impunidad legal de los altos directivos de las grandes plataformas digitales. El Gobierno propone que los responsables y ejecutivos de redes sociales puedan ser legalmente responsables si no actúan con diligencia para eliminar contenido ilegal o no protegen adecuadamente a sus usuarios.
Hasta ahora, el marco europeo (como el Reglamento de Servicios Digitales) ya impone algunas obligaciones a las plataformas en cuanto a transparencia y control de contenidos, y ha permitido sanciones millonarias en casos de incumplimiento. La novedad de la propuesta española es que va más allá: convertir en responsabilidad penal la falta de acción por parte de las personas que dirigen estas empresas.
Este giro implica un cambio de paradigma en la gobernanza digital: no solo la empresa como entidad jurídica, sino también sus líderes, podrían rendir cuentas ante la justicia por no frenar contenidos que infringen la ley, como discursos de odio, desinformación o explotación infantil, o por no garantizar condiciones mínimas de seguridad y protección en sus servicios.
Los impulsores de la medida sostienen que solo si los directivos enfrentan consecuencias personales reales, las plataformas tendrán incentivos reales para priorizar la seguridad de los usuarios sobre el crecimiento de audiencias y beneficios económicos.
3. Tipificación como delito de la manipulación de algoritmos
La tercera medida anunciada es quizás la más disruptiva desde una perspectiva tecnológica: tipificar como delito la manipulación de algoritmos y la amplificación de contenidos ilegales o perjudiciales.
Los algoritmos son las reglas automáticas que seleccionan y recomiendan contenido a los usuarios. Son piezas clave para el funcionamientos de redes sociales, y también responsables de fenómenos como la polarización, la viralización de desinformación o la captación compulsiva de atención.
Con esta medida, manipular algoritmos, ya sea para favorecer desinformación, discursos de odio, contenido ilegal o para maximizar temporalmente la exposición a contenidos nocivos, podría convertirse en una conducta penal perseguible en España.
El objetivo es frenar prácticas oscuras en torno a la amplificación automatizada que no solo afectan a menores, sino que erosionan la calidad del debate democrático, la convivencia y la integridad de la información. Aunque la aplicación práctica de esta medida será compleja, dado que la manipulación algorítmica es un concepto técnico y a menudo opaco, su simple enunciado podría marcar el inicio de una nueva era de exigencia de transparencia y responsabilidad sobre cómo funcionan estas tecnologías.
4. Sistema de rastreo de «huella de odio y polarización»
La cuarta iniciativa es la creación de una herramienta oficial para medir, rastrear y hacer pública lo que el Gobierno ha denominado la «Huella de Odio y Polarización» en las redes sociales.
La idea es contar con un sistema técnico capaz de:
- Cuantificar la presencia de discursos de odio, polarización y desinformación.
- Trazar el impacto de estos contenidos en términos de audiencia y propagación.
- Exponer la permisividad o permisividad de las plataformas con ciertos tipos de contenido.
Este sistema no solo permitiría medir el problema sino también establecer bases objetivas para sancionar o incluso restringir servicios que no controlen adecuadamente estos fenómenos.
Aunque aún se desconocen detalles técnicos, como quién desarrollará esta herramienta, qué métricas se usarán y cómo se garantizará la imparcialidad, este tipo de sistemas pueden fortalecer la rendición de cuentas y proveer datos útiles para políticas públicas, investigadores y sociedad civil.
Sin embargo, también plantea interrogantes sobre quién define qué es «odio» o «polarización» y cómo se equilibra el control de contenidos con la libertad de expresión.
5. Investigación conjunta con la Fiscalía sobre posibles infracciones de plataformas
La quinta y última medida anunciada consiste en trabajar de la mano con la Fiscalía para investigar posibles infracciones legales cometidas por grandes plataformas como TikTok, Grok (de X) e Instagram.
Esta investigación no solo se centrará en el incumplimiento de normativas vigentes, sino que también podría abordar la posible difusión de contenidos peligrosos, la explotación de menores o la falta de control efectivo frente a la manipulación algorítmica o el odio.
La Fiscalía actuaría como brazo investigador y persecutor, aportando herramientas jurídicas para que estas plataformas respondan ante la justicia en caso de infracciones. El Gobierno ha enfatizado su compromiso de «tolerancia cero» frente a conductas ilegales o dañinas, y ha subrayado que defenderá la soberanía digital de España en el proceso.
¿Qué significa todo esto para usuarios y plataformas?
En conjunto, estas cinco medidas representan un intento sin precedentes de España por redefinir la relación entre los ciudadanos, especialmente menores de edad, y las plataformas digitales. La prohibición de acceso para menores de 16 años sería una de las más estrictas del mundo, y podría inspirar a otros países a seguir un camino similar.
Sin embargo, la legislación aún debe negociarse y aprobarse en el Congreso de los Diputados, y su puesta en marcha dependerá de cómo se aborden cuestiones clave como la protección de datos, la libertad de expresión, la cooperación internacional y la viabilidad técnica de algunas de las medidas previstas.
Lo que está claro es que España ha colocado la seguridad digital, la protección de menores y la responsabilidad corporativa tecnológica en el centro de su agenda política, marcando un antes y un después en el debate sobre gobernanza digital a nivel global.
España se une a Australia, el país pionero, Francia o Dinamarca
España va camino de sumarse a la lista de países que planean que los menores de edad no accedan a las redes sociales. Este tipo de prohibición está ya vigente o en proceso de estarlo en distintos países, aunque no se sitúa en todos a la misma edad.
– Australia: el primer «laboratorio» de la prohibición bajo los 16 años
En Australia, desde el 10 de diciembre de 2025, entró en vigor una legislación conocida como Social Media Minimum Age Scheme (SMMA), que obliga a las plataformas a impedir que menores de 16 años creen o mantengan cuentas en servicios de redes sociales considerados «edad restringida» (como Facebook, Instagram, TikTok, Snapchat, X, YouTube y otros), pero con matices importantes sobre cómo funciona en la práctica.
– Francia tras los pasos de Australia
La Asamblea Nacional francesa ha dado luz verde ya al proyecto de ley por el que se prohíbe el acceso a las redes a los menores de 15 años. Según el texto legal francés, las propias plataformas tecnológicas tienen que verificar la edad del usuario e impedir el acceso a quien esté por debajo de ese límite. La ley ha recibido el empujón constante del gobierno de Macron.
En el caso de Dinamarca, todos los partidos con representación parlamentaria apoyan tomar la misma medida que en Francia, aunque todavía no se ha determinado una fecha concreta para la entrada en vigor de la decisión ni qué plataformas se verán afectadas.
– También en Reino Unido y Portugal
En ambos países, Reino Unido y Portugal también está en marcha el procedimiento parlamentario. La Cámara de los Lores británica ha aprobado ya una prohibición para menores de los 16 años que debe recibir ahora el visto bueno de la Cámara de los Comunes.
En Portugal se plantea que los menores de entre 13 y 16 años puedan acceder con permiso parental. La propuesta de ley presentada ante el parlamento portugués se apoya además en estudios realizados en el país vecino sobre el efecto de las redes en menores y sobre casos de ciberacoso.
– Debate en la Unión Europea
El pasado mes de noviembre, el Parlamento Europeo aprobó por abrumadora mayoría de 483 votos a favor y 92 en contra un informe en el que pide una mayor protección para los menores frente a la manipulación y la adicción que pueden generar las redes sociales. El Parlamento propone los 16 años como edad mínima generalizada para el acceso a redes sociales y apoya la opción de que ya desde los 13 puedan entrar con permiso parental.
Artículos relacionados:
- España busca combatir los ‘deepfakes’ incluyéndolos como vulneración al derecho al honor
- Anteproyecto de Ley de protección de los menores en entornos digitales
- Informe Infancia Digital 2025. Infancia, Adolescencia y Bienestar Digital, «una aproximación desde la salud, la convivencia y la responsabilidad social»
- “Integración de la IA en plataformas sociales: José Luis Zimmermann (Meta) reclama soluciones simples y coordinadas para familias y reguladores”, V Jornadas Salud Digital
- Prohibición del uso del móvil por el alumnado en los centros educativos
- ¿Es adecuado el móvil en los centros educativos?