El Parlamento Europeo quiere subir la edad mínima de acceso a redes sociales a 16 años: un debate que entra de lleno en las aulas

El debate sobre el uso del móvil y las redes sociales por parte de niños y adolescentes ha salido definitivamente del ámbito doméstico para instalarse en el corazón de la política europea… y en los centros educativos. El Parlamento Europeo ha aprobado un informe en el que propone fijar en 16 años la edad mínima para acceder a redes sociales, plataformas de vídeo y asistentes de inteligencia artificial conversacional, salvo que exista un consentimiento explícito de las familias para los menores de entre 13 y 16 años.

Aunque el informe es no vinculante, su amplia mayoría —483 votos a favor, 92 en contra y 86 abstenciones— convierte este movimiento en una señal clara: Bruselas quiere endurecer el entorno digital en el que crecen los alumnos europeos.


Un diagnóstico que los docentes conocen bien: adicción, falta de concentración y presión social

La iniciativa parte de un diagnóstico que muchos equipos directivos y orientadores reconocen en su día a día. El Parlamento cita investigaciones según las cuales:

  • El 97 % de los jóvenes se conecta a Internet todos los días.
  • Un 78 % de los adolescentes de 13 a 17 años consulta sus dispositivos al menos una vez cada hora.
  • Aproximadamente uno de cada cuatro menores muestra un uso “problemático” o “disfuncional” del smartphone, con comportamientos que se asemejan a una adicción.

Los eurodiputados destacan que las estrategias de diseño adictivo, los algoritmos de recomendación y la presión de la cultura de la pantalla tienen un impacto directo sobre la capacidad de concentración, la salud mental y la forma en que los menores se relacionan con el aprendizaje.

Para los centros educativos, esto no es una discusión teórica. Muchos institutos han tenido que actualizar sus normas de convivencia por el aumento del ciberacoso, la difusión de vídeos sin consentimiento o los conflictos que nacen en redes y estallan en el aula. La propuesta de la Eurocámara se suma a los debates nacionales sobre la prohibición del móvil en colegios e institutos, la regulación del tiempo de pantalla o la formación del profesorado en bienestar digital.


Qué cambia: edad mínima, funciones desactivadas y límites a los algoritmos

El informe aprobado propone una edad mínima digital armonizada en la Unión Europea:

  • Acceso a redes sociales, plataformas de vídeo y “compañeros digitales” de IA a partir de los 16 años.
  • Acceso entre 13 y 16 años únicamente con consentimiento verificable de padres o tutores.

Pero los eurodiputados van más allá de la simple edad. Piden que, cuando un menor acceda a estas plataformas, el entorno digital sea menos agresivo y menos adictivo. Para ello reclaman:

  • Desactivar por defecto las funciones más adictivas para menores:
    • scroll infinito,
    • autorreproducción de vídeos,
    • “deslizar para actualizar”,
    • bucles de recompensa y ciertas mecánicas de gamificación.
  • Prohibir los sistemas de recomendación basados en perfiles para usuarios menores de edad, reduciendo la personalización extrema que tantas veces empuja a contenidos problemáticos.
  • Vetos a las “cajas de botín” (loot boxes) y otras mecánicas de azar o monetización dirigidas a menores en videojuegos, un tema que preocupa especialmente a las familias y a los docentes de Secundaria.
  • Limitar el marketing dirigido a niños, incluyendo el fenómeno de los “kidfluencers”, menores que actúan como prescriptores de marcas en redes sociales.

En términos educativos, estas medidas abren una puerta: si las plataformas son menos adictivas y menos agresivas, se reduce parte de la tensión que muchos centros viven a diario para gestionar el impacto de las redes en el clima de aula, la convivencia y el rendimiento académico.


IA generativa y chatbots de compañía: una nueva capa de complejidad para escuelas y familias

La resolución del Parlamento Europeo también lanza una advertencia sobre la IA generativa y sus efectos sobre los menores. Los eurodiputados piden actuar con urgencia ante:

  • Chatbots de compañía basados en IA, diseñados para mantener conversaciones prolongadas y emocionalmente intensas con los usuarios.
  • Deepfakes y aplicaciones de IA que generan o manipulan imágenes, incluidas herramientas que producen desnudos falsos sin consentimiento.
  • Agentes de IA y asistentes conversacionales capaces de influir en opiniones, emociones y decisiones de los menores.

Para los sistemas educativos, esto abre un doble reto:

  • Por un lado, proteger a los alumnos de contenidos y usos dañinos.
  • Por otro, formarles para entender cómo funcionan estos sistemas, cuál es su potencial y cuáles son sus límites éticos y legales.

Los programas de educación digital tendrán que actualizarse para incluir temas como la identificación de contenidos manipulados, la gestión emocional en la relación con chatbots o la protección de la propia imagen en entornos de IA generativa.

También te puede interesar:  En el curso 2010-2011 todas las enseñanzas de grado de primer curso estarán adaptadas a Bolonia

Verificación de edad, eID europea y el papel de las familias

La Eurocámara respalda el desarrollo de una app europea de verificación de edad y el uso de la futura cartera de identidad digital europea (eID) como herramientas clave para controlar el acceso de los menores a determinadas plataformas.

El Parlamento insiste en que estos sistemas deben ser:

  • Fiables en la comprobación de la edad,
  • Proporcionados y respetuosos con la privacidad,
  • Y no pueden convertirse en una excusa para relajar las obligaciones de las plataformas en materia de seguridad infantil.

Desde la perspectiva educativa, esto afecta directamente a la corresponsabilidad escuela–familia:

  • Si la verificación de edad pasa a ser obligatoria, las familias tendrían un papel más activo en autorizar —o no— el acceso de sus hijos a ciertas aplicaciones.
  • Los centros, por su parte, necesitarán protocolos claros para orientar a padres y madres, explicar los cambios normativos y encajarlos con sus propias normas sobre uso de móviles y dispositivos en el aula.

Y ahora, ¿qué? De la resolución política a la realidad de los colegios

El informe del Parlamento Europeo no es todavía una ley, pero marca con claridad hacia dónde quiere avanzar la Eurocámara. Para que las medidas lleguen a las aulas será necesario que:

  1. La Comisión Europea presente una propuesta legislativa concreta.
  2. El Consejo (gobiernos nacionales) y el propio Parlamento Europeo acuerden un texto definitivo.
  3. Los Estados miembros lo apliquen y lo coordinen con sus propias políticas educativas y de infancia.

Mientras tanto, el dato político es difícil de ignorar: según un Eurobarómetro de 2025, más del 90 % de los europeos considera urgente actuar para proteger a los menores en Internet, especialmente por el impacto de las redes en la salud mental, el ciberacoso y la exposición a contenidos inapropiados.

En palabras de la ponente del informe, la eurodiputada danesa Christel Schaldemose, “estamos diciendo claramente a las plataformas: sus servicios no están diseñados para niños. Y el experimento termina aquí”. Un mensaje que, inevitablemente, resuena también en colegios, institutos y comunidades educativas de toda Europa.


Preguntas frecuentes para la comunidad educativa sobre la edad mínima de 16 años en redes sociales

¿Cómo podría afectar una edad mínima de 16 años en redes sociales a colegios e institutos?
Si la propuesta se convierte en ley, los centros educativos tendrán un marco más claro para regular el uso de móviles y redes sociales en su reglamento de convivencia. Podrán apoyarse en una norma europea para limitar el acceso a determinadas plataformas durante el horario escolar y reforzar programas de educación digital, prevención del ciberacoso y uso responsable de la tecnología, especialmente en la ESO y Bachillerato.

¿Qué papel tendrán las familias en la gestión de redes sociales de adolescentes entre 13 y 16 años?
La propuesta europea prevé que los adolescentes de 13 a 16 años solo puedan usar redes sociales y plataformas de vídeo con consentimiento verificable de padres o tutores. Eso implica que las familias se convertirán en una pieza central de la decisión: deberán valorar la madurez de sus hijos, supervisar el uso de las apps y coordinarse con los centros escolares para alinear normas y expectativas sobre tiempo de pantalla, seguridad y bienestar digital.

¿Deberán los centros educativos cambiar sus programas de educación digital y competencia mediática?
Probablemente sí. La iniciativa del Parlamento Europeo refuerza la necesidad de una alfabetización digital más profunda: comprensión de algoritmos de recomendación, detección de contenidos manipulados, gestión del tiempo de pantalla, impacto de las mecánicas adictivas y riesgos de la IA generativa. Los currículos de educación primaria y secundaria tendrán que integrar mejor estos contenidos, no solo como aspectos técnicos, sino también desde la educación emocional, la ciudadanía digital y la ética.

¿Qué pueden hacer los equipos directivos mientras la normativa europea se concreta?
Aunque la propuesta aún no es ley, los centros pueden adelantarse revisando sus normas internas sobre móviles y redes sociales, impulsando proyectos de escuela-familia sobre bienestar digital, formando al profesorado en detección de usos problemáticos y reforzando los protocolos frente al ciberacoso. También pueden incorporar actividades de tutoría y orientación que ayuden al alumnado a entender las nuevas regulaciones europeas y a reflexionar sobre su propia relación con la tecnología.


Fuentes:
Parlamento Europeo, “Children should be at least 16 to access social media, say MEPs” (2025) y Noticias redes sociales