Google habilita su chatbot Gemini para menores de edad en Family Link sin consentimiento previo. La medida despierta una oleada de preocupación en el ámbito educativo por el impacto pedagógico, ético y social de esta decisión.
Google ha iniciado el despliegue de Gemini, su chatbot de inteligencia artificial, en dispositivos controlados por Family Link, su sistema de supervisión parental. Esto significa que niños menores de 13 años podrán interactuar libremente con una IA conversacional capaz de generar respuestas, redactar textos, resolver dudas académicas e incluso narrar cuentos. Y lo harán sin necesidad de que sus progenitores otorguen autorización expresa.
Aunque la compañía ha comunicado a las familias esta novedad mediante un correo electrónico, el acceso a Gemini queda habilitado por defecto, y son los propios padres quienes deben desactivarlo manualmente si no desean que sus hijos utilicen el sistema. La decisión ha generado malestar en sectores educativos, tecnológicos y jurídicos que ven en esta medida un ejemplo más de cómo las grandes tecnológicas imponen cambios profundos sin debate público ni consenso pedagógico.
Una IA “educativa” sin supervisión real
Según Google, Gemini puede ser un aliado para los niños a la hora de realizar deberes, fomentar la creatividad o contar historias. Pero en el mismo mensaje, la empresa advierte que:
- Gemini puede cometer errores.
- Los menores podrían acceder a contenidos inapropiados, pese a los filtros aplicados.
- No deben introducir información personal ni asumir que la IA dice siempre la verdad.
La contradicción es evidente: se abre a los niños el acceso a una herramienta de altísima capacidad conversacional sin contar con mecanismos sólidos de supervisión o garantías reales de seguridad informativa.
“Una IA no es un adulto, no es un docente, no es una fuente fiable. Convertirla en interlocutora educativa sin supervisión es una irresponsabilidad institucional”, apunta una directora de primaria en Madrid.
¿Quién educa realmente a nuestros hijos?
Con este movimiento, Google se posiciona como actor directo en la experiencia educativa infantil, un rol históricamente reservado a familias, docentes e instituciones escolares. Pero lo hace sin rendir cuentas al sistema público de educación, sin regulación clara, y sin transparencia sobre el funcionamiento de sus algoritmos.
Además, aunque Google asegura que los datos de los menores no se utilizarán para entrenar la IA, el historial de conflictos por privacidad de datos de la compañía invita a la cautela. Y lo más preocupante: los niños podrán activar Gemini por sí solos, recibiendo tan solo una notificación de seguimiento por parte de los padres tras el primer uso.
En un sistema donde cada vez más familias conviven con jornadas laborales extenuantes y una presencia digital abrumadora, la IA de Google puede pasar, sin control, a ocupar funciones parentales o escolares: responder dudas, entretener, “enseñar”, acompañar.
La infantilización de la dependencia tecnológica
Este despliegue se enmarca en un contexto donde la inteligencia artificial está irrumpiendo en todos los niveles del sistema educativo, desde plataformas de ayuda escolar hasta corrección automática de tareas. Pero permitir que una IA intervenga directamente en la formación de pensamiento crítico y la construcción del lenguaje desde edades tempranas, plantea riesgos pedagógicos profundos:
- Homogeneización de respuestas y pérdida de pensamiento divergente.
- Dependencia tecnológica precoz como forma de validación de lo que es «verdadero».
- Desvinculación afectiva de la lectura compartida, la escritura reflexiva o la conversación humana.
- Reducción del rol del adulto como guía en el proceso de aprendizaje.
Como advierte un grupo de investigadores del CSIC en un reciente estudio: “no podemos delegar en una IA el proceso pedagógico sin alterar de forma irreversible la relación entre conocimiento, ética y humanidad”.
Un debate necesario (y urgente)
Google ha tomado la delantera. Ha colocado su chatbot Gemini en el terreno educativo infantil sin que ni las familias ni el profesorado hayan tenido la oportunidad de debatir su conveniencia o establecer límites. Y lo ha hecho desde su posición privilegiada: la de quien domina el sistema operativo (Android), el navegador (Chrome), la tienda de apps (Google Play) y ahora también la inteligencia artificial.
Si no se toman medidas claras —legales, pedagógicas y culturales— para establecer quién educa, cómo y con qué límites, existe un riesgo real de que empresas privadas decidan por nosotros el futuro del aprendizaje.
La pregunta ya no es si los niños deberían interactuar con IA. Eso está ocurriendo. La verdadera cuestión es: ¿aceptaremos que lo hagan sin control, con modelos opacos y bajo la lógica de intereses corporativos ajenos a la educación pública?