Más de 200 expertos piden a YouTube que deje de servir «basura generada por IA» a los niños

La organización Fairplay impulsa una carta abierta a Google contra el llamado AI slop infantil. Repasamos los datos, qué dicen las recomendaciones en España y por qué este debate parece no tener fin.

El 1 de abril de 2026, la organización estadounidense Fairplay, dedicada a la defensa de la infancia frente a prácticas comerciales y digitales abusivas, envió una carta abierta a Sundar Pichai (CEO de Google) y Neal Mohan (CEO de YouTube). La firman 135 organizaciones y 102 expertos, algo más de 230 firmantes en total, con un mensaje claro: la proliferación de vídeos generados con inteligencia artificial en YouTube y YouTube Kids podría está dañando el desarrollo infantil, y la plataforma debe actuar.

Entre los firmantes figuran el psicólogo social Jonathan Haidt (autor de La generación ansiosa), la pediatra investigadora Jenny Radesky, la American Federation of Teachers, el National Black Child Development Institute, la American Counseling Association, la socióloga Sherry Turkle y la pediatra Michelle Ponti, entre muchos otros nombres relevantes en el debate internacional sobre infancia y tecnología.

Qué es el «AI slop» y por qué inquieta tanto

El término AI slop se traduce más o menos como «basura de IA». Hace referencia a vídeos producidos en cadena con herramientas de inteligencia artificial generativa: animaciones llamativas, colores estridentes, voces sintéticas, música repetitiva, ritmo acelerado y títulos pensados como reclamo de click. Muchos se presentan como contenido educativo o apto para niños, aunque su valor pedagógico es, en el mejor de los casos, dudoso.

La carta sostiene que este tipo de contenido «perjudica el desarrollo de los niños al distorsionar su sentido de la realidad, saturar sus procesos de aprendizaje y secuestrar su atención». Los firmantes citan tres datos que ayudan a entender la escala del fenómeno:

  • El 40 % de los vídeos recomendados tras ver programas preescolares populares contenían material generado por IA.
  • El 21 % de los Shorts recomendados a nuevos usuarios eran AI slop.
  • Hay vídeos con información científica falsa generada por IA que están siendo recomendados a niños mayores como contenido educativo.

A esto se suma una cifra incómoda: los principales canales de AI slop dirigidos a niños han ingresado más de 4,25 millones de dólares anuales en publicidad, según los datos recopilados por Fairplay. Dicho de otra forma: existe un modelo de negocio que premia exactamente lo contrario de lo que beneficia al menor.

Rachel Franz, directora del programa Young Children Thrive Offline de Fairplay, lo resume así: «El AI slop hipnotiza a los niños pequeños y les dificulta dejar la pantalla para pasar a actividades esenciales como el juego, el sueño o la interacción social. El algoritmo de YouTube hace prácticamente imposible que los niños lo eviten».

Las seis medidas que pide la carta

La coalición plantea exigencias concretas, dirigidas tanto a YouTube como a YouTube Kids:

  1. Etiquetar de forma clara todo el contenido generado por IA en YouTube.
  2. Prohibir el contenido generado por IA dentro de YouTube Kids.
  3. Prohibir los vídeos «hechos para niños» generados por IA en YouTube, también fuera de YouTube Kids.
  4. Excluir las recomendaciones algorítmicas de contenido generado por IA a usuarios menores de 18 años.
  5. Implementar un control parental que permita desactivar el contenido generado por IA aunque el menor lo busque. Este interruptor debería estar activado por defecto, es decir, que el contenido de IA estaría bloqueado salvo que la familia decida lo contrario.
  6. Detener la inversión de Google en la creación de vídeos generados por IA para niños.

La sexta petición es llamativa: la carta llega tras conocerse que el AI Futures Fund de Google ha invertido 1 millón de dólares en Animaj, un estudio que produce animación generada con IA dirigida, entre otros públicos, a bebés y niños pequeños. Coincide también con un veredicto reciente en California que declaró a YouTube responsable civil en un juicio sobre adicción a redes sociales en menores.

YouTube respondió a través del portavoz Boot Bullwinkle en declaraciones a la revista Fortune afirmando que la plataforma mantiene «altos estándares» para YouTube Kids y que está desarrollando etiquetas específicas para identificar contenido de IA dentro de la app, sin concretar plazos.

El contexto en España

La Asociación Española de Pediatría (AEP) actualizó en diciembre de 2024 sus recomendaciones sobre pantallas y, entre otras cosas, elevó la franja de no exposición a pantallas de los 2 a los 6 años. Para niños y niñas de 7 a 12 años, el máximo recomendado es de una hora diaria, incluido el tiempo escolar. La AEP califica directamente la cuestión como «un problema de salud pública» y reclama medidas, no solo a las familias, sino a los gobiernos y al sistema educativo.

El comité de expertos del Ministerio de Juventud e Infancia, que en 2025 elaboró 107 medidas para el Gobierno, recomienda: de 0 a 3 años, no exponer a los niños a dispositivos digitales; hasta los 6 años, limitar incluso su uso por parte de los adultos en presencia de menores; de 6 a 12 años, priorizar actividades vivenciales y físicas y supervisar siempre.

En el plano regulatorio, el Proyecto de Ley Orgánica para la protección de las personas menores de edad en los entornos digitales esá en tramitación parlamentaria. La norma, entre otras cosas, tipifica como delito los deepfakes pornográficos, eleva de 14 a 16 años la edad de consentimiento para el tratamiento de datos personales, obliga a las plataformas a establecer sistemas de verificación de edad y prevé la posibilidad de retirar contenidos o interrumpir servicios por incumplimiento. Su alcance dependerá de cómo se aplique cuando entre en vigor.

A esto se suma el Reglamento de Servicios Digitales europeo (DSA), que ya obliga a las grandes plataformas (YouTube incluida) a evaluar riesgos sistémicos para menores, y el Reglamento de IA de la UE, que avanza obligaciones de etiquetado para contenidos generados por inteligencia artificial.

Es decir: el problema que denuncia Fairplay no es exclusivamente estadounidense, y el marco regulatorio europeo y español, aunque imperfecto, va por delante en algunos aspectos.

Una preocupación que no es nueva

En julio de 2016 publicamos en nuestro blog un artículo titulado «Cómo bloquear contenido concreto en YouTube», cuando YouTube Kids llegaba a España. Ya entonces decíamos que la app dejaba bastante que desear, y uno de los problemas era que los vídeos de unboxing abducían a los niños, que las vocecitas chillonas e irritantes que pueblan los canales infantiles no son inocuas, y que el contenido para niños ha de estar cuidado, adaptado y creado por profesionales de diversas áreas pensando en los peques, cosa que rara vez ocurría.

Diez años después, el problema no solo no se ha resuelto, sino que ha cambiado de naturaleza. Lo que entonces denunciábamos eran canales humanos que producían contenido pobre con afán comercial. Hoy, gran parte de ese contenido pobre lo produce, sin más, una IA. La diferencia no es menor: la escala es mucho mayor, el coste de producción tiende a cero, y el algoritmo se ha vuelto el cómplice perfecto de un modelo que premia la captación de atención por encima de cualquier criterio pedagógico o de bienestar.

Aquel artículo de 2016 ofrecía tutoriales detallados: cómo bloquear canales uno a uno, cómo activar el contenido restringido, cómo pausar el historial. Lo escribimos con honestidad, advirtiendo de que era costoso y de que «hay que hacerlo en todos los dispositivos en los que se conecte el churumbel». Aquella era la realidad de entonces pero esa tarea de buscar y bloquear, pieza a pieza, ya no es una respuesta proporcional al problema. Cuando el contenido se genera de forma industrial y el algoritmo lo distribuye automáticamente, pedir a las familias que controlen manualmente el contenido es ponernos a perder una partida diseñada para que no puedan ganar.

Las familias hacemos lo que podemos, los pediatras alertan, los Gobiernos legislan muuuuy despacio, y mientras tanto los algoritmos siguen recomendando. La responsabilidad principal está… en las plataformas.

Qué podemos hacer las familias hoy

Sin renunciar a esa exigencia de fondo, hay cosas que sí están en nuestra mano:

  • Acompañar el consumo audiovisual, sobre todo en menores de 6 años.
  • Desconfiar de la etiqueta educativo en canales con producción industrial. Animaciones rígidas o con extremidades imposibles, voces sintéticas planas, transiciones bruscas sin lógica narrativa, errores básicos (colores mal nombrados, números repetidos en cuentas), música machacona o títulos llenos de emojis y mayúsculas tipo «🌈 APRENDE LOS COLORES CON FRUTAS 🍎» son indicios bastante fiables de generación con IA.
  • Revisar el historial de YouTube y YouTube Kids periódicamente y bloquear canales que muestren estas señales. Funciona, aunque sea lento.
  • Priorizar contenidos con autoría humana identificable: documentales, canales de divulgación con créditos visibles, plataformas públicas (RTVE Clan, por ejemplo) o producciones que tengan detrás profesionales que firman su trabajo.
  • Y, siempre que sea posible, sustituir tiempo de pantalla por tiempo de juego, contacto con otros niños y descanso.

La carta de Fairplay no resolverá por sí sola un problema que lleva años creciendo. Pero pone sobre la mesa algo que conviene no perder de vista: las decisiones de diseño de las plataformas no son neutras, y la franja de edad más vulnerable, que es también la que menos herramientas tiene para protegerse, lleva demasiado tiempo siendo el banco de pruebas de un modelo que la perjudica.

Comparte:
viva el circo