Casi de forma automática, como sociedad, cuando se trata este tema, nos viene a la cabeza que esto es responsabilidad de los hogares y depende, por tanto, de las familias. Y sí, claro que depende. Igual que la educación vial depende de que crucemos por el paso de cebra. Pero no le pedimos a la gente que se juegue la vida porque “mire bien antes de cruzar”, también exigimos semáforos, límites de velocidad, coches con cinturón y normas que se cumplan.
Con la infancia y la adolescencia en internet llevamos demasiado tiempo haciendo lo contrario, poniendo el peso en la responsabilidad individual (familias, profesorado, educadores/as, entidades) mientras el diseño de muchos servicios digitales seguía optimizado para una cosa, pues captar atención, retenerla y monetizarla.
En ese contexto, el Parlamento Europeo ha aprobado un informe que, sin ser una ley nueva, marca una dirección política con bastante claridad. Proteger a niños, niñas y adolescentes no es meramente una cuestión de “contenido inapropiado”, es una cuestión de arquitectura digital. De cómo están construidas las plataformas, de cómo funcionan sus algoritmos, de qué prácticas persuasivas se consideran aceptables… y de qué pasa cuando la inteligencia artificial entra en la ecuación. ([Parlamento Europeo][1])
Cuando el problema no es “la pantalla”, sino el diseño
El informe europeo habla de riesgos asociados a estrategias manipulativas y a funciones típicas del “engagement” (desplazamiento infinito, reproducción automática, bucles de recompensa, ludificación…), y pone encima de la mesa medidas como desactivar por defecto determinadas funciones adictivas para niños, niñas o adolescentes o prohibir prácticas especialmente dañinas. ([Parlamento Europeo][1])
También entra en terrenos que hasta hace poco parecían «cosa de gamers» y ya no lo son, las cajas de recompensa (“loot boxes”) y mecánicas similares a apuestas dentro de videojuegos, monedas virtuales intermedias, y otros trucos de diseño pensados para estirar el tiempo (y el gasto) de juego. ([Parlamento Europeo][1])
La idea de fondo es importante para quienes trabajamos en el tercer sector. Si el entorno digital es un espacio social y emocional —donde se construye autoestima, pertenencia, identidad, relaciones—, entonces el bienestar digital no se resuelve solo con control parental y charlas puntuales. Se resuelve con una combinación de regulación, educación y alfabetización (también en IA), y con plataformas obligadas a demostrar que sus productos son seguros y adecuados para distintas edades. ([Estrategia Digital de Europa][2])
DSA y responsabilidades claras para plataformas
Aquí entra el Digital Services Act (DSA), el reglamento europeo que regula obligaciones de intermediarios y plataformas en temas como contenidos, transparencia y sistemas algorítmicos. En materia de niños, niñas y adolescentes, el DSA incluye una pieza clave, las plataformas que puedan ser usadas por menores deben garantizar un alto nivel de privacidad, seguridad y protección.
La Comisión Europea publicó en julio de 2025 directrices específicas para ayudar a aplicar esa obligación con un enfoque de seguridad y privacidad desde el diseño, basado en derechos de la infancia. ([Estrategia Digital de Europa][2])
Y en España este punto tiene una derivada muy concreta. La CNMC actúa como Coordinador de Servicios Digitales (DSC), con funciones de supervisión y, cuando toca, sanción en el marco del DSA. ([CNMC][3]) Veamos un ejemplo, si el DSA es el “código de circulación”, alguien tiene que poner radares, hacer controles y tramitar multas. Aquí esa pieza institucional existe.
AI Act
La otra pata del informe europeo es el «AI Act», la ley europea de inteligencia artificial. El AI Act prohíbe prácticas de IA que usen técnicas subliminales o manipulativas con capacidad de causar daño, y prohíbe explotar vulnerabilidades por motivos como la edad para distorsionar el comportamiento causando (o pudiendo causar) un perjuicio significativo. ([ai-act-service-desk.ec.europa.eu][4])
En realidad, si lo pensamos, se trata de un cambio cultural. Si aceptamos que hay sistemas capaces de “empujar” decisiones sin que la persona usuaria lo perciba —y que eso puede impactar especialmente en quienes aún están desarrollando autocontrol, criterio y habilidades emocionales—, entonces la protección deja de ser un tema “doméstico” y pasa a ser un tema de mercado único, derechos y salud pública.
La España de la hiperconexión y el debate político…
A veces hablamos de esto como si fuera un futuro inminente. Pero en España, la conversación llega tarde, la vida digital de niños, niñas y adolescentes ya es masiva. El INE, en su encuesta TIC Hogares 2025, señalaba que el 96,5% de menores de 10 a 15 años navegaba por Internet y que el 67,9% usaba teléfono móvil. ([Instituto Nacional de Estadística][5])
Y el estudio “Infancia, adolescencia y bienestar digital” presentado en noviembre de 2025 (macroencuesta a casi 100.000 niños,niñas y adolescentes) dibuja un ecosistema donde:
- el 92,5% está registrado en al menos una red social y el 75,8% en tres o más,
- el uso intensivo existe (por ejemplo, quienes superan las cinco horas diarias en fin de semana),
- y aparecen indicadores de riesgo como perfiles públicos o múltiples cuentas.
Ese mismo informe vincula determinadas conductas de riesgo con dormir con el móvil en la habitación (un clásico contemporáneo: “me acuesto, miro una cosa y… sorpresa, son las 2:17”).
En paralelo, el debate político se ha acelerado. El 3 de febrero de 2026, el presidente del Gobierno anunció la intención de prohibir el acceso a redes sociales a menores de 16 años, en un paquete de medidas que también apuntaba a responsabilidad de directivos y a la lógica algorítmica de las plataformas. (Anuncio, no norma aprobada). ([El País][6])
Y pocos días después, el foco se desplazó a un riesgo concreto donde la IA multiplica el daño. La difusión de material sexual de niños, niñas y adolescentes generado o manipulado con IA. Hay un informe técnico publicado en febrero de 2026 desde el ámbito gubernamental que describe esta convergencia IA–redes como un “ecosistema de riesgo” y menciona investigaciones y marcos legales para actuar.
No hace falta recrearse en lo terrible para entender la implicación. Cuando la capacidad de “fabricar” imágenes falsas hiperrealistas se democratiza, la prevención ya no puede basarse solo en “no compartas fotos”. Necesitamos incorporar barreras técnicas, trazabilidad, retirada rápida y responsabilidades claras.
Pero entonces, ¿qué hacemos quienes estamos en intervención social?
Aquí es donde el tercer sector tiene una oportunidad (y una responsabilidad compartida) porque podemos hacer de bisagra entre derechos, realidad cotidiana y políticas públicas.
- Primero, poniendo el bienestar digital como parte de la inclusión, la salud mental comunitaria, la prevención de violencias y la participación. El informe europeo insiste en que el entorno digital es social y emocional; si trabajamos con adolescencia, es el día a día. ([Parlamento Europeo][1])
- Segundo, aprovechando herramientas existentes. Por ejemplo, la AEPD mantiene el Canal Prioritario para pedir retirada urgente de contenidos sexuales o violentos difundidos sin consentimiento, con especial sensibilidad cuando hay niños, niñas y adolescentes implicados/as. Muchas familias y profesionales ni siquiera saben que existe. ([AEPD][7])
- Tercero, aterrizando el debate de la “edad mínima” y la “verificación de edad” con una mirada de derechos. Europa está empujando sistemas de verificación que protejan la privacidad (y el Parlamento Europeo lo menciona junto a la cartera europea de identidad digital), pero cualquier solución mal planteada puede generar exclusión, vigilancia excesiva o brechas para quienes ya están en los márgenes. ([Parlamento Europeo][1])
Que proteger no signifique recortar derechos
Proteger a los niños, niñas y adoelscentes no puede convertirse en “cerrar internet” ni en trasladar la vigilancia total a las familias. El enfoque que se dibuja desde la UE es el de obligar a que el diseño sea más seguro por defecto, de limitar prácticas que explotan vulnerabilidades y de repartir responsabilidades donde corresponde. ([Estrategia Digital de Europa][2])
Y si bajamos esto al barro español, uno de los retos es construir alfabetización digital y en IA desde edades tempranas sin culpabilizar a quienes llegan con menos capital cultural o menos tiempo para «poner límites perfectos».
Dese La Rueca Asociación creemos que el scroll infinito no se derrota con voluntad. La comunidad — familias, escuela, entidades, administración y empresa — debe remar en la misma dirección. Esta vez, al menos, Europa parece haber entendido dónde está el timón. ([Parlamento Europeo][1])
[1]: https://www.europarl.europa.eu/news/es/press-room/20251120IPR31496/el-parlamento-propone-limitar-el-acceso-a-redes-sociales-a-los-menores-de-16 "El Parlamento propone limitar el acceso a redes sociales a los menores de 16 | Noticias | Parlamento Europeo" [2]: https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-protection-minors "Commission publishes guidelines on the protection of minors | Shaping Europe’s digital future" [3]: https://www.cnmc.es/sectores-que-regulamos/servicios-digitales-dsa "Servicios digitales" [4]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-5 "Article 5: Prohibited AI practices | AI Act Service Desk" [5]: https://www.ine.es/dyngs/Prensa/TICH2025.htm "Nota de Prensa: Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación (TIC) en los Hogares. Año 2025." [6]: https://elpais.com/espana/2026-02-24/la-cupula-fiscal-apoya-la-peticion-del-gobierno-de-investigar-a-las-redes-sociales-por-difundir-pornografia-infantil-creada-con-ia.html "La fiscal general accede a la petición del Gobierno de investigar la difusión en redes sociales de pornografía infantil creada con IA | España | EL PAÍS" [7]: https://www.aepd.es/canalprioritario "CanalPrioritario"Post elaborado con apoyo de IA y supervisado por un equipo humano de La Rueca Asociación.
Si te interesa la Tecnología Social, este es tu sitio. 🙂
Apúntate a nuestra newsletter
Te acercamos a la Tecnología Social desde todas sus perspectivas
Sígenos
En nuestras redes podrás tener información fresquita sobre La Rueca Asociación