Hay documentos que no nacen de la ilusión, sino de la necesidad. No son “bonitos” pero son de esos que, cuando existen, se nota. Son esos documentos que ordenan decisiones y evitan sustos. Una política interna de uso de Inteligencia Artificial es exactamente eso.
En La Rueca hemos publicado la nuestra para el uso de IA entre compañeras. Y la compartimos con una intención muy concreta. Que otras entidades del tercer sector podáis utilizarla tal cual, adaptarla, o simplemente inspiraros. Porque la IA en las organizaciones sociales está entrando por la puerta de atrás (un “he probado una cosa para resumir un informe…”) y, sin darnos cuenta, quedarse a vivir. 😂 Y cuando una tecnología se queda a vivir en una entidad que trabaja con personas, derechos y datos sensibles, lo mínimo es ponerle normas de convivencia.
Nuestra política parte de una idea sencilla, la IA puede mejorar calidad, eficiencia e impacto, pero nunca debe sustituir el criterio profesional ni la relación humana que sostiene la intervención social. Eso está escrito tal cual en el propio propósito del documento y atraviesa el resto de decisiones; desde qué usos son recomendables hasta cuáles están prohibidos.
Descarga la política haciendo clic en la imagen
Por qué ahora
La IA generativa tiene un efecto curioso. Hace fácil cosas que antes costaban. Redactar, resumir, traducir, preparar materiales, generar propuestas… Eso, en entidades con equipos ajustados y mil fuegos diarios, es tentador (y a veces necesario).
El problema es que la facilidad también simplifica lo que no debería simplificarse, confidencialidad, sesgos, errores con apariencia de verdad, dependencia de proveedores, filtraciones, uso de datos sin base jurídica… y, en nuestro contexto, el riesgo más delicado es el de que una herramienta “ayude” en procesos que afectan a derechos (itinerarios, diagnósticos, acceso a recursos) sin la supervisión que exige la ética profesional.
Qué incluye la política de La Rueca
Define a quién aplica, con qué principios y con qué límites. Hay tres piezas especialmente útiles si estáis pensando en crear la vuestra:
- La primera es el mapa de usos, dividido entre usos recomendados (por ejemplo, apoyo a redacción de proyectos o materiales educativos), usos permitidos con supervisión reforzada (cuando toca intervención, evaluación o diagnóstico) y usos directamente prohibidos (como introducir datos personales o sensibles en herramientas no autorizadas, o tomar decisiones automatizadas que afecten a derechos).
- La segunda es el foco en protección de datos y confidencialidad. Obviamente, hablamos de qué datos se pueden tratar (idealmente anonimizados o agregados), qué entra en “sensible” y qué condiciones habría que cumplir incluso en escenarios muy controlados.
- Y la tercera es la parte que suele olvidarse y luego pasa factura: gobernanza. La política establece procedimiento para incorporar nuevas herramientas (finalidad, análisis de riesgos, verificación RGPD y ENS, validación interna, formación, indicadores), roles y responsabilidades, y un ciclo de revisión y mejora.
Además, incluimos un decálogo muy operativo y recomendaciones para el etiquetado transparente cuando la IA participa de forma significativa en contenidos públicos, especialmente en temas sensibles.
Europa ya lo está pidiendo
Aquí viene lo interesante, tener una política así no es solo prudente. Empieza a ser, en la práctica, coherente con obligaciones legales y regulatorias. El AI Act (Reglamento europeo de IA) en su artículo 4 exige que proveedores y organizaciones que despliegan sistemas de IA tomen medidas para asegurar un nivel suficiente de conocimiento en su personal, ajustado al contexto y a las personas sobre las que impacta el sistema. Es decir, hace falta organización, criterio y formación.
Y no es el único punto. El AI Act clasifica como alto riesgo determinados usos de IA, precisamente en ámbitos donde muchas organizaciones (incluidas entidades sociales que gestionan programas o colaboran con administraciones) pueden verse reflejadas: educación, empleo, acceso a servicios esenciales y beneficios, entre otros. Esto no significa que “usar IA” sea ilegal; significa que, en ciertos casos, el listón de obligaciones sube (gestión de riesgos, documentación, supervisión humana, etc.).
¿Y en España?
En paralelo, el marco de protección de datos ya daba pistas antes de que la IA estuviera hasta en la sopa. El RGPD no menciona ChatGPT, pero sí habla de principios y obligaciones totalmente aplicables como minimización, licitud, responsabilidad proactiva, protección de datos desde el diseño…
Y hay un artículo que conviene tener en la mesilla si trabajamos con procesos sensibles. Se trata del artículo 22 del RGPD, que regula el derecho a no ser objeto de decisiones basadas únicamente en tratamiento automatizado cuando produzcan efectos significativos, e introduce la idea de intervención humana y garantías. Esto dialoga directamente con un principio central de nuestra política como es la de “ninguna decisión sin supervisión humana” cuando se afecta a derechos.
A nivel estatal, la LOPDGDD aterriza el RGPD en España y refuerza el marco de derechos digitales, algo especialmente relevante para entidades que trabajan con colectivos en situación de vulnerabilidad y con datos que requieren cuidados extra.
¿Y el ENS, cómo encaja en todo esto?
En la política de La Rueca mencionamos explícitamente el ENS (Esquema Nacional de Seguridad) como parte del marco de cumplimiento en privacidad y seguridad porque estamos certificadas nivel medio y, obviamente, este esquema es transversal a todas nuestras actuaciones «tecnológicas»

¿Tiene sentido traer el ENS a una política de IA en una entidad social? Mucho, en dos escenarios frecuentes:
- Uno, cuando trabajamos con sistemas, información o servicios vinculados a administraciones públicas (convenios, contratos, subvenciones con componentes digitales, plat El ENS, actualizado por el Real Decreto 311/2022, aplica al sector público y amplía el foco hacia entidades colaboradoras y proveedores tecnológicos.
- Dos, cuando sin estar “obligadas” formalmente, queremos alinear nuestra seguridad con un estándar reconocido: clasificación de información, control de accesos, gestión de incidentes, medidas organizativas… Porque la ética de la IA también es esto: no comprometer información sensible por usar una herramienta “muy cómoda” sin garantías.
Si queréis usarla, podéis copiarla, adaptarla, mejorarla (y contadnos) 😉 La idea no es que todas las entidades tengamos el mismo documento, sino que ninguna esté improvisando en solitario.
Si la descargáis y la adaptáis, lo más importante es mantener el espíritu basado en centralidad de las personas, enfoque de derechos, privacidad, seguridad, transparencia y supervisión profesional. Y luego, ajustarla a vuestra realidad (qué datos tratáis, qué perfiles profesionales la usarán, con qué herramientas y para qué procesos).
Si os apetece, también podemos hacer algo muy de Club Digital como es compartir aprendizajes. Qué os ha servido, qué os ha chirriado, qué habéis cambiado.
Unión Europea. Reglamento (UE) 2024/1689 (Artificial Intelligence Act / AI Act) – EUR-Lex (texto): https://eur-lex.europa.eu/eli/reg/2024/1689/oj/spa España (BOE/DOUE). Reglamento (UE) 2024/1689 – versión en español (referencia DOUE-L-2024-81079): https://www.boe.es/buscar/doc.php?id=DOUE-L-2024-81079 Unión Europea. Reglamento (UE) 2016/679 (RGPD) – EUR-Lex (texto en español): https://eur-lex.europa.eu/legal-content/ES/TXT/?toc=OJ%3AL%3A2016%3A119%3AFULL&uri=uriserv%3AOJ.L_.2016.119.01.0001.01.SPA España (BOE/DOUE). Reglamento (UE) 2016/679 (RGPD) – PDF en español: https://www.boe.es/doue/2016/119/L00001-00088.pdf España (BOE). Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD) – texto consolidado: https://www.boe.es/buscar/act.php?id=BOE-A-2018-16673 España (BOE). Real Decreto 311/2022, por el que se regula el Esquema Nacional de Seguridad (ENS) – texto consolidado: https://www.boe.es/buscar/act.php?id=BOE-A-2022-7191 Post elaborado con apoyo de IA y supervisado por un equipo humano de La Rueca Asociación.
Si te interesa la Tecnología Social, este es tu sitio. 🙂
Apúntate a nuestra newsletter
Te acercamos a la Tecnología Social desde todas sus perspectivas
Síguenos
En nuestras redes podrás tener información fresquita sobre La Rueca Asociación