El mes de Julio nos trae a Natalia Jiménez, facilitadora en la transferencia de la metodlogía REDLAB en EAPN Canarias, partner invitada en el Club Digital, que nos habla sobre un principio que merece nuestra atención urgente: la comprensión de la inteligencia artificial debe ser considerada un derecho.
Natalia es un gran ejemplo de cómo somos las propias profesionales del tercer sector, indiferentemente de las funciones que tengamos, las que tenemos que reflexionar sobre la tecnología que nos toca vivir y la que se nos avecina. Pues son elementos que influyen en todas las vertientes de la vida de las personas que forman parte de nuestros proyectos y las que son objetivo de nuestra labor diaria.
Natalia nos recuerda que muchas decisiones críticas (préstamos, empleo, salud) ya están mediadas por algoritmos. Pero lejos de ser neutrales, esas tecnologías reproducen prejuicios históricos. Si no entendemos cómo funcionan, no podremos cuestionarlas ni exigir justicia.
En su intervención destaca cuatro pilares éticos: auditorías independientes, vías accesibles de reclamación, trazabilidad en el proceso y formatos adaptados para evitar que la brecha digital devenga en brecha de derechos. Os dejamos con ella.
¿Pero por qué hablar de la comprensión como derecho?
Porque los sesgos existen y dañan vidas. Natalia ha puesto sobre la palestra algunos ejemplos muy interesantes sobre estas formas de discriminación. Y, en el club digital, se nos ha despertado la curiosidad por saber un poco más sobre otros sesgos que se hayan dado en este sentido.
En España, se ha documentado que los modelos bancarios penalizan a las mujeres porque están infrarrepresentadas en los datos de entrenamiento. Esto lleva a asignarles mayor “riesgo” incluso cuando sus condiciones financieras son similares a las de los hombres. Esta desigualdad se replica en productos de inversión o líneas de crédito que nunca ofrecen a mujeres
https://www.fundssociety.com/es/noticias/alternativos/algoritmos-en-sector-bancario-una-fuente-de-discriminacion/
Un estudio en Brasil mostró que un modelo de puntuación crediticia introducía sesgos raciales al usar código postal como proxy. Sin censos pensados para esa población, el algoritmo clasificaba injustamente a personas negras como de mayor riesgo crediticio solo por el lugar donde vive
https://arxiv.org/abs/2011.09865
El estudio Gender Shades reveló que sistemas comerciales de reconocimiento clasificaban con un 34,7 % de error a mujeres de piel oscura, frente a solo 0,8% en hombres de piel clara
https://en.wikipedia.org/wiki/Joy_Buolamwini
Un estudio sobre generadores de imágenes como DALL‑E mostró representación estereotipada de cuerpos: predominio de mujeres delgadas, apariencia normada y roles tradicionales, excluyendo cuerpos diversos o racialmente diversos
https://www.mdpi.com/2673-5172/6/3/110
En 2010, las cámaras Nikon fueron criticadas debido a que su algoritmo de identificación preguntaba constantemente a los usuarios asiáticos si estaban parpadeando
https://time.com/archive/6906847/are-face-detection-cameras-racist/
Numerosos conductores/as y repartidores/as de Uber en el Reino Unido han sido bloqueados o despedidos debido al uso de un sistema de verificación facial considerado “racista”: el software de Microsoft encargado de autenticar mediante selfies presenta mayores tasas de error al identificar rostros de piel oscura, lo que ha llevado a la desactivación de cuentas sin revisión humana efectiva
https://time.com/6104844/uber-facial-recognition-racist/
Quantus Skin, usado por Osakidetzae, en el País Vasco, para detectar melanomas, tiene sensibilidad del 69 %, omitiendo casi un tercio de casos reales. Además, al entrenarse sobre pieles blancas, reduce significativamente su eficacia en personas de piel oscura
https://elpais.com/salud-y-bienestar/2025-06-26/lunar-o-cancer-el-algoritmo-que-se-equivoca-en-uno-de-cada-tres-melanomas-y-obvia-a-los-pacientes-con-la-piel-oscura.html
Y vamos más allá. Te compartimos este ejemplo colgado en tiktok de la cuenta @mimiworkbestie. Mira las imágenes que muestra chatGPT cuando le pedimos que nos dibuje «una persona» haciendo diferentes cosas…
@mimiworkbestie 💥💣Experimento para ver los sesgos y preujicios de la inteligencia artificial, que como vemos, por desgracia siguen siendo muchos. 👉🏻 Sí. incluso la #ai que se supone que es más objetiva que las personas, también refleja los sesgos que existen en la sociedad. 👉🏻Y aunque no podemos cambiar la IA de un día para otro, sí podemos cambiar cómo pensamos y juzgamos nosotros mismos. ✨Mi recomendación para todxs, que hagamos más trainings sobre BIAS / sesgos cognitivos y prejuicios. Os sorprenderéis de la de cosas que tenemos interiorizadas como "default" y no somos conscientes! #chatgpt #inteligenciaartificial #chatgpt4 #profesion #tipslborales #founder #marketingdirector #mundocorporativo #worktok #careertok ♬ The Champion - Lux-Inspira
¿Qué podemos hacer como entidades sociales?
Las propuestas de Natalia son urgentes y necesarias. Y nos han parecido tan acertadas que no queremos que se queden en el vídeo, por lo que hemos querido volver a plasmarlas.
- Promover auditorías independientes que evalúen impacto social, discriminación y sesgos en sistemas que afectan a colectivos vulnerables.
- Garantizar múltiples vías accesibles para reclamar, con apoyo presencial, telefónico y digital que incluya ayuda para superar barreras de acceso.
- Asegurar la trazabilidad del proceso, para que cualquier persona sepa quién está manejando su caso, en qué estado y cuándo tendrá respuesta.
- Facilitar formatos adaptados, con textos claros, lenguaje fácil y accesibilidad para personas con diversidad cognitiva, motora o lingüística.
Y, sobre todo: reivindicar que entender la IA deje de ser un privilegio para convertirse en un derecho universal.
Natalia nos muestra que más allá de la fascinación por las nuevas tecnologías, nuestra prioridad debe ser una IA democrática: accesible, transparente, explicable y socialmente justa.
Porque si no somos capaces de comprender y cuestionar los algoritmos que deciden sobre nuestras vidas, estamos renunciando a defender nuestros derechos fundamentales.
Si te interesa la Tecnología Social, este es tu sitio. 🙂
Apúntate a nuestra newsletter
Te acercamos a la Tecnología Social desde todas sus perspectivas
Síguenos
En nuestras redes podrás tener información fresquita sobre La Rueca Asociación