La tecnología va más rápido de lo que somos capaces de analizar y comprender. La inteligencia artificial le gana terreno a cualquier otro tipo de programa informático. ¿Es ética la inteligencia artificial? ¿Debería serlo? ¿La inteligencia artificial discrimina a ciertas personas? Los sesgos en la inteligencia artificial, todo un debate que abrimos hoy en el presente post de nuestro Club Digital

¿Por qué hoy hablamos de estas palabras tan «raras»? Inteligencia Artificial, algoritmo, sesgo….pues porque en nuestra categoría de Partner Invitada, tenemos el placer enorme de poder contar con Liliana Acosta, fundadora y CEO de «Thinker Soul», así se presenta ella misma en Linkedin: «HumanTech & Digital Philosopher. Thinker. Brain Trainer. Me ocupo de conectar personas con tecnología a través del Pensamiento Crítico. La Transformación Digital plantea serios retos a la humanidad, por ello ayudo a las personas para que encuentren su vía digital. A través de herramientas de la Filosofía las personas pueden llegar a desarrollar: pensamiento crítico, análisis, resolución de problemas complejos, argumentación (mental y oral) y la creatividad. Colaboro con las empresas y Think Tank´s para analizar los dilemas éticos y culturales de las personas Vs la tecnología.»

Liliana nos habla de la imperiosa necesidad de incorporar la ética en la programación informática y, por ende, en la inteligencia artificial si no queremos estar a merced de estos programas y sus decisiones.

Para entrar en detalle, hagamos una aproximación de conceptos.

Aterrizando conceptos

Para poder entender mejor todo lo que Liliana nos propone sobre los sesgos en la inteligencia artifical es necesario que conozcamos algunos términos que se encuentran en la base de su propuesta. Así, por ejemplo, nos encontramos con:

  • Algoritmo: Según el diccionario Oxford, es un «conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas» Por ejemplo, un algoritmo es el que determina si puedes ser persona beneficiaria de una hipoteca. (Sí, eso que teclea la persona profesional del banco son tus datos en un programa que decide si puedes o no tener ese crédito bancario)
  • Inteligencia Artificial: Según el diccionario de Oxford, es un programa de computación diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje.
  • Sesgo: Según Wikipedia. El sesgo es un peso desproporcionado a favor o en contra de una cosa, persona o grupo en comparación con otra, generalmente de una manera que se considera injusta. Los sesgos se pueden aprender observando contextos culturales.
  • Machine Learning: Según Wikipedia, subcampo de las ciencias de la computación y una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan.

  • La ética en la Inteligencia Artificial

    Es un placer escuchar a Liliana pues nos ayuda a apoyar la gran apuesta de la Rueca Asociación por la tecnología social. Una #TecnologíaconSentido que ayude a mejorar la calidad de vida de las personas. Pues la tecnología sin sentido «humano» pierde el sentido y el rumbo.

    Te animamos a seguir a Liliana en todas sus redes:
    LinkedIn: https://www.linkedin.com/in/liliana-acosta-arias-digital/
    YouTube: https://youtube.com/c/LilianaAcostaAriasLaThinkerSoul

    Los sesgos y las brechas digitales

    Y entonces, ¿la inteligencia artificial puede ser sexista? ¿racista? ¿clasista? pero…¿no se supone que es inteligente? Sí, es inteligente porque, tal y como hemos explicado un poquito más arriba, lo que se intenta es que sea capaz de tomar sus propias decisiones y aprender de sus propios actos. Sin embargo, esta inteligencia… finalmente no deja de ser un «trozo de software» que alguien ha pensado y tecleado en un ordenador para hacerlo realidad y que funcione. Las decisiones están basadas en lo que una serie de humanos pensaron en un principio. Y, además, y de forma habitual podríamos decir que suelen ser humanos de clase media-alta (pues han tenido la oportunidad de estudiar carreras STEAM en buenas universidades), hombres, pues está demostrada la mayoría aplastante de hombres en estas profesiones, liderados por hombres, pues es bien sabido que hay pocas mujeres directivas y menos en empresas tecnológicas, etc…

    Los tipos de sesgo que se puedan dar se explican de manera extraordinaria en la revista e-tech. Según esta revista existen 4 tipos de sesgos:

    Sesgo estereotipado

    Los algoritmos solo son tan buenos como las personas que los desarrollan. Tal como indica The New Scientist, el aprendizaje automático tiende a amplificar el sesgo sexista y racista del mundo real. Lo vemos, por ejemplo, en el software de reconocimiento de imágenes que no identifica correctamente las caras que no son blancas. De forma parecida, las muestras de datos sesgadas pueden enseñar a las máquinas que las mujeres compran y cocinan, mientras que los hombres trabajan en oficinas y fábricas. Este tipo de problema suele ocurrir cuando las personas que entrenan los datos introducen involuntariamente sus propios prejuicios en el trabajo que realizan.

    Sesgo de muestreo

    Los sesgos también pueden ocurrir cuando una muestra se obtiene de tal manera que alguna parte de la población estadística prevista tienen menos probabilidades de ser incluidos que otros. En otras palabras, los datos utilizados para entrenar un modelo no reflejan con precisión el entorno en el que operará.

    Se podría introducir un sesgo de muestreo, por ejemplo, si un algoritmo utilizado para el diagnóstico médico se entrena solo con los datos de una población. Del mismo modo, si un algoritmo destinado a operar vehículos sin conductor durante todo el año se entrena solo a partir de los datos recopilados durante los meses de verano, una nevada podría confundir el sistema.

    Distorsión del valor sistemático

    La distorsión del valor sistemático se produce cuando el verdadero valor de una medición se sobrestima o subestima sistemáticamente. Este tipo de error generalmente ocurre cuando hay un problema con el dispositivo o proceso utilizado para realizar las mediciones.

    En un nivel relativamente simple, pueden producirse errores de medición si los datos de entrenamiento se capturan en una cámara que filtra algunos colores. A menudo el problema es más complejo.

    En la atención sanitaria, por ejemplo, es difícil implementar un proceso uniforme para medir los datos de los pacientes a partir de registros electrónicos. Incluso los registros superficialmente similares pueden ser difíciles de comparar. El motivo es que un diagnóstico generalmente requiere interpretar los resultados de las pruebas y hacer varios juicios en diferentes etapas de la evolución de una enfermedad, y el momento de la decisión inicial depende de cuándo el paciente se sintió lo suficientemente mal como para acudir al médico. Un algoritmo debe ser capaz de tener en cuenta todas las variables para hacer un pronóstico preciso.

    Sesgo algorítmico

    El sesgo algorítmico es lo que sucede cuando un sistema de aprendizaje automático refleja los valores de las personas que lo desarrollaron o entrenaron. Por ejemplo, el sesgo de confirmación se puede convertir en un algoritmo si el objetivo, ya sea intencional o no intencional, es demostrar una suposición u opinión. Esto podría suceder en un entorno empresarial, periodístico o político, por ejemplo.

    Ha habido varios casos notorios de sesgo algorítmico relacionados con redes sociales y motores de búsqueda e incluso en el ámbito de la contratación corporativa.

    Sesgo de Género

    Debido a nuestro compromiso por la igualdad no podemos dejar pasar alto el sesgo específico de género de los algoritmos. Pensemos en que si estas inteligencias artificiales se basan en datos históricos sin ningún tipo de ética, ni revisión desde esta perspectiva las mujeres saldríamos mal paradas en muchos ámbitos. Lo explicamos. Si un algoritmo se basa en los datos que existen de aportaciones a la seguridad social de las mujeres desde que se tienen registros para dar a una mujer algún tipo de puntuación con respecto a un hombre. ¿Crees que el algortimo determinará la misma puntuación para un hombre que para una mujer? La respuesta es no. Y no es que la máquina se haya confundido. Es que las mujeres históricamente han estado discriminadas en el ámbito laboral y su aporte ha sido menor que el de los hombres.

    Te dejamos un interesantísimo y breve reportaje de RTVE «Sesgo de género en los algoritmos». Clica en el vídeo para verlo.

    Sesgo de Género Algoritmo inteligencia artificial


    Conclusiones: Repensemos humana y socialmente la tecnología

    Como conclusión quisiéramos poner sobre la mesa el debate y la reflexión que Liliana nos ha ayudado a sacar a la luz. Si la ética, la filosofía y lo «humano» no forman un todo con las nuevas tecnologías (y hablamos de las nuevas nuevas: el metaverso, el convertirnos en avatares de nosotros/as mismos/as en nuevos universos digitales, máquinas que se confundan con personas….), estaremos a merced de las decisiones de unos algoritmos que no nos comprenderán como humanos/as pues no han sido ideadas con ese sentido. Y quizá podamos hablar de nuevas vulnerabilidades que ni siquiera somos capaces de imaginar: ¿Cómo será ser discriminado/a en el metaverso, tendrá una repercusión directa en lo que se nos deje hacer en nuestra vida real? ¿Existirán avatares en riesgo de exclusión digital?

    Por último, volver a agradecer a Liliana su participación desinteresada y su gran aporte a nuestro Club Digital. Liliana, necesitamos más personas como tú que entiendan la tecnología social y se dediquen, además, a hacernos pensar sobre ella y sus implicaciones.

    Si te gusta este contenido, no dudes en suscribirte.

    Todos los meses (sólo una vez por mes) recibe nuestra newsletter con todo lo que hemos incorporado al blog: materiales, vídeos, descargas, tutoriales…. Si te interesa la tecnología social. No lo dudes, este es tu blog. En el pie de página déjanos tu nombre y email y ¡no te pierdas nada!
    Y si, además, te ha encantado esta categoría…explora el resto de Partner Invitados que tenemos en el Club.

    Fuente: https://revista.une.org/11/la-eliminacion-de-los-sesgos-en-los-algoritmos.html

Si te interesa la Tecnología Social, este es tu sitio. 🙂

Apúntate a nuestra newsletter

Te acercamos a la Tecnología Social desde todas sus perspectivas

Síguenos

En nuestras redes podrás tener información fresquita sobre La Rueca Asociación