La Ley de Inteligencia Artificial (IA) de la Unión Europea, también conocida como Reglamento (UE) 2024/1689, es la primera normativa a nivel mundial que establece un marco legal para el desarrollo y uso de sistemas de IA en Europa

Que los/as ciudadanos/as europeos/as  seamos las primeras personas que contamos con un reglamento para iniciar la regularización de la Inteligencia Artificial en nuestras vidas es una noticia de tal calado que no hemos querido pasar sin nombrarla en nuestro blog de tecnología social. En este artículo vamos a hacer un pequeño (pequeño de verdad, 😉 ) resumen de la Ley y los puntos que más nos interesan conocer como profesionales del tercer sector.

Objetivos principales de la Ley de IA

  1. La ley busca salvaguardar los derechos y libertades de los/as ciudadanos/as europeos/as frente a posibles riesgos asociados al uso de la IA.
  2. Se pretende estimular la inversión y el desarrollo de tecnologías de IA en Europa, asegurando que estas se implementen de manera ética y segura.

Aspectos clave de la Ley de IA

  1. La ley categoriza los sistemas de IA según el nivel de riesgo que representan:
    • Riesgo inaceptable: Sistemas prohibidos por considerarse una amenaza para la seguridad o los derechos fundamentales.
      • Algunos ejemplos:
        • Sistemas de manipulación subliminal que alteren el comportamiento de las personas de forma perjudicial sin su conocimiento.
        • Evaluaciones sociales por parte del gobierno, donde se asignan puntuaciones a los ciudadanos basándose en su comportamiento o características personales (similar al sistema de crédito social en China).
        • Sistemas de reconocimiento facial en tiempo real para vigilancia masiva en espacios públicos, salvo en casos excepcionales (como investigaciones específicas aprobadas judicialmente).
    • Riesgo alto: Sistemas que requieren estrictas obligaciones de cumplimiento, incluyendo evaluaciones de conformidad y medidas de mitigación de riesgos.
      • Algunos ejemplos:
        • Diagnóstico médico asistido por IA: herramientas que ayudan a los profesionales sanitarios a identificar enfermedades.
        • IA utilizada en la selección de personal, como algoritmos que evalúan currículos o filtran candidatos para entrevistas.
        • Sistemas de puntuación de crédito que determinan la elegibilidad para préstamos.
        • Aplicaciones en la educación, como sistemas que evalúan automáticamente el rendimiento de los estudiantes o asignan calificaciones.
    • Riesgo limitado: Sistemas que deben cumplir con requisitos específicos de transparencia.
      • Algunos ejemplos:
        • Chatbots que interactúan con clientes en servicios de atención al cliente, donde se debe informar a los usuarios que están hablando con una máquina.
        • Sistemas de recomendación de contenido en plataformas de streaming (como sugerencias de películas en Netflix).
        • Aplicaciones de IA que generan contenido visual o textual, siempre que no afecten a derechos fundamentales (por ejemplo, asistentes virtuales o generadores de imágenes).
    • Riesgo mínimo o nulo: Sistemas que no están sujetos a obligaciones adicionales bajo la ley.
      • Algunos ejemplos:
        • Filtros de fotografía en redes sociales (por ejemplo, los que cambian el color de ojos o añaden efectos a las imágenes).
        • Algoritmos que optimizan el consumo energético en edificios inteligentes.
        • Aplicaciones de entretenimiento basadas en IA, como videojuegos que usan inteligencia artificial para mejorar la experiencia del usuario.
  2. Los desarrolladores/as e implementadores/as de sistemas de IA de alto riesgo deben:
    • Realizar evaluaciones de riesgos y establecer medidas de mitigación.
    • Garantizar la calidad y precisión de los datos utilizados.
    • Mantener registros detallados para asegurar la trazabilidad.
    • Proporcionar información clara y adecuada a los usuarios.
    • Implementar supervisión humana para minimizar riesgos.

 

Relevancia para poblaciones vulnerables

La ley presta especial atención a la protección de grupos vulnerables, como menores, personas mayores y colectivos en situación de vulnerabilidad. Por ejemplo, se prohíbe el uso de sistemas de IA que exploten las vulnerabilidades de estos grupos de manera que puedan causarles daño físico o psicológico.

Además, los sistemas de IA utilizados en áreas sensibles, como la educación, el empleo, la aplicación de la ley y la gestión de la migración, están sujetos a requisitos más estrictos debido al impacto potencial en los derechos y libertades de las personas.

 

Algunos Contras que ya empiezan a resonar

Aunque esta ley ha sido aclamada como un marco innovador que equilibra la protección de los derechos fundamentales con el desarrollo tecnológico, este enfoque regulador no está exento de críticas, especialmente desde el ámbito empresarial.

Empresarios/as y expertos/as señalan que el cumplimiento de las estrictas normativas impuestas por la ley puede convertirse en una barrera significativa para las empresas, particularmente para las pequeñas y medianas empresas (PYMES) y startups tecnológicas. Estas compañías suelen carecer de los recursos necesarios para implementar los procesos de evaluación de riesgos, auditorías internas y certificaciones requeridas por la normativa para los sistemas de alto riesgo.

Al mismo tiempo, las empresas en regiones con regulaciones menos estrictas, como Estados Unidos o China, podrían ganar una ventaja competitiva al operar con menos restricciones y costos regulatorios. Esto plantea el riesgo de que Europa pierda protagonismo en el panorama global de innovación en inteligencia artificial, un área donde ya enfrenta desafíos significativos.

Otro temor es la posible «fuga de talento e inversiones». Algunos/as desarrolladores/as y empresas podrían optar por trasladar sus operaciones a países fuera de la UE, donde las regulaciones sean más flexibles. Este fenómeno no solo impactaría la competitividad del mercado europeo, sino también su capacidad para atraer y retener a los mejores talentos en el ámbito de la IA.

A pesar de las preocupaciones, los/as defensores/as de la ley argumentan que esta regulación podría ser una ventaja a largo plazo. Al priorizar la transparencia, la ética y la seguridad, la UE busca posicionarse como un líder global en el desarrollo de IA confiable. Este enfoque podría atraer a empresas e inversores interesados en trabajar en un entorno que garantice altos estándares de calidad y protección para los usuarios.

Para mitigar los impactos negativos, se espera que los Estados miembros y la UE proporcionen incentivos y apoyo a las empresas, como fondos para la adaptación tecnológica, programas de formación en regulación de IA y acceso a herramientas de cumplimiento normativo. Este tipo de medidas serán cruciales para que la ley no se convierta en un obstáculo para la innovación, sino en un catalizador de un mercado más ético y competitivo.

Plazos y el papel de España

Los Estados miembros tienen hasta agosto de 2025 para designar autoridades nacionales competentes que supervisen la aplicación de las normas y realicen actividades de vigilancia del mercado. Además, la Comisión Europea establecerá la Oficina de IA, que será el organismo clave para la implementación y cumplimiento de la normativa a nivel de la UE.

España ha adoptado un enfoque proactivo en la regulación de la inteligencia artificial (IA), alineándose con las directrices europeas y estableciendo iniciativas propias para garantizar un desarrollo ético y seguro de esta tecnología.

En mayo de 2024, el Gobierno aprobó la Estrategia de Inteligencia Artificial 2024, que da continuidad a las iniciativas previas y adapta las políticas nacionales a los avances recientes en IA. Esta estrategia, con una inversión de 1.500 millones de euros para 2024 y 2025, se centra en:

  • Mejorar las capacidades de supercomputación y almacenamiento sostenible.
  • Promover modelos de lenguaje en castellano y lenguas cooficiales.
  • Fomentar la aplicación práctica de la IA en el sector público y en las pymes.
  • Garantizar una IA ética y responsable, con la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) desempeñando un papel fundamental.

España se convirtió en el primer país europeo en establecer una agencia dedicada a la supervisión de la IA. La AESIA, Agencia Española de Supervisión de la Inteligencia Artificial, con sede en A Coruña, tiene como funciones:

  • Supervisar la implementación de la normativa europea en materia de IA.
  • Coordinar actividades relacionadas con la IA a nivel nacional.
  • Actuar como punto de contacto con la Comisión Europea y representar a España en el Comité Europeo de Inteligencia Artificial.

España ha desarrollado un marco normativo y ético para el despliegue de la IA, que incluye:

  • Un sandbox regulatorio para la implementación del futuro Reglamento Europeo de IA, permitiendo a las empresas probar productos y servicios de IA en un entorno controlado.
  • La creación de la AESIA para supervisar y garantizar el cumplimiento de las normativas.
  • Planes de sensibilización y confianza hacia la IA, así como la elaboración de guías prácticas para la implementación de sistemas de IA éticos y confiables.

A pesar de los avances, las empresas españolas enfrentan desafíos para cumplir con normativas de protección de datos más estrictas, motivadas por incidentes de seguridad recientes. La Agencia Española de Protección de Datos impuso en 2023 un total de 357 sanciones con multas superiores a 16 millones de euros. Se aconseja una mayor coordinación interna y formación continua para gestionar mejor la privacidad y responder adecuadamente a las leyes.

Fuentes:

Si te interesa la Tecnología Social, este es tu sitio. 🙂

Apúntate a nuestra newsletter

Te acercamos a la Tecnología Social desde todas sus perspectivas

Síguenos

En nuestras redes podrás tener información fresquita sobre La Rueca Asociación