La Ley de IA se activa en la UE: estos sistemas de inteligencia artificial ya son ilegales en Europa

La Ley de Inteligencia Artificial (IA) entró en vigor en agosto del año pasado en todos los países miembros de la Unión Europea (UE) y, desde este domingo 2 de febrero, se iniciaron formalmente las prohibiciones de dicha legislación. Esto quiere decir que una serie de sistemas de IA de "riesgo inaceptable" están prohibidos en los Estados miembros de la UE para salvaguardar los derechos fundamentales y la seguridad de las personas, además, las empresas ya deben cumplir con las restricciones para evitar las posibles sanciones.

Pero, ¿qué sistemas de IA ya son ilegales en Europa? Entre ellos se incluyen herramientas de inteligencia artificial "manipuladoras", sistemas de puntuación social, reconocimiento facial en tiempo real y otras formas de identificación biométrica que clasifican a las personas por raza, vida sexual, orientación sexual y otros atributos. Por lo tanto, el incumplimiento de estas prohibiciones puede tener graves consecuencias.

Tal y como indica Maldita.es, en nuestro país, la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA, por sus siglas) es la encarga del cumplimiento de la Ley de IA en España y podrá multar, a partir del 2 de agosto de 2025, a los operadores de sistemas prohibidos con hasta 35 millones de euros o con hasta el 7% de sus ingresos anuales globales.

La Ley de IA prohíbe las siguientes prácticas

El artículo 5 del capítulo II de la Ley de IA aborda las prácticas prohibidas, además, tiene un enfoque basado en el riesgo que divide los sistemas en categorías al prohibir las prácticas que están consideradas como una amenaza para la seguridad y los derechos de las personas. Estos son todas las prácticas de IA prohibidas:

  • Las técnicas manipuladoras o engañosas que se sirven de "técnicas subliminales que trascienden la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas". Estas técnicas tienen el objetivo de "alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado".
  • Los sistemas de IA que explotan alguna vulnerabilidad de una persona física o un determinado colectivo de personas derivadas de su edad o discapacidad, o de una situación social o economía específica.
  • Los sistemas para "evaluar o clasificar" a personas físicas o a colectivos de personas durante un período determinado de tiempo atendiendo a su comportamiento social o a características personales o de su personalidad conocidas, inferidas o predichas, de forma que provoque un trato perjudicial o desfavorable.
  • El uso de un sistema de IA para realizar evaluaciones de riesgos de personas físicas con el fin de valorar o predecir el riesgo de que una persona física cometa un delito basándose únicamente en la elaboración del perfil de una persona física o en la evaluación de los rasgos y características de su personalidad.
  • La puesta en marcha de sistemas de IA que "creen o amplíen bases de datos de reconocimiento facial mediante la extracción no selectiva de imágenes faciales de Internet o de circuitos cerrados de televisión".
  • El uso de sistemas de IA para "inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos".
  • El uso de sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual.
  • El uso de sistemas de identificación biométrica remota "en tiempo real" en espacios de acceso público.

¿Qué pasa si se utiliza un sistema de IA prohibido?

Ibán García, miembro del equipo negociador para la aprobación de la Ley de IA, explica a Maldita.es que, en caso de usar un sistema prohibido, se podría atribuir responsabilidades como usuarios finales, pero con ciertos límites.

García señala que "esta regulación busca abarcar toda la cadena de valor, aunque también menciona el principio de proporcionalidad a la hora de determinar sanciones. La responsabilidad principal recae sobre los desarrolladores, proveedores y distribuidores de los sistemas de IA, más que en los usuarios finales".

Esto significa que "los usuarios individuales o empresas que utilicen un sistema prohibido podrían enfrentarse a sanciones si conscientemente emplean un sistema de IA que saben está prohibido o que no cumple con las regulaciones. Sin embargo, los usuarios finales que no cuentan con conocimientos técnicos o que no son responsables directos de la comercialización del sistema suelen tener una responsabilidad limitada".

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.