in

La Unión Europea legisla por fin la inteligencia artificial

La UE ha consensuado la primera normativa global sobre inteligencia artificial (IA), un proceso legislativo que aún no ha concluido pero que ya dibuja un antes y un después en el manejo de esta tecnología.

ChatGPT

Este acuerdo revela la importancia y la urgencia de regular un campo tan expansivo y potencialmente disruptivo como la inteligencia artificial.

La Ley de Inteligencia Artificial, conocida como IA Act, se presentó por primera vez en abril de 2021. La presidenta de la Comisión Europea, ha enfatizado el valor y las posibilidades que abre esta nueva ley. Centrándose en los “riesgos identificables”, la normativa busca equilibrar la seguridad y los derechos humanos con el impulso a la innovación. La clasificación de la IA según el riesgo que representa es una de sus claves, con categorías que van desde “riesgo mínimo” hasta “riesgo inaceptable”.

Los riesgos de la IA, según la Ley

La nueva legislación clasifica las aplicaciones de IA en cuatro niveles de riesgo, riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo; y establece prohibiciones específicas. Entre estas, destaca la prohibición de sistemas de IA que manipulen el comportamiento humano, sistemas de puntuación social, y ciertas aplicaciones de vigilancia policial predictiva. Además, enfatiza la prohibición de sistemas biométricos que categoricen a las personas por creencias políticas, religiosas, orientación sexual o raza. En concreto:

Sistemas de Categorización Biométrica en Espacios Públicos: Prohíbe el uso de IA para la identificación biométrica a distancia en espacios públicos, excepto en circunstancias limitadas y reguladas.

Sistemas que Explotan Vulnerabilidades de Menores o Personas con Discapacidad: Prohibe los sistemas de IA que explotan estas vulnerabilidades, distorsionando su comportamiento de manera que pueda causar daño físico o psicológico.

Sistemas de Puntuación Social: Prohíbe los sistemas de IA que evalúan a las personas según su comportamiento social o personalidad.

Manipulación del Comportamiento Humano: Se prohíben los sistemas diseñados para manipular el comportamiento humano eludiendo el libre albedrío.

Categorización Biométrica Sensible: Prohíbe sistemas que utilizan características como creencias políticas, religiosas, orientación sexual o raza.

Reconocimiento Facial y Emocional: Prohíbe la creación de bases de datos de reconocimiento facial a partir de internet o CCTV, y el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.

Este marco legal también incide en la responsabilidad de los usuarios y empresas al interactuar con sistemas de IA. Por ejemplo, se exige que los usuarios sean conscientes de que están interactuando con máquinas, y se impone la necesidad de etiquetar los deepfakes y otros contenidos generados por IA. Las empresas que no cumplan con estas normativas enfrentarán multas significativas, que pueden variar entre 7,5 millones de euros o el 1,5% del volumen de negocio, hasta 35 millones o el 7% del volumen de negocio, dependiendo de la infracción y el tamaño de la empresa.

La adopción de esta ley por la UE, una región reconocida por su compromiso con el humanismo y los derechos fundamentales, probablemente influirá en la regulación de la IA en otros continentes. Su implementación y los desafíos que presenta, como el equilibrio entre innovación y respeto a los derechos humanos, y la adaptación de las empresas tecnológicas a estas normas, serán claves para el futuro de la IA a nivel mundial.

Written by Isabel Suárez

Soy una amante de la tecnología.