Cinco claves de la Ley de Inteligencia Artificial que entra en vigor en la UE este 1 de agosto

  • Algunas de las obligaciones, como las relacionadas con sistemas de IA de alto riesgo, no serán de aplicación plena hasta 2027

El 1 de agosto entra en vigor en la Unión Europea la Ley de Inteligencia Artificial (IA), la primera del mundo para regular unos sistemas que permiten actuar de manera más precisa y eficiente que los humanos en muchos ámbitos e impulsar la innovación, pero que a la vez plantean importantes riesgos que el nuevo marco común trata de evitar.

Estas son las cinco claves principales del Reglamento de Inteligencia Artificial:

OBJETIVOS

Establecer un marco jurídico armonizado en la Unión Europea para el desarrollo, la comercialización, la puesta en marcha y el uso de los sistemas de Inteligencia Artificial (IA), un área que puede generar muchos beneficios pero que conlleva riesgos.

A la vez, impulsar la innovación y erigir a Europa en líder del sector. Los diferentes niveles de riesgo implicarán una mayor o menor regulación.

Obras de arte que cobran vida gracias a la Inteligencia Artificial
Obras de arte que cobran vida gracias a la Inteligencia Artificial
Obras de arte que cobran vida gracias a la Inteligencia Artificial

Obras de arte que cobran vida gracias a la Inteligencia Artificial

A QUIÉN SE APLICA

Las normas se aplican a los proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, con independencia de su origen.

También a usuarios de los mismos, considerando usuarios a quienes explotan esos sistemas.

No se aplica a las autoridades públicas de terceros países ni a organizaciones internacionales cuando utilicen sistemas IA en el ámbito de la cooperación policial o judicial con la UE.

Tampoco a los sistemas de uso militar o utilizados en el contexto de la seguridad nacional, ni a los usados con el solo propósito de la investigación y el desarrollo científico.

IRSST: Las nuevas tecnologías implicarán nuevos riesgos para la salud que se deben prevenir
IRSST: Las nuevas tecnologías implicarán nuevos riesgos para la salud que se deben prevenir
IRSST: Las nuevas tecnologías implicarán nuevos riesgos para la salud que se deben prevenir

IRSST: Las nuevas tecnologías implicarán nuevos riesgos para la salud que se deben prevenir

SISTEMAS DE IA PROHIBIDOS

Algunos sistemas de IA o usos de la IA están prohibidos porque contradicen los valores de la UE, incluido el derecho a la no discriminación, la protección de datos y la privacidad.

Entre ellos se incluyen los que desplieguen técnicas subliminales para distorsionar el comportamiento de una persona de manera que pueda causarle daños físicos o psicológicos a él o a otros.

Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual.

Avatares, robots de duelo, chatbots... la IA ya permite recrear a los muertos y hablar con ellos
Avatares, robots de duelo, chatbots... la IA ya permite recrear a los muertos y hablar con ellos
Avatares, robots de duelo, chatbots... la IA ya permite recrear a los muertos y hablar con ellos

Avatares, robots de duelo, chatbots... la IA ya permite recrear a los muertos y hablar con ellos

Y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.

También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de "puntuación" de las personas en función de su comportamiento o características, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

EXCEPCIONES

Los sistemas de identificación biométrica "en tiempo real" solo se podrán emplear si se cumplen una serie de salvaguardias. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista.

Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Martín Piqueras: "La IA no nos hará más tontos pero debemos ser más críticos"
Martín Piqueras: "La IA no nos hará más tontos pero debemos ser más críticos"
Martín Piqueras: "La IA no nos hará más tontos pero debemos ser más críticos"

Martín Piqueras: "La IA no nos hará más tontos pero debemos ser más críticos"

SISTEMAS DE IA DE ALTO RIESGO

Los sistemas de IA de alto riesgo pueden presentar un riesgo potencialmente alto para los derechos y libertades de las personas físicas y, por lo tanto, están sujetos a obligaciones estrictas.

Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas o la educación y la formación profesional, y el empleo.

Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana.

Apple presenta 'Intelligence' un sistema de IA "personal" integrado en iPhone, iPad y Mac
Apple presenta 'Intelligence' un sistema de IA "personal" integrado en iPhone, iPad y Mac
Apple presenta 'Intelligence' un sistema de IA "personal" integrado en iPhone, iPad y Mac

Apple presenta 'Intelligence' un sistema de IA "personal" integrado en iPhone, iPad y Mac

En el área del empleo, se consideran de alto riesgo los sistemas destinados a ser utilizados para el reclutamiento o la selección de empleados o para supervisar y evaluar su rendimiento y comportamiento.

También los que se utilicen para evaluar la solvencia de las personas físicas o establecer su puntuación crediticia.

En el ámbito de la educación, entran en esta categoría los sistemas que se usen para determinar el acceso a las instituciones educativas o para supervisar y detectar el comportamiento prohibido de los estudiantes durante los exámenes.

OpenAI entrena ya su nuevo modelo de ChatGPT
OpenAI entrena ya su nuevo modelo de ChatGPT
OpenAI entrena ya su nuevo modelo de ChatGPT

OpenAI entrena ya su nuevo modelo de ChatGPT

SISTEMAS CON REQUISITO DE TRANSPARENCIA

Sus responsables deben cumplir requisitos e informar para no engañar a los consumidores, haciéndoles creer que interactúan con personas reales o con contenidos creados por ellas, por ejemplo, los propietarios de chatbots o creadores de 'deepfakes'.

Detenidos tres menores por distribuir imágenes falsas de carácter sexual de otras menores de edad
Detenidos tres menores por distribuir imágenes falsas de carácter sexual de otras menores de edad
Detenidos tres menores por distribuir imágenes falsas de carácter sexual de otras menores de edad

Detenidos tres menores por distribuir imágenes falsas de carácter sexual de otras menores de edad

SISTEMAS DE IA DE PROPÓSITO GENERAL

No tienen un propósito previsto inicial, pero pueden ser entrenados o modificados para cumplir un propósito que podría convertirlos en sistemas de alto riesgo.

Por tanto, deberán cumplir ciertos requisitos, que serán los que se aplican a los Sistemas de Inteligencia Artificial de Alto Riesgo, pero adaptados.

Diagnostican enfermedades tropicales con un móvil y una IA
Diagnostican enfermedades tropicales con un móvil y una IA
Diagnostican enfermedades tropicales con un móvil y una IA

Diagnostican enfermedades tropicales con un móvil y una IA

MULTAS

Se modularán según las circunstancias y valorarán el tamaño del proveedor. Para quienes incumplan la normativa se prevén multas con un rango que va desde los 35 millones de euros (37,6 millones de dólares) o el 7 % del volumen global de negocio de las empresas, hasta los 7,5 millones de euros (8 millones de dólares) o el 1,5 % del volumen global de negocio.

FASES DE APLICACIÓN

Tras su entrada en vigor este 1 de agosto, será de plena aplicación veinticuatro meses después, con excepción de las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor, es decir, en febrero de 2025).

En agosto de 2025 empezarán a aplicarse las normas para los modelos de uso generalista, como ChatGPT, y un año después, en agosto de 2026, se aplicará la ley de manera general, salvo algunas disposiciones.

Las obligaciones para los sistemas de alto riesgo comenzarán a aplicarse treinta y seis meses después, en agosto de 2027.