El nuevo marco legislativo busca regular el uso de las tecnologías de inteligencia artificial con el propósito de "proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector". Huelga decir que, a pesar de la votación, no todos los expertos están de acuerdo con la viabilidad de cada uno de esos puntos.
La nueva Ley de Inteligencia Artificial introduce normas que prohíben el uso de IA en la captación de datos biométricos a gran escala, "como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial" (extremo que tuvo una enorme oposición política y empresarial), aunque hace una excepción para las fuerzas de seguridad bajo situaciones "muy concretas y bien definidas", con el añadido de que los sistemas de monitorización en tiempo real deberán limitarse a lugares y periodos limitados bajo autorización de un juez o el correspondiente proceso administrativo.
Asimismo, el texto prevé la necesidad de evaluar y reducir riesgos en el uso de tecnologías de IA en "infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)", así como el cumplimiento de normas de transparencia que incluyen la revelación, en forma de resúmenes, de los contenidos utilizados para entrenar las IA.
La severidad de las regulaciones dependerá del nivel de riesgo apreciado en una IA y sus posibles usos, yendo desde el nivel mínimo (como filtros de contenidos) al inaceptable (objetivamente peligrosos para la seguridad de los estados o las personas).
Entre los ejemplos de IA con un riesgo intolerable y por lo tanto prohibidas se encuentran los sistemas de categorización por IA que usen características como inclinación política, orientación sexual o religión, la captación sin filtro de rostros vía internet o circuito cerrado, los sistemas de crédito social "basados en comportamiento social o características personales", el reconocimiento de emociones en el puesto de trabajo y los centros de educación, los sistemas de IA que manipulan las emociones humanas para sortear el libre albedrío y aquellos que "usados para explotar las vulnerabilidades de la gente", tales son su edad o situación económica.
El incumplimiento de la ley se castigará con una multa equivalente a un porcentaje de los ingresos globales de la empresa infractora o una cantidad fija, escogiéndose siempre la cuantía más elevada: 35 millones de euros o 7% de los ingresos por infracciones en aplicaciones de IA prohibidas, 15 millones o 3% por infringir las obligaciones de la ley y 7,5 millones o 1,5% por proporcionar información incorrecta.
Dependiendo de a quién se pregunte, la nueva regulación supone un importante paso adelante en la protección de los ciudadanos o un tiro en el pie del sector tecnológico europeo, que no podrá innovar al mismo tiempo que el de países como China o Estados Unidos. Sea como sea, su paso exitoso por el Parlamento implica que ya solo queda el proceso de corrección y su posterior aprobación por el Consejo, que se da por hecha.