Tras un largo y proceloso recorrido de algo más de tres años, la Ley de Inteligencia Artificial de la Unión Europea está lista para recibir el sello de aprobación. El Parlamento ha votado un texto que ya se considera básicamente definitivo, y además lo ha hecho con una mayoría arrolladora considerando lo delicado de algunos de los puntos observados: 523 votos a favor, 46 en contra y 49 abstenciones.
El nuevo marco legislativo busca regular el uso de las tecnologías de inteligencia artificial con el propósito de "proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector". Huelga decir que, a pesar de la votación, no todos los expertos están de acuerdo con la viabilidad de cada uno de esos puntos.
La nueva Ley de Inteligencia Artificial introduce normas que prohíben el uso de IA en la captación de datos biométricos a gran escala, "como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial" (extremo que tuvo una enorme oposición política y empresarial), aunque hace una excepción para las fuerzas de seguridad bajo situaciones "muy concretas y bien definidas", con el añadido de que los sistemas de monitorización en tiempo real deberán limitarse a lugares y periodos limitados bajo autorización de un juez o el correspondiente proceso administrativo.
Asimismo, el texto prevé la necesidad de evaluar y reducir riesgos en el uso de tecnologías de IA en "infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)", así como el cumplimiento de normas de transparencia que incluyen la revelación, en forma de resúmenes, de los contenidos utilizados para entrenar las IA.
La severidad de las regulaciones dependerá del nivel de riesgo apreciado en una IA y sus posibles usos, yendo desde el nivel mínimo (como filtros de contenidos) al inaceptable (objetivamente peligrosos para la seguridad de los estados o las personas).
Entre los ejemplos de IA con un riesgo intolerable y por lo tanto prohibidas se encuentran los sistemas de categorización por IA que usen características como inclinación política, orientación sexual o religión, la captación sin filtro de rostros vía internet o circuito cerrado, los sistemas de crédito social "basados en comportamiento social o características personales", el reconocimiento de emociones en el puesto de trabajo y los centros de educación, los sistemas de IA que manipulan las emociones humanas para sortear el libre albedrío y aquellos que "usados para explotar las vulnerabilidades de la gente", tales son su edad o situación económica.
El incumplimiento de la ley se castigará con una multa equivalente a un porcentaje de los ingresos globales de la empresa infractora o una cantidad fija, escogiéndose siempre la cuantía más elevada: 35 millones de euros o 7% de los ingresos por infracciones en aplicaciones de IA prohibidas, 15 millones o 3% por infringir las obligaciones de la ley y 7,5 millones o 1,5% por proporcionar información incorrecta.
Dependiendo de a quién se pregunte, la nueva regulación supone un importante paso adelante en la protección de los ciudadanos o un tiro en el pie del sector tecnológico europeo, que no podrá innovar al mismo tiempo que el de países como China o Estados Unidos. Sea como sea, su paso exitoso por el Parlamento implica que ya solo queda el proceso de corrección y su posterior aprobación por el Consejo, que se da por hecha.
El nuevo marco legislativo busca regular el uso de las tecnologías de inteligencia artificial con el propósito de "proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector". Huelga decir que, a pesar de la votación, no todos los expertos están de acuerdo con la viabilidad de cada uno de esos puntos.
La nueva Ley de Inteligencia Artificial introduce normas que prohíben el uso de IA en la captación de datos biométricos a gran escala, "como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial" (extremo que tuvo una enorme oposición política y empresarial), aunque hace una excepción para las fuerzas de seguridad bajo situaciones "muy concretas y bien definidas", con el añadido de que los sistemas de monitorización en tiempo real deberán limitarse a lugares y periodos limitados bajo autorización de un juez o el correspondiente proceso administrativo.
Asimismo, el texto prevé la necesidad de evaluar y reducir riesgos en el uso de tecnologías de IA en "infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones)", así como el cumplimiento de normas de transparencia que incluyen la revelación, en forma de resúmenes, de los contenidos utilizados para entrenar las IA.
La severidad de las regulaciones dependerá del nivel de riesgo apreciado en una IA y sus posibles usos, yendo desde el nivel mínimo (como filtros de contenidos) al inaceptable (objetivamente peligrosos para la seguridad de los estados o las personas).
Entre los ejemplos de IA con un riesgo intolerable y por lo tanto prohibidas se encuentran los sistemas de categorización por IA que usen características como inclinación política, orientación sexual o religión, la captación sin filtro de rostros vía internet o circuito cerrado, los sistemas de crédito social "basados en comportamiento social o características personales", el reconocimiento de emociones en el puesto de trabajo y los centros de educación, los sistemas de IA que manipulan las emociones humanas para sortear el libre albedrío y aquellos que "usados para explotar las vulnerabilidades de la gente", tales son su edad o situación económica.
El incumplimiento de la ley se castigará con una multa equivalente a un porcentaje de los ingresos globales de la empresa infractora o una cantidad fija, escogiéndose siempre la cuantía más elevada: 35 millones de euros o 7% de los ingresos por infracciones en aplicaciones de IA prohibidas, 15 millones o 3% por infringir las obligaciones de la ley y 7,5 millones o 1,5% por proporcionar información incorrecta.
Dependiendo de a quién se pregunte, la nueva regulación supone un importante paso adelante en la protección de los ciudadanos o un tiro en el pie del sector tecnológico europeo, que no podrá innovar al mismo tiempo que el de países como China o Estados Unidos. Sea como sea, su paso exitoso por el Parlamento implica que ya solo queda el proceso de corrección y su posterior aprobación por el Consejo, que se da por hecha.
A ver si alguien empieza a denunciar a juegos como servicio que hacen cosas así ...
Y se puede trasladar a todo, amigos, pareja ..
Mientras no tengas q verlos físicamente..(de aquí a unos añitos ni eso, como Terminator) [carcajad]
Con lo que lleva pasando, ahora pienso que si un gigante tecnológico hace lo que le da la gana y colecciona fotos de nuestras caras o lo que sea, la UE como mucho le pondrá una multa de unos cuantos cientos de millones que podrán pagar sin problemas porque habrán ganado muchísimo más dinero saltándose a conciencia la ley y que aún así recurrirán las veces que pueda para no pagarla con la inestimable ayuda de su ejército de abogados sin escrúpulos. Es lo que le pasó a Apple hace unos días (ya veremos si paga), con el tema del Dieselgate de Volkswagen o con los diferentes vertidos de crudo al mar y atentados medioambientales similares.
Después están las excepciones, que como era de esperar se centran en las fuerzas de "seguridad", que queda claro que existen para proteger los intereses de los ricos, y para nada nuestra seguridad. Entiendo que suena razonablemente necesario utilizar cuantos medios estén a nuestro alcance para prevenir atentados y tener controlados grupos extremistas, pero esa misma herramienta también se puede acabar usando para fines políticos o incluso personales, como ocurrió en la NSA en EEUU donde un agente usó el sistema para cosas de cuernos de su pareja y esas mierdas. Fijo que acabó mejor que Edward Snowden por denunciarlo. Demasiado poder es demasiada tentación, en especial determinados perfiles psicológicos de gente especialmente inteligente a la que le motiva llegar a esos puestos. Esto hay que decirlo más.
Lo que sí veo positivo de esta ley es que podrá aplicarse, ya veremos si se cumple, para evitar la proliferación de empresas que trafican con nuestros datos biométricos, aunque por desgracia parece que no incluyen nuestros datos de consumo. Imagino que eso implicaría a los bancos, empresas de telefonía y supermercados, y con esa gente no se van a meter. El caso es que desde hace un tiempo veo empresuchas que te hacen análisis de ADN para "descubrir tus raíces". También hubo quien pagó para escanear retinas, que eso ya es descaradísimo. Ese tipo de negocios tienen información biométrica de la más alta calidad para vender al mejor postor (para qué si no), sin importarle un carajo si quien paga es una empresa con las peores intenciones, una dictadura saudita, el puto Mossad o [insertar].
Y hasta aquí mi post conspiranoico de marzo. Muchas gracias por llegar hasta aquí.
¿Y cómo promueves un desarrollo ético y responsable si no lo regulas?
Cita de un europarlamentario en privado.
Todo el texto que han puesto, quitas la palabra IA y pones "tecnologia" y no cambia de significado.
Han visto un filon muy importante para legislar al maximo la tecnologia de cualquier tipo. Hasta ahora no tenian manera de legislar la tecnologia sin que se notase demasiado que era para controlar y coartar libertades.
Ahora con el cuenta de "que viene la IA" , y la gente ya con mentalidad sumisa por las peliculas hollywodienses ha sido coser y cantar.
Entre el "euro digital", la "identidad digital", y esto, welcome to 1984
Es vergonzoso.