A mediados del año pasado la Comisión Europea se propuso el ambicioso objetivo de poner límites a lo que las inteligencias artificiales podrán y no podrán hacer en el futuro. O más concretamente qué dirección deberán adoptar para evitar problemas inesperados. No es una tarea sencilla si se considera que las implicaciones que esta tecnología tendrá a nivel laboral, económico e incluso social son probablemente incognoscibles.
El proyecto, dirigido en cierto grado por un "consejo de sabios" formado por
52 expertos independientes, llega ahora a una nueva fase con el lanzamiento de lo que se describe como un "piloto" durante el cual la Comisión Europea "invita" a empresas, institutos de investigación y autoridades públicas a poner a prueba las conclusiones de los expertos y asegurarse de que sus líneas maestras "pueden ser implementadas en la práctica".
De acuerdo con el comunicado oficial, la Comisión Europea recibirá ahora las opiniones al respecto antes de buscar un consenso internacional "para construir inteligencias artificiales centradas en el ser humano". Las mencionadas líneas maestras son las siguientes:
- Agencia humana y supervisión: los sistemas de IA deberán facilitar sociedades igualitarias apoyando la agencia humana y derechos fundamentales, y no mermar, limitar u orientar de forma negativa la autonomía humana.
- Robustez y seguridad: una IA confiable requiere que los algoritmos sean seguros, fiables y lo suficientemente robustos para lidiar con errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de IA.
- Privacidad y control de datos: los ciudadanos deberían tener el control absoluto sobre sus propios datos, al tiempo que los datos que les impliquen no puedan ser utilizados para causarles daño o discriminarles.
- Transparencia: la trazabilidad de los sistemas de IA debería ser asegurada.
- Diversidad, no discriminación y ecuanimidad: los sistemas de IA deberán considerar todo el rango de capacidades humanas, habilidades y requisitos, así como asegurar la accesibilidad
- Bienestar social y del entorno: los sistemas de IA deberán ser utilizados para promover un cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
- Responsabilidad: deberá haber mecanismos para asegurar la responsabilidad y rendición de cuentas para sistemas de IA y sus resultados.
El piloto, que tendrá lugar durante el verano, ahondará en estas cuestiones para explorar las implicaciones sociales de los sistemas de IA, acotando asuntos tan amplios y complejos como la responsabilidad y su posible adjudicación compartida en caso de fallo, que no es un asunto menor si se considera los enormes problemas que representan tecnologías como los
vehículos autónomos.
La Unión Europea ante el reto estratégico de la IALa implicación de la Comisión Europea en el desarrollo a largo plazo de la inteligencia artificial no es un mero trámite burocrático fruto de mentes aburridas. Es una cuestión
absolutamente estratégica. Las autoridades se han dado cuenta de que la Unión Europea lleva un considerable retraso en el desarrollo de sistemas de IA en relación a Estados Unidos, pionera en muchos aspectos, pero también de China, que ha avanzado drásticamente en muy poco tiempo gracias en parte a un potente sector tecnológico y a unas políticas de privacidad que en otras partes del mundo serían extraordinariamente intrusivas. Existe un auténtico sentido de urgencia por impulsar la inteligencia artificial desde posiciones europeas.
En este aspecto, resulta interesante que el comunicado señala a Japón, Canadá y Singapur como países con ideas similares en lo que respecta al futuro de la inteligencia artificial y con los que se podría contar de cara a conseguir consensos o equivalencias internacionales. Todo ello se inscribe en el seno de una
estrategia a nivel europeo con la que se busca conseguir una inversión anual mínima de 20.000 millones de euros anuales durante la próxima década entre organismos públicos y privados.
Fuente: Comisión Europea