La Eurocámara ha aprobado finalmente, a fecha 13 de marzo de 2024, la Ley de Inteligencia Artificial. Su Reglamento había sido acordado en las negociaciones con los Estados miembros en diciembre del pasado año, y ahora es aprobado con 523 votos a favor, 46 en contra y 49 abstenciones.
La ley marca unos claros objetivos: la protección de los derechos fundamentales, el Estado de derecho, la democracia y la sostenibilidad medioambiental frente a la IA. Además, busca la innovación y el posicionamiento líder de Europa. Una apuesta que busca el equilibrio entre la seguridad, el respeto a los valores europeos y la innovación.
La primera ley global sobre la inteligencia artificial conocida como IA Act no entrará en vigor al menos hasta 2026. Sus puntos claves constatan los epígrafes cerrados en el acuerdo provisional marcando el camino de lo que se puede y lo que no se puede hacer.
Clasificación por riesgo
Cuatro niveles de riesgo que irán desde «mínimo» hasta «inaceptable», clasificando la IA según el riesgo. El grueso de la negociación fue determinar cuales eran inaceptables y por tanto, prohibidas: aquellas que trascienden la conciencia de una persona y conlleva el uso de técnicas manipuladoras que exploten las vulnerabilidades o interfieran en emoticones, razas y opiniones políticas de los ciudadanos.
Las infraestructuras críticas, la educación y la formación profesional , el empleo, los servicios públicos y privados esenciales tales como la sanidad o la banca, así como ciertos sistemas de fuerzas de seguridad, la migración y la gestión aduanera, la justicia o los procesos democráticos han sido declarados como ejemplos de usos de alto riesgo de la IA.
De tal manera conllevan una serie de obligaciones como mantener registros de uso, evaluar y reducir los riesgos, ser transparentes y precisos y contar siempre con una supervisión humana. Cuentan además los ciudadanos con el apoyo y oportunidad de presentar reclamaciones sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en ellos que afecten a los derechos de los ciudadanos.
Aplicaciones prohibidas
Buscando salvaguardar los derechos de los ciudadanos y la prevención de una amenaza a la democracia este punto clasificará las aplicaciones como sistemas biométricos de carácter sensible con capacidad de manipulación del ser humano. Aquellas como la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. Junto a esto se prohibirán los sistemas de puntuación ciudadana, la actuación policial predictiva o el reconocimiento de emociones en el lugar de trabajo.
Exenciones de las fuerzas de seguridad
El uso de sistemas de identificación biométrica queda prohibido a priori por parte de las fuerzas de seguridad a excepción de ciertas situaciones previamente definidas. Aquellas situaciones excepciones corresponden con situaciones en tiempo real que cumple unas salvaguardias escritas y cuyo uso es limitado en un periodo de tiempo y lugar específicos autorizados judicialmente. Ejemplo de estas prácticas sería la búsqueda de una persona desaparecida o la prevención de un atentado terrorista.
Sanciones
Las sanciones por violaciones del Reglamento de Inteligencia Artificial se han determinado como un porcentaje del volumen de negocios global anual de la empresa infractora en el ejercicio financiero previo. Las multas podrían ascender a 35 millones de euros, 7% del negocio por infracciones relacionadas con aplicaciones prohibidas; 15 millones o 3% por incumplimiento de las obligaciones establecidas; y 7,5 millones o 1,5% por proporcionar información incorrecta.
Regulación de identificación biométrica
Buscando la seguridad a la par que la protección de la privacidad. Este punto recoge el reconocimiento fácil, un acuerdo de limitaciones y otros requisitos. Incluso abre la posibilidad de cámaras de reconocimiento en lugares públicos bajo excepciones judiciales.
Regulación de modelos generativos de IA
Reglas concretas para modelos que generen las IA como Chat GPT, con el objetivo de garantizar la transparencia y abordar los problemas éticos y de seguridad relacionados con la generación autónoma de contenido.
Transparencia en derechos de autor
Se aborda la relación entre los derechos de autor y la IA exigiendo transparencia, el cumplimiento de las normativas de la UE sobre los derechos de autor y la divulgación de detallados resúmenes sobre el contenido utilizado en la formación. Tratando de garantizar la protección de los derechos de propiedad intelectual y la claridad en el uso de obras protegidas.
Aquellos modelos que podrían plantear riesgos sistémicos tendrán que cumplir requisitos adicionales como evaluaciones de modelos análisis y mitigación de dichos riesgos. Junto a esto, todas aquellas imágenes o contenido claramente falso deberá etiquetarse como tal.
Medidas de apoyo a la innovación y a las pymes
Se establecerán espacios regulados y controlados de pruebas y ensayos en disposición de las pymes y de las empresas emergentes para que puedan desarrollar y entrenar sus propias IA antes de la comercialización de la misma.
El Reglamento aún está en proceso de última revisión legal y lingüística. Se espera que sea aprobado definitivamente a través del procedimiento de corrección de errores antes de que termine la legislatura. Además, la ley debe ser formalmente adoptada por el Consejo. Una vez publicado en el Diario Oficial, el Reglamento entrará en vigor veinte días después. Sin embargo, su aplicación completa comenzará veinticuatro meses después de su entrada en vigor con algunas excepciones: las prohibiciones de prácticas se aplicarán seis meses después de la entrada en vigor, los códigos de buenas prácticas nueve meses después, las normas sobre inteligencia artificial de uso general, incluida la gobernanza, doce meses después y las obligaciones para los sistemas de alto riesgo treinta y seis mese después.
El componente de la comisión de Libertades Cibeles Dragos Tudorache (Rumanía) afirmó durante el debate que: «La UE ofrece resultados. Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que constituyen la base de nuestras sociedades. Sin embargo, hay mucho trabajo por delante que va más allá de la propia Ley de Inteligencia Artificial. La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora debemos centrarnos en la aplicación práctica de la legislación».