Ley de Inteligencia artificial de UE: una propuesta históricaLey de Inteligencia artificial de UE: una propuesta histórica

La Unión Europea (UE) ha logrado una propuesta histórica al aprobar la primera ley que regula la inteligencia artificial en el mundo. El Consejo y el Parlamento Europeo llegaron a un acuerdo sobre las primeras normas para la IA en el mundo con el objetivo de garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. La propuesta también tiene como objetivo estimular la inversión y la innovación en IA en Europa.

Ley Inteligencia artificial UE

La IA como fuente de malestar en las aulas universitarias españolas 

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial de España, ha calificado de logro histórico y un gran hito hacia el futuro la aprobación de la primera ley para regular la Inteligencia Artificial en el mundo. «El acuerdo aborda efectivamente un desafío global en un entorno tecnológico en rápida evolución en un área clave para el futuro de nuestras sociedades y economías. Y en este esfuerzo, logramos mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de la inteligencia artificial en toda Europa, respetando plenamente los derechos fundamentales de nuestros ciudadanos»

La Ley de IA es una iniciativa legislativa emblemática con el potencial de fomentar el desarrollo y la adopción de IA segura y confiable en todo el mercado único de la UE por parte de actores públicos y privados. La idea principal es regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque «basado en el riesgo»: cuanto mayor es el riesgo, más estrictas son las reglas.

Medios norteamericanos exigen a empresas de IA pagar por el contenido

Como primera propuesta legislativa de este tipo en el mundo, puede establecer un estándar global para la regulación de la IA en otras jurisdicciones, tal como lo ha hecho el reglamento general de protección de datos GDPR, promoviendo así el enfoque europeo de la regulación tecnológica en el escenario mundial.

Principales elementos del acuerdo provisional

En comparación con la propuesta inicial de la Comisión, los principales elementos nuevos del acuerdo provisional pueden resumirse de la siguiente manera:

  • Reglas sobre modelos de IA de propósito general de alto impacto que pueden causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo.
  • Un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE
  • Ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias.
  • Una mejor protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA.

Definiciones y alcance

El acuerdo de compromiso alinea la definición con el enfoque propuesto por la OCDE, para así garantizar que la definición de un sistema de IA proporcione criterios suficientemente claros para distinguir la IA de los sistemas de software más simples. Se aclara que el reglamento no se aplica a áreas fuera del alcance de la legislación de la UE y no debería, en ningún caso, afectar las competencias de los Estados miembros en materia de seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en esta área.

La española Kolokium ofrece comunicación entre máquinas con IA y blockchain

Además, la ley de IA no se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa. La regulación no se aplicaría a los sistemas de IA utilizados con el único fin de investigación e innovación. ni a personas que utilicen la IA por motivos no profesionales.

Clasificación de los sistemas de IA

Se prevé una capa horizontal de protección, incluida una clasificación de alto riesgo, para garantizar que no se capturen los sistemas de IA que probablemente no causen violaciones graves de los derechos fundamentales u otros riesgos importantes. Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves. Por ejemplo, revelar que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior. Se autorizará una amplia gama de sistemas de IA de alto riesgo, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE.

Kolokium certifica con blockchain procesos industriales generados con IA 

Se incluyen cambios que aclaran la asignación de responsabilidades y roles de los diversos actores en esas cadenas, en particular los proveedores y usuarios de sistemas de IA. También aclara la relación entre las responsabilidades en virtud de la Ley de IA y las responsabilidades que ya existen en virtud de otra legislación, como la legislación sectorial o de protección de datos de la UE pertinente.

Riesgo inaceptable

Para algunos usos de la IA, el riesgo se considera inaceptable y, por lo tanto, estos sistemas serán prohibidos en la UE. Se prohíbe, por ejemplo, la manipulación cognitiva conductual, la eliminación no selectiva de imágenes faciales de Internet o imágenes de CCTV (circuito cerrado por TV). El reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o la religión, creencias y algunos casos de vigilancia policial predictiva para individuos.

Excepciones de aplicación de la ley

Se acordaron varios cambios en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Se pretende reflejar la necesidad de respetar la confidencialidad de los datos operativos sensibles en relación con sus actividades. Por ejemplo, se introdujo un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar en caso de urgencia una herramienta de IA de alto riesgo que no haya pasado el procedimiento de evaluación de la conformidad. Sin embargo, también se ha introducido un mecanismo específico para garantizar que los derechos fundamentales estén suficientemente protegidos contra posibles usos indebidos de los sistemas de IA.

España publicará la norma para coches autónomos en 2024

En lo que respecta al uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público, se aclaran los objetivos cuando dicho uso sea estrictamente necesario para fines policiales y para los cuales, por tanto, debe permitirse excepcionalmente a las autoridades policiales utilizar dichos sistemas.

Sistemas de la IA de propósito general y modelos básicos

Se han añadido nuevas disposiciones para tener en cuenta situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes  (IA de propósito general) y en las que la tecnología de IA de propósito general se integra posteriormente en otro sistema de alto riesgo. Se acordaron reglas específicas para los modelos básicos, grandes sistemas capaces de realizar de manera competente una amplia gama de tareas distintivas, como generar vídeo, texto, imágenes, conversar en lenguaje lateral, informática o generar código informático. Los modelos de base deben cumplir con obligaciones específicas de transparencia antes de su comercialización.

Interrogantes de la IA generativa en los derechos de autor

Nueva arquitectura de gobernanza

Se crea una Oficina de IA dentro de la Comisión encargada de supervisar estos modelos de IA más avanzados, contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las normas comunes en todos los estados miembros. Un panel científico de expertos independientes asesorará a dicha Oficina de AI. La Junta de AI, que estará compuesta por representantes de los Estados miembros, seguirá siendo una plataforma de coordinación y un órgano asesor de la Comisión y otorgará un papel importante a los Estados miembros en la implementación del reglamento. Se creará un foro consultivo para las partes interesadas, como representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, para proporcionar conocimientos técnicos a la Junta de IA.

Penalizaciones

Las multas por violaciones de la ley de IA se establecieron como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Lo que equivaldría a 35 millones de euros o el 7% por violaciones de las aplicaciones de IA prohibidas. 15 millones de euros o el 3% por violaciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta.

El poder transformador de la IA generativa en los videojuegos

Sin embargo, se establecen límites más proporcionados a las multas administrativas para las pymes y las empresas de nueva creación en caso de infracción de las disposiciones de la Ley de IA. Se deja claro que una persona física o jurídica puede presentar una queja ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la Ley de IA y puede esperar que dicha queja se tramite de acuerdo con los procedimientos específicos de esa autoridad.

Transparencia y protección de los derechos fundamentales

Se prevé una evaluación del impacto sobre los derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo. También prevé una mayor transparencia con respecto al uso de sistemas de IA de alto riesgo. Se han modificado algunas disposiciones de la propuesta de la Comisión para indicar que ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo.

Además, las disposiciones recientemente añadidas hacen hincapié en la obligación de que los usuarios de un sistema de reconocimiento de emociones informen a las personas físicas cuando estén expuestas a dicho sistema.

Medidas de apoyo a la innovación

Se ha aclarado que los entornos limitados de pruebas regulatorios de IA , que se supone que deben establecer un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real. Además, se han agregado nuevas disposiciones que permiten probar sistemas de IA en condiciones del mundo real, bajo condiciones y salvaguardias específicas.

Reino Unido acoge la 1ª Cumbre Global sobre Seguridad de la IA

Para aliviar la carga administrativa para las empresas más pequeñas, el acuerdo provisional incluye una lista de acciones que deben emprenderse para apoyar a dichos operadores y prevé algunas derogaciones limitadas y claramente especificadas.

 Entrada en vigor

El acuerdo provisional establece que la ley sobre IA debería aplicarse dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas. Para ello en las próximas semanas se seguirá trabajando a nivel técnico para ultimar los detalles del nuevo reglamento. La Presidencia presentará el texto transaccional a los representantes de los Estados miembros para su aprobación una vez concluido este trabajo. El texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores.

Alfredo Collosa
Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad