Ley de IA de Europa obliga a ChatGPT a cumplir derechos de autor
Ley de IA de Europa obliga a ChatGPT a cumplir derechos de autor

Ley de IA de Europa obliga a ChatGPT a cumplir derechos de autor

La Ley de IA aprobada recientemente en Europa por el Parlamento no considera de alto riesgo la IA generativa, como ChatGPT, pero deberá cumplir requisitos de transparencia en materia de derechos de autor. Así, deberá revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Europa, IA y derechos autor

En cuanto a los modelos de IA de uso general que cuenten con un alto impacto y que pudieran plantear un riesgo sistémico, como el modelo de IA más avanzado GPT-4, tendrán que someterse a evaluaciones exhaustivas e informar a la Comisión de cualquier incidente grave. Asimismo, el contenido que haya sido generado o modificado con la ayuda de la IA, como imágenes, audio o vídeos (por ejemplo, las «ultrafalsificaciones»), tendrá que etiquetarse claramente como tal.

LEY DE INTELIGENCIA ARTIFICIAL DE LA UE: UNA PROPUESTA HISTÓRICA

El Parlamento Europeo aprobó la Ley de Inteligencia Artificial con el objetivo de garantizar la seguridad y el respeto de los derechos fundamentales, al tiempo que impulsa la innovación. El Reglamento, acordado en las negociaciones con los estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones. Europa tiene así, la primera ley integral sobre inteligencia artificial (IA) del mundo.

El Parlamento Europeo informó que su prioridad es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales, indica el citado organismo. El Parlamento Europeo quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.

Aplicaciones prohibidas

La Ley prohíbe las aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía. Como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial. También se prohibe el reconocimiento de emociones en el lugar de trabajo y en las escuelas. Los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características). Así como la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

TAREAS DE LA OFICINA EUROPEA DE INTELIGENCIA ARTIFICIAL

Exenciones de las fuerzas de seguridad

El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, excepto en situaciones muy concretas y bien definidas. Los sistemas de identificación biométrica «en tiempo real» solo se podrán emplear si se cumplen una serie de salvaguardias estrictas. Su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Por ejemplo, entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.

Obligaciones para los sistemas de alto riesgo

La ley prevé obligaciones claras para otros sistemas de IA de alto riesgo, debido a que pueden resultar muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (sanidad o banca). Así como determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos, como la capacidad de influir en las elecciones.

Dichos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Derechos fundamentales

Se prevé una evaluación del impacto sobre los derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de inteligencia artificial de alto riesgo. También prevé una mayor transparencia con respecto al uso de sistemas de IA de alto riesgo. Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos.

Medidas de apoyo a las pymes y próximos pasos

La ley dice que habrá que poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA antes de su comercialización. El Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo.

La normativa entrará en vigor veinte días después de su publicación en el Diario Oficial y será de plena aplicación 24 meses después de su entrada en vigor, con excepción de: las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor). Los códigos de buenas prácticas (nueve meses después). Las normas sobre la IA de uso general, incluida la gobernanza (doce meses después); y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).

Alfredo Collosa
Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad