La ley europea de IA exige transparencia en derechos de autor
La ley europea de IA exige transparencia en derechos de autor

La ley europea de IA y la transparencia en los derechos de autor

El uso gratuito de datos protegidos por derechos de autor por compañías desarrolladoras de inteligencia artificial (IA) es uno de los asuntos que aborda la Ley europea sobre IA. Muchos de estos datos provienen de la web y han sido utilizados por las compañías desarrolladoras de esta tecnología sin el permiso de sus propietarios. Por ejemplo, empresas como OpenAI, propietaria del popular ChatGPT, no ha desvelado la procedencia de los datos utilizados en la creación de su software.

Samsung prohíbe a sus empleados usar IA generativa como ChatGPT

En este sentido, los eurodiputados confirmaron propuestas anteriores para imponer obligaciones más estrictas a los modelos básicos, una subcategoría de IA de propósito general que incluye a ChatGPT. El único cambio significativo de última hora se produjo en los modelos generativos de IA, que tendrían que diseñarse y desarrollarse conforme a la legislación de la UE y los derechos fundamentales, incluida la libertad de expresión.

IA derechos de autor

La ley contempla que las empresas que desarrollen IA generativa, como ChatGPT, deben ser transparentes en una cuestión fundamental: el uso de materiales blindados por derechos de autor para el entrenamiento de sus algoritmos. Las empresas que implementen herramientas de IA generativa, como ChatGPT o el generador de imágenes Midjourney, también deberán divulgar cualquier material protegido por derechos de autor utilizado para desarrollar sus sistemas.

La IA plantea una nueva forma de ejercer el periodismo

Este asunto es de gran importancia debido a que el uso de material protegido por copyright para el entrenamiento de la IA ha provocado roces entre autores y desarrolladores. Uno de los ejemplos más mediáticos, lo protagonizó en febrero la popular agencia Getty. La agencia denunció a Stable Diffusion en EEUU por considerar que había copiado de 12 millones de sus imágenes para perfeccionar su modelo de IA.

Protección de derechos fundamentales

La Comisión Europea comenzó a redactar la Ley de IA hace casi dos años para regular la tecnología de inteligencia artificial (IA),  que experimentó un gran auge en inversión y popularidad tras el lanzamiento del chatbot ChatGPT de OpenAI. La propuesta tiene como objetivo fundamental garantizar la protección de los derechos fundamentales y la seguridad de los usuarios, así como la confianza en el desarrollo y la adopción de la IA.

Geoffrey Hinton abandona Google para opinar de la IA con libertad

Recientemente, después de meses de intensas negociaciones, los miembros del Parlamento Europeo superaron sus diferencias y llegaron a un acuerdo político provisional. El texto aún podría estar sujeto a ajustes menores a nivel técnico antes de la votación del comité clave, programado para el 11 de mayo, pero se espera que pase a votación plenaria a mediados de junio. Al ser un Reglamento se aplicará inmediatamente en los 27 países de la UE sin necesidad de transponerlo a la normativa nacional.

Clasificación de riesgos

La clasificación de riesgo de la introducción de aplicaciones de la IA se basa en el propósito previsto del sistema de IA, de acuerdo con la legislación de seguridad existente de productos de la UE. Esto significa que la clasificación del riesgo depende de la función realizada por el sistema de IA y del propósito específico y las modalidades para las que se utiliza el sistema. La regulación propuesta divide los sistemas de IA en torno a cuatro niveles de riesgo, a los que le imponen obligaciones en función de su categorización:

Sistemas de IA prohibidos. Se recogen una serie de sistemas de IA, listados de forma tasada y periódicamente revisados, cuyo uso estaría prohibido por implicar un riesgo inadmisible para la seguridad, la vida y los derechos fundamentales. Dicho listado incluye sistemas capaces de manipular el comportamiento humano, predecir información respecto a colectivos o grupos para identificar sus vulnerabilidades o circunstancias especiales.

Te mostramos cómo activar y probar la IA del navegador Opera

También se prohíben aquellos que impliquen la identificación biométrica o la video vigilancia masiva en directo por parte de las autoridades en espacios públicos. Respecto a estos últimos, solo se permiten para el cumplimiento de la ley, bajo autorización judicial o administrativa. No obstante, dicha autorización puede ser solicitada con posterioridad a su implementación en casos de «extrema urgencia«, lo que puede reabrir de nuevo el debate.

Infraestructuras críticas

Sistemas de IA de alto riesgo. Se listan otros sistemas de IA que, si bien no están prohibidos, suponen un «alto riesgo» para los derechos y libertades de los individuos. Por consiguiente, deben estar sujetos a ciertas obligaciones reforzadas que garanticen su uso legal, ético, robusto y seguro. Este listado también está tasado y sujeto a revisión periódica en un futuro para adaptarlo a las nuevas tecnologías.

La IA está revolucionando la medicina 

Los sistemas comprendidos en esta categoría incluyen componentes de seguridad aplicables a sectores regulados o infraestructuras críticas. Como el transporte aéreo, vigilancia de vehículos a motor o el transporte ferroviario. También se incluirían sistemas de identificación y categorización biométrica, selección de personal, control de fronteras o sistemas dirigidos a verificar el cumplimiento de la ley o evaluación de la situación crediticia de las personas, entre otros.

Chatbots

Sistemas de IA de riesgo medio/bajo. Sistemas que no suponen un alto riesgo para los derechos y libertades. Se incluyen aquí determinadas tecnologías de menor sofisticación o capacidad de intrusión. Entre otras, asistentes virtuales (chatbots). Cuando se utilizan sistemas de IA como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada para continuar o dar un paso atrás.

Resto de sistemas de IA. Estos últimos, en principio, no estarían sujetos a ninguna obligación en particular, pudiendo los agentes de la cadena elegir si desean adherirse a sistemas voluntarios de cumplimiento. Por consiguiente, estos sistemas quedarían, en principio, fuera del ámbito de aplicación del Reglamento.

Sistemas prohibidos

La regulación de la IA también prohíbe la manipulación «intencionada». La palabra intencional fue objeto de debate, ya que la intencionalidad podría ser difícil de probar; sin embargo, se mantuvo. El uso de software impulsado por IA de reconocimiento de emociones está prohibido en las áreas de aplicación de la ley, gestión de fronteras, lugar de trabajo y educación.

La prohibición de los legisladores de la UE sobre la vigilancia predictiva se amplió de los delitos penales a los administrativos. El motivo fue el escándalo de las prestaciones por hijos a cargo de los Países Bajos, que vio a miles de familias incriminadas injustamente por fraude debido a un algoritmo fluido.

Algunas organizaciones, como Amnistía Internacional esgrimen que la Ley es una oportunidad para poner fin al uso de sistemas de IA discriminatorios que violan derechos. Deben prohibirse el uso de sistemas discriminatorios de IA que afectan desproporcionadamente a miembros de comunidades marginadas, como las personas migrantes, refugiadas y solicitantes de asilo.

La introducción de IA en Linkedin permitirá tener amigos bot

Vigilancia masiva

También deben prohibirse el uso de tecnologías de vigilancia masiva, como las herramientas de identificación biométrica remotas retrospectivas y en directo. La propuesta legislativa debe prohibir también los sistemas discriminatorios de puntuación social (social scoring) que impiden el acceso de ciertas personas a servicios públicos y privados esenciales, como las prestaciones de apoyo a la infancia y la educación.

Igualmente, deben implementarse medidas contundentes de rendición de cuentas y transparencia cuando organismos públicos y privados usen sistemas de IA en la UE. Estos actores deben revelar su uso de sistemas de IA de alto riesgo y publicar evaluaciones exhaustivas de su impacto en los derechos humanos. Esto es importante para que las personas perjudicadas por sistemas de IA puedan pedir resarcimiento. La Ley de IA debería establecer un mecanismo destinado a este fin.

También puedes seguirnos en nuestros canales de Telegram Twitter 

Alfredo Collosa
Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad