Europa quiere regular la IA pero podría dinamitar la innovación en el sector
Europa quiere regular la IA pero podría dinamitar la innovación en el sector

Nefastos efectos para Europa en su Ley de IA si limita el Open Source

La inteligencia artificial (IA) es una de las tecnologías más disruptivas y prometedoras de nuestro tiempo. Por ello, plantea importantes desafíos éticos, sociales y legales. En este contexto, Europa quiere regular la IA para garantizar que su uso respete los valores y derechos fundamentales de los ciudadanos, contribuyendo de esta manera al bien común.

Que la IA denominada AGI entienda los chistes no da ninguna risa

La Comisión lleva trabajando en la denominada Artificial Intelligence Act (en español, Ley de Inteligencia Artificial) desde el año 2021. La propia Unión Europea afirma que se trata de la primera propuesta de ley sobre inteligencia artificial de un regulador importante. Recientemente, se ha hablado mucho de la propuesta que, al parecer, atenta contra la innovación y el desarrollo open source (código abierto) de esta tecnología. Incluso, su más reciente modificación, acontecida este mes de mayo, lejos de solucionar el problema, ha encendido las alarmas de sectores de la innovación.

Europa lleva desde 2021 tratando de regular la IA
Europa trata de regular la IA desde 2021

Los sectores citados consideran que la propuesta de Bruselas es demasiado restrictiva, ambigua e injusta con los desarrolladores y usuarios de soluciones basadas en código abierto. Incluso, se dice que la regulación podría destruir por completo los proyectos de este tipo en la región.

¿Qué es el Open Source y por qué es importante para la IA?

El Open Source o código abierto es una filosofía que promueve el acceso libre y colaborativo al código fuente de un programa informático, permitiendo su modificación, mejora y distribución por parte de cualquier persona. El Open Source se basa en principios como la transparencia, la participación, la meritocracia y la innovación abierta.

Como filosofía, su desarrollo data de los tiempos de UNIX (años 60 y 70). En esos momentos la comunidad informática solía compartir el código fuente de mucho software, para adaptarlo a los distintos sistemas UNIX y no-UNIX que existían en aquellos años. Sin embargo, el verdadero despegue del software libre y open source se produjo en 1983, cuando Richard Stallman creó la Fundación GNU. A partir de ahí, comenzó todo.

La IA plantea una ética del futuro

Richard Stallman, la figura más relevante en el mundo Open Source.
Richard Stallman es la figura más relevante del mundo Open Source

 Gran impacto en nuestras vidas digitales

El impacto de la filosofía Open Source es tal que no hay espacio en el mundo de la informática donde no tenga su lugar. Incluso, sistemas privativos, como Windows o MacOS; sistemas operativos, como Android (totalmente Open Source) e IOS, cuentan con elementos de este tipo. El impacto del código abierto en nuestras vidas digitales es tal que quizá no sepas que estás usando software libre y Open Source para leer este post.

Los guionistas de cine en huelga temen que la IA haga su trabajo

Lo mismo sucede con el Open Source y la IA. No solo facilita el desarrollo y el avance de esta tecnología, al ofrecer una gran cantidad y variedad de datos, algoritmos y herramientas disponibles para todos. Si no que, también favorece la auditoría, la verificación y la explicación de los sistemas de IA, lo que contribuye a aumentar su confianza, calidad y seguridad.

Por ejemplo, el uso de herramientas IA como StableDiffusion, Alpaca o Vicuna, son posibles gracias a proyectos libres como Pytorch o Transformers. Por no hablar de lenguajes de programación libres. En este caso, Python es la columna vertebral de este tipo de sistemas en la actualidad y es un desarrollo totalmente open source.

Una regulación que atenta contra el Open Source

El borrador de reglamento de la Comisión Europea tiene como objetivo establecer un marco legal armonizado para regular el desarrollo, la comercialización y el uso de los sistemas de IA en la Unión Europea. Para ello, clasifica los sistemas de IA en cuatro categorías, según su nivel de riesgo: prohibido, de alto riesgo, de riesgo limitado y de riesgo mínimo.

WorldCoin, el plan cripto del creador de OpenAI para arreglar la IA con el iris

Los sistemas de IA prohibidos, son aquellos que atentan contra los derechos humanos o que manipulan el comportamiento humano. Los de alto riesgo, son aquellos que se utilizan en ámbitos sensibles, como la salud, la educación, la justicia o la seguridad pública. Por su parte, los sistemas de IA de riesgo limitado implican algún tipo de interacción con las personas, como los asistentes virtuales o los chatbots. Finalmente, los sistemas de IA de riesgo mínimo son los que no tienen lugar en ninguna de las categorías citadas.

Requisitos sin sentido

Hasta aquí, todo bien. Se trata de una taxonomía comprensible y lógica. Pero adicional a todo, existen una serie de requisitos y obligaciones para los proveedores y usuarios de los sistemas de IA, entre los que tenemos:

  1. Realizar una evaluación previa del impacto sobre los derechos fundamentales.
  2. Garantizar la calidad y representatividad de los datos utilizados para entrenar y validar los sistemas.
  3. Asegurar la trazabilidad y documentación adecuada de los procesos y resultados.
  4. Implementar medidas técnicas para garantizar la robustez, precisión y seguridad de los sistemas.
  5. Informar a los usuarios sobre el uso de un sistema de IA y obtener su consentimiento si se trata de datos personales.
  6. Facilitar a los usuarios información suficiente sobre las características, capacidades y limitaciones del sistema.
  7. Habilitar mecanismos para supervisar, controlar e intervenir en el funcionamiento del sistema.
  8. Establecer un sistema efectivo para recoger y gestionar las quejas y reclamaciones.
  9. Cumplir con las normas sobre responsabilidad civil por daños causados por un sistema defectuoso.

Todos estos requisitos significan una carga adicional para los proveedores y usuarios de sistemas de IA basados en Open Source.  El motivo es que tendrán que demostrar que cumplen con todas las exigencias legales, pero sin poder acceder a las mismas ventajas que los proveedores y usuarios de sistemas propietarios.

Limitaciones a la IA dentro de la AI Act de Europa
Limitaciones a la IA dentro de la AI Act de Europa

Retrasar la innovación

El problema es que existen demasiadas subjetividades y situaciones muy amplias en estos requisitos. Por ejemplo: «Cumplir con las normas sobre responsabilidad civil por daños causados por un sistema defectuoso.» Básicamente, esto significa que si un proyecto entrega una IA abierta, este sería responsable de los daños causados en caso de que el sistema se use mal o directamente se obvien advertencias sobre el mismo.

Los usos cotidianos de la IA

Un ejemplo práctico sería una IA libre para completar código (ej: Fauxpilot, un clon de GitHub Copilot usando Salesforce CodeGen). Si un programador utiliza esta IA libre para acelerar su trabajo y no cuida la calidad y seguridad de su software, ni hace pruebas a las sugerencias de la IA, el proyecto Fauxpilot y sus participantes pueden ser responsabilizados civilmente por los daños causados por ese mal software. Incluso, a sabiendas de que su programador no hizo el más mínimo esfuerzo por asegurar la calidad del software generado.

Las multas a las que se enfrentaría Fauxpilot podrían llegar hasta los 30 millones de euros. Para un proyecto que se construye con la colaboración de unas pocas personas, el coste es inasumible. El problema podría escalar hasta el origen del modelo,  Salesforce, que es la empresa privada que creó el modelo CodeGen y que lo ha liberado para que las personas puedan desarrollar nuevas funciones alrededor del mismo sin pagar un centavo por ello. La pregunta que cabe hacerse es si sabiendo que existe ese riesgo Salesforce seguiría con el desarrollo de Codegen. Probablemente, no. Esto supondría el fin de un potente vehículo de innovación.

Geoffrey Hinton abandona Google para opinar de la IA con libertad

Empresas estadounidenses

Las limitaciones impuestas al código Open Source van más allá. El reglamento prohíbe expresamente el uso de cualquier sistema generativo de código abierto en el territorio de la UE. Igualmente, el borrador deja claro que prohibiría a empresas estadounidenses como OpenAI, Amazon, Google o IBM proporcionar acceso API a modelos generativos de inteligencia artificial que no estén debidamente licenciados, controlados y aprobados por la UE.

Así, por ejemplo, GitHub tendría prohibido habilitar el acceso API a GitHub Copilot a no ser que este debidamente licenciado. De no hacerlo, podrían ser multados con hasta el 6% de todos sus ingresos. Sin duda, se trata de un modelo de regulación sin sentido. Un modelo que parece estar diseñado para frenar la innovación de la IA que trasciende las fronteras de Europa, en lugar de impulsar y acunar dicha innovación.

La ley europea de IA y la transparencia en los derechos de autor

A todo esto, hay que añadir que la extensibilidad de las capacidades de la IA está prohibida. Un ejemplo de esto, es la prohibición del uso de LoRA (una técnica para ampliar las capacidades de la IA con un coste mínimo). Este hecho afectaría, por ejemplo, a StableDiffusion, una IA donde este modelo es ampliamente usado para aumentar sus capacidades por medio de un entrenamiento mucho más sencillo y económico.

A la cola de la innovación

Los gigantes tecnológicos, como OpenAI, Microsoft, IBM, Google, Amazon o Nvidia, están situados en Estados Unidos. De hecho, el país norteamericano cuenta con más de 3.000 empresas y startups dedicadas al sector de la IA. En Europa, es Reino Unido quien lidera la industria de la IA, con más de 1600 startups. El resto de Europa no llega a las 700. En Asia, es China quien lidera ampliamente el sector, seguida de Japón y Corea del Sur.

Respecto a las cifras de inversión de la IA, el 68% va para EEUU. 18%, a China; y poco más del 8% a Europa. El resto del mundo se conforma con el 6% restante. El impacto de estos números se traduce en que ninguna de las grandes IA del momento están en  Europa. Las únicas son StableDiffusion y StableLM. Ambas pertenecen a Stability.AI, una empresa de Reino Unido.

Estos números demuestran que una buena regulación acompañada de adecuadas políticas de innovación sirven para impulsar el desarrollo del sector. La AI Act, Europa parece dirigirse en sentido totalmente opuesto.

También puedes seguirnos en nuestros canales de Telegram Twitter 

Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad