La ley europea de IA perjudica a las Pymes
La ley europea de IA perjudica a las Pymes

La ley europea de IA perjudica a las Pymes

La actual redacción de la ley europea de IA perjudica a los proyectos de investigación de pequeñas y medianas empresas (Pymes). Por ejemplo, proyectos como GPT4All o Vicuna, de investigación y desarrollo comunitario, no podrán pasar el filtro porque carecen del apoyo económico de grandes empresas, como puede ser OpenAI.

Europa dio esta semana los primeros pasos oficiales para crear un marco regulatorio para la IA. El Parlamento Europeo informó en una nota que había adoptado su posición negociadora sobre la Ley de Inteligencia Artificial con 499 votos a favor, 28 en contra y 93 abstenciones. La votación se llevó a cabo antes de iniciar conversaciones con los Estados miembros de la UE sobre la forma final de la ley. Estos números subrayan las divisiones existentes en el seno de la Unión Europea sobre la conveniencia o no de establecer reglas que puedan poner en peligro la innovación y el desarrollo de la industria de la IA.

IA Pymes

El primer borrador de la Ley de Inteligencia Artificial (AI Act) fue creado tan solo 4 meses después de la llegada de ChatGPT. Llama la atención la rapidez con que fue elaborada, dado que buena parte de los expertos globales de IA no son capaces  de ver el alcance e impacto de la tecnología. En comparación, la regulación cripto, una tecnología mucho menos compleja y con la que hemos convivido por más de 14 años, acaba de estrenarse con MiCA.

Nefastos efectos para Europa en su Ley de IA si limita el Open Source

En su propuesta, el Parlamento Europeo informa que la ley prohíbe el empleo de sistemas de IA con un nivel de «riesgo inaceptable» para la seguridad de las personas. Esto afectará a sistemas como los usados para el scoring social (clasificación de personas en función de su comportamiento social o características personales). Igualmente, se prohíben los siguientes usos intrusivos y discriminatorios de la IA:

  1. Identificación biométrica remota «en tiempo real» en espacios de acceso público. Remota «a posteriori», con la única excepción de las fuerzas del orden para la persecución de delitos graves y solo previa autorización judicial.
  2. Categorización biométrica que utilice características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política)
  3. Sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores)
  4. Sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y
  5. Extracción no selectiva de imágenes faciales de Internet o de grabaciones de videovigilancia para crear bases de datos de reconocimiento facial (viola los derechos humanos y el derecho a la intimidad).

Scoring social con big data

Si bien es cierto que, un sistema de scoring social vería incrementada su capacidad utilizando una IA, la realidad es que esta tecnología no es necesaria para generar un sistema de scoring social funcional. Basta con hacer un análisis de big data de los usuarios para lograrlo. De hecho, un sistema de estas características costaría mucho menos y es una práctica que no está directamente prohibida en la actualidad.

La IA plantea una ética del futuro

Otro punto que llama la atención es la «identificación biométrica remota», algo para lo que la IA tampoco es 100% necesaria. Aunque los nuevos algoritmos de la IA pueden darnos tasas de identificación más altas, la tecnología de Computing Vision lleva entre nosotros desde hace casi 30 años.

Por ejemplo, OpenCV nació como proyecto en el año 2000. Durante todo este tiempo ha demostrado que para lograr resultados efectivos no es necesaria IA. OpenCV tiene actualmente algoritmos de IA para visión computacional, pero también tiene algoritmos que no necesitan IA y ofrecen excelentes resultados. En este punto se abre un gran interrogante sobre el futuro de las cámaras que utilizan estos algoritmos para captar imágenes de nuestros vehículos cuando circulamos en las autopistas.

IAs transnacionales

La ley también obliga a los proveedores de modelos de IA a evaluar y mitigar los posibles riesgos y registrar sus modelos en la base de datos de la UE antes de su comercialización en el mercado comunitario. Esto hace que modelos como ChatGPT, tengan que cumplir requisitos de transparencia y garantizar salvaguardias contra la generación de contenidos ilegales. Esto no representa ninguna dificultad para OpenAI y su enorme músculo financiero, ya que podrá sortear el problema fácilmente. Eso sí, todo esto llevará a un encarecimiento de sus servicios en Europa.

Los guionistas de cine en huelga temen que la IA haga su trabajo

El problema lo tendrán proyectos de investigación de Pymes o desarrollo comunitario de IA, como los citados más arriba. Especialmente, porque su competencia tiene una ventaja temporal y tecnológica. Tal y como está plantada la ley pareciera que Europa quiere convertirse en un área solo para IAs transnacionales.

Sandboxes

Para paliar el problema, los eurodiputados proponen la creación de sandboxes. Europa ha añadido recientemente exenciones en la ley, que contemplan las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto. Así, los sandboxes regulatorios se generarían con el fin de probar la IA antes de su despliegue público. El problema es que esto puede entorpecer el desarrollo de la IA en la región, tal y como han comentado algunos especialistas.

Geoffrey Hinton abandona Google para opinar de la IA con libertad

Las buenas intenciones de los eurodiputados, proponiendo cosas como impulsar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA o recibir explicaciones sobre las decisiones basadas en sistemas de IA, suenan excelentes, pero son impracticables. Sobre todo, cuando muchos profesionales ya están utilizando la IA para generar información para sus trabajos, sin detenerse a revisar y constatar la información. Incluso, cuando la mayoría de sistemas de IA actuales no son confiables, algo reconocido por la propias compañías creadoras de dichos sistemas.

También puedes seguirnos en nuestros canales de Telegram Twitter

Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola   
Privacidad