Europa tiene 1º tratado para que la IA respete los derechos de las personas
Europa tiene 1º tratado para que la IA respete los derechos de las personas

Europa tiene el 1º tratado para que la IA respete los derechos de las personas

El Consejo de Europa ha adoptado el primer tratado mundial jurídicamente vinculante destinado a garantizar que la IA respetará los derechos de las personas en Europa. También garantizará el respeto del Estado de Derecho y las normas jurídicas democráticas en el uso de los sistemas de inteligencia artificial.

Este Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y derechos humanos, democracia y Estado de derecho, fue adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa, que reúne a los ministros de Asuntos Exteriores de los 46 Estados miembros del Consejo de Europa. Cabe destacar que el mismo también está abierto a países no europeos.

Primer tratado mundial sobre IA en Europa

La secretaria general del Consejo de Europa, Marija Pejčinović, ha indicado que el Convenio Marco sobre Inteligencia Artificial es el primer tratado mundial de este tipo, que garantizará que la IA respete los derechos de las personas. El Convenio surge como  respuesta a la necesidad de una norma jurídica internacional, respaldada por Estados de distintos continentes que comparten los mismos valores, para aprovechar los beneficios de la IA, pero mitigando sus riesgos. Así, el nuevo tratado, pretende garantizar un uso responsable de la IA, que respete los derechos humanos, el Estado de derecho y la democracia.

EL DÍA QUE LA IA DECIDA LAS GUERRAS, ESE DÍA SERÁ LA ÚLTIMA GUERRA

Es convenio es el resultado de dos años de trabajo de un órgano intergubernamental, el Comité sobre Inteligencia Artificial (CAI por sus siglas en inglés). Para redactar el tratado, el CAI reunió a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos, Israel, Japón, México, Perú, la Santa Sede y Uruguay). También contó con representantes del sector privado, la sociedad civil y el mundo académico, que participaron como observadores.

Definición de sistemas de inteligencia artificial

A los efectos de la Convención, por «sistema de inteligencia artificial» se entenderá un sistema basado en una máquina que, para objetivos explícitos o implícitos, infiere, a partir de los datos que recibe. Como generar resultados, tales como predicciones, contenidos, recomendaciones o decisiones que puedan influir en las condiciones físicas o entornos virtuales. Los diferentes sistemas de IA varían en sus niveles de autonomía y adaptabilidad después del despliegue.

Enfoque basado en riesgos

 El tratado de Europa establece un marco jurídico que abarca todo el ciclo de vida de los sistemas de IA y que se ocupa de los riesgos que pueden plantear, a la vez que promueve la innovación responsable. Se adopta un enfoque basado en el riesgo para diseñar, desarrollar, usar y decomisar sistemas de IA, que exige considerar cuidadosamente cualquier posible consecuencia negativa del uso de sistemas de IA. Cubre el uso de sistemas de IA en el sector público -incluidas las compañías que actúan en su nombre- y en el sector privado.

DEBEMOS APRENDER A HABLAR CON LA IA PARA EVITAR LA ESTANDARIZACIÓN

El convenio ofrece a las partes dos formas de cumplir sus principios y obligaciones a la hora de regular el sector privado. Las  partes pueden optar por quedar obligadas directamente por las disposiciones pertinentes del convenio. O adoptar otras medidas para cumplir con las disposiciones del tratado, a la vez que se respetan plenamente sus obligaciones en materia de derechos humanos, democracia y Estado de Derecho. Este enfoque es necesario dadas las diferencias entre los sistemas jurídicos de todo el mundo.

Requisitos de transparencia

Se establecen requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA. Las partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con el uso de sistemas de IA, cuando sus riesgos puedan ser incompatibles con las normas de los derechos humanos.

También tendrán que garantizar la rendición de cuentas y la responsabilidad por el impacto negativo, y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y el derecho a la intimidad.

Privacidad y protección de datos personales

Cada Parte adoptará o mantendrá medidas para garantizar:

  1. Los derechos de privacidad de las personas y sus datos personales están protegidos, incluso a través de leyes, estándares y marcos nacionales e internacionales aplicables; y
  2. Se han establecido garantías y salvaguardias efectivas para las personas, de conformidad con las obligaciones legales nacionales e internacionales aplicables.

Riesgos para la democracia

Expresamente se dispone que las partes del tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de los derechos humanos relacionadas con el uso de sistemas de IA. Así como garantías procesales, incluida la notificación a todas las personas que interactúen con sistemas de IA, de que están interactuando con estos sistemas.

LA IA CELEBRA EL 1 DE MAYO PARASITANDO EL TRABAJO DE LOS DEMÁS

En cuanto a los riesgos para la democracia, el tratado requiere a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para minar las instituciones y procesos democráticos. Incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia.

Seguridad y defensa nacional

Las partes del convenio no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de la seguridad nacional, pero sí a garantizar que estas actividades respetan el derecho internacional y las instituciones y procesos democráticos. Cabe destacar que no se aplicará a asuntos de defensa nacional ni actividades de investigación y desarrollo. Excepto cuando las pruebas de los sistemas de IA puedan interferir potencialmente con los derechos humanos, la democracia o el Estado de Derecho.

Mecanismos de supervisión

Para garantizar su aplicación efectiva, se establece un mecanismo de seguimiento en forma de Conferencia de las Partes. Se exige que cada parte establezca un mecanismo de supervisión independiente para vigilar que se cumple con el convenio, que se sensibilice y estimule un debate público informado, y que se lleven a cabo consultas con múltiples partes interesadas sobre cómo debería ser utilizada la tecnología de la IA.

Firma y entrada en vigor

El convenio marco se abrirá a la firma en Vilna (Lituania) el 5 de septiembre, coincidiendo con una conferencia de ministros de Justicia. Estará abierto a la firma de los Estados miembros del Consejo de Europa, de los Estados no miembros que hayan participado en su redacción y de la Unión Europea. El Convenio está sujeto a ratificación, aceptación o aprobación. Los instrumentos de ratificación, aceptación o aprobación se depositarán en poder del Secretario General del Consejo de Europa.

LA CAJA NEGRA DE LA IA NECESITA LA TRANSPARENCIA DE BLOCKCHAIN

Entrará en vigor el primer día del mes siguiente a la expiración de un período de tres meses después de la fecha en que cinco signatarios, incluidos al menos tres Estados miembros del Consejo de Europa, hayan expresado su consentimiento a ser obligado por el presente Convenio.

Respecto de cualquier signatario que posteriormente exprese su consentimiento en obligarse por él, el Convenio entrará en vigor el primer día del mes siguiente a la expiración de un período de tres meses después de la fecha del depósito de su instrumento de ratificación, aceptación o aprobación.

Alfredo Collosa
Comparte esto:
Esta web utiliza cookies. Puedes ver aquí la Política de Cookies. Si continuas navegando estás aceptándola    Ver
Privacidad