Reino Unido dio a conocer ayer una guía sobre IA y Justicia elaborada por un grupo judicial interjurisdiccional para ayudar al poder judicial, sus secretarios y otro personal de apoyo en el uso de la IA. La guía establece riesgos y problemas clave asociados con el uso de la IA y algunas sugerencias para minimizarlos. También se incluyen ejemplos de usos potenciales. Cualquier uso de la IA por parte del poder judicial o en su nombre debe ser coherente con la obligación general del poder judicial de proteger la integridad de la administración de justicia.
Ley de Inteligencia artificial de la UE: una propuesta histórica
Justicia IA Reino Unido
La guía es el primer paso de un conjunto de trabajos futuros propuestos para apoyar al poder judicial en sus interacciones con la IA. Todo el trabajo será revisado a medida que la tecnología continúe desarrollándose. Por ello, en el futuro se pretende publicar un documento de preguntas frecuentes para respaldar la guía. También está previsto invitar al poder judicial de los juzgados y tribunales a presentar preguntas a través de una encuesta. Esas preguntas serán respondidas en el documento de preguntas frecuentes y publicadas en la intranet judicial.
Orientación para el uso responsable de la IA en los tribunales:
1.-Comprender la IA y sus aplicaciones. Antes de utilizar cualquier herramienta de IA es importante asegurarse de tener un conocimiento básico de sus capacidades y posibles limitaciones. Ejemplo: Los chatbots públicos de IA no proporcionan respuestas de bases de datos autorizadas. No es necesariamente la respuesta más precisa.
La IA como fuente de malestar en las aulas universitarias españolas
La calidad de las respuestas que reciba dependerá de cómo interactúe con la IA relevante. Al igual que con cualquier otra información disponible en Internet en general, las herramientas de IA pueden ser útiles para encontrar material que usted reconocería como correcto pero que no tiene a mano, pero son una mala forma de realizar investigaciones para encontrar nueva información que no puede verificar.
Cuidar la información
2.-Defender la confidencialidad y la privacidad: No se debe ingresar ninguna información en un chatbot público de IA que no sea de dominio público. No ingresar información que sea privada o confidencial. Cualquier información que ingrese en un chatbot de IA público debe considerarse publicada en todo el mundo. En el futuro, es posible que estén disponibles herramientas de IA diseñadas para su uso en juzgados y tribunales, pero, hasta que eso suceda, se debe tratar a todas las herramientas de IA como si fueran capaces de hacer público cualquier cosa que se ingrese en ellas.
3.- Garantizar la responsabilidad y la precisión: Se debe verificar la exactitud de cualquier información que le haya proporcionado una herramienta de IA antes de utilizarla o confiar en ella.
Medios norteamericanos exigen a empresas de IA pagar por el contenido
4.- Ser consciente de los prejuicios. Las herramientas de IA basadas en Large Languaje Model (LLM) generan respuestas basadas en el conjunto de datos en el que están entrenadas.
5.- Mantener la seguridad. La guía recomienda seguir las mejores prácticas para mantener su propia seguridad y la de los tribunales. Utilizar dispositivos de trabajo (en lugar de dispositivos personales) para acceder a herramientas de inteligencia artificial. Utilizar dirección de correo electrónico del trabajo.
Responsabilidad
6.- Asumir responsabilidad. Los titulares de cargos judiciales son personalmente responsables del material que se produzca en su nombre. Por lo general, los jueces no están obligados a describir la investigación o el trabajo preparatorio que se haya realizado para emitir una sentencia. Siempre que estas pautas se sigan adecuadamente, no hay razón por la cual la IA generativa no pueda ser una herramienta secundaria potencialmente útil.
La española Kolokium ofrece comunicación entre máquinas con IA y blockchain
7.- Tener en cuenta que los usuarios de los tribunales pueden haber utilizado herramientas de inteligencia artificial. Los profesionales del derecho han utilizado algunos tipos de herramientas de IA durante un tiempo considerable sin dificultad.
Todos los representantes legales son responsables del material que presentan ante el tribunal y tienen la obligación profesional de garantizar que sea preciso y apropiado. Siempre que la IA se utilice de manera responsable, no hay ninguna razón por la que un representante legal deba referirse a su uso, pero esto depende del contexto.
Ejemplos: Usos y riesgos potenciales de la IA generativa en juzgados y tribunales
Tareas potencialmente útiles:
- Las herramientas de IA son capaces de resumir grandes volúmenes de texto. Como ocurre con cualquier resumen, se debe tener cuidado para garantizar que sea preciso.
- Las herramientas de IA se pueden utilizar al escribir presentaciones, por ejemplo, para proporcionar sugerencias sobre temas a cubrir.
- La IA puede realizar tareas administrativas como redactar correos electrónicos y memorandos.
Tareas no recomendadas
Investigación jurídica: las herramientas de IA son una forma deficiente de realizar investigaciones para encontrar nueva información que no se puede verificar de forma independiente. Pueden resultar útiles como forma de recordar material que alguien reconocería como correcto.
Interrogantes de la IA generativa en los derechos de autor
- Análisis jurídico: los actuales chatbots públicos de IA no producen análisis ni razonamientos convincentes.
Indicios de que el trabajo puede haber sido producido por IA
- Referencias a casos que no suenan familiares o que tienen citas desconocidas
- Partes que citan diferentes cuerpos de jurisprudencia en relación con las mismas cuestiones jurídicas
- Presentaciones que no concuerdan con su comprensión general de la ley en el área
- Envíos que utilizan ortografía estadounidense o se refieren a casos extranjeros,
Contenido que (al menos superficialmente) parece ser muy persuasivo y bien escrito, pero en una inspección más detallada contiene errores
- Interés máximo por participar en el 1º código de prácticas de la IA de Europa - 10 septiembre, 2024
- FMI propone un impuesto a la minería de criptomonedas y al consumo energético de laIA - 29 agosto, 2024
- Mujeres de más de 65 años son las que compran más cripto en Latinoamérica - 27 agosto, 2024