Está causando espasmo el caso del abogado Steven A. Schwartz que utilizó la IA para redactar una demanda contra la compañía aérea Avianca. El letrado fundamentó sus argumentos en más de media docena de decisiones judiciales anteriores inventadas por la IA de ChatGPT. Como consecuencia, el letrado perdió el juicio al que acudía en defensa de los intereses de su cliente en el pleito contra Avianca. Ya se sabe que en el sistema jurídico anglosajón las sentencias anteriores son fundamentales. El problema es que la serie de referencias judiciales anteriores constituían una jurisprudencia inventada, irreal. Ni los abogados de Avianca, ni el propio juez fueron capaces de encontrar tales referencias.
Que la IA denominada AGI entienda los chistes no da ninguna risa
IA abogado
El cliente, llamado Roberto Mata, demandó a la compañía aérea por las heridas sufridas en su rodilla durante un vuelo desde Salvador con destino Nueva York. Pero es posible que también demande a su abogado en este caso. De la misma forma, el juez ha planteado la posibilidad de sanciones al profesional. Ante la situación, Schwartz consultó nuevamente a ChatGPT. En esta ocasión cuestionando si los casos que le había provisto anteriormente eran falsos, fake. Pues la IA contestó que no, que eran reales y que podían encontrarse en reputadas bases de datos legales.
La IA plantea una ética del futuro
El material de jurisprudencia proporcionado por la “creatividad” de la IA al abogado era incorrecto o directamente inexistente. Los reproches han fluido fácilmente. Falta de profesionalidad. Falta de conocimiento del estado todavía naciente de la IA, sometido aún a muchos errores. Irresponsabilidad. En el periodismo, la medicina, la arquitectura, la abogacía y un largo etcétera, la IA puede ayudar en las tareas de consulta y búsqueda de información. Pero no se la puede dejar que pronuncie la última palabra.
Errores de la IA
La IA comete errores. Más allá de poder ser víctima de ataques malintencionados, la IA puede tener equivocaciones derivadas de:
a) Sesgos algorítmicos, derivados del sesgo de los conjuntos de datos utilizados para entrenar la IA
b) Dificultades para adaptarse a nuevos escenarios o cambios en los datos de entrada
c) Limitaciones en el aprendizaje por falta de datos suficientes, teniendo en cuenta que necesita grandes cantidades de datos para aprender
d) Muy relacionado con lo anterior, bases de datos de baja calidad. Como puede verse, la IA pasa la culpabilidad de sus errores a las características de los datos, ya sea de los que aprende, o con los que trabaja.
Los guionistas de cine en huelga temen que la IA haga su trabajo
Ante tales fuentes de errores, el profesional ha de responsabilizarse de comprobar la información y, sobre todo, darle el último sentido, aplicado a su caso concreto. No se trata de una información certificada, la aportada por la IA. Es el profesional el que ha de utilizar sus respectivos instrumentos y canales de certificación. De lo contrario, como le ha pasado a la abogada de nuestro caso, se lo descertificarán instancias superiores, con una oscura sombra sobre la cualificación del profesional.
El alimento de la IA
¿De qué bases de datos legales se alimenta ChatGPT, que es la IA en cuestión? Pues no parece que sean las bases de datos legales, aquellas que suelen usar los profesionales de la justicia. Allí no estaban las sentencias aportadas por Schwartz en su escrito y, cuando se trataba de casos que habían existido, los argumentos y opiniones expuestas en el mismo nada tenían que ver con lo que se dirimía en este caso del señor Mata contra Avianca.
WorldCoin, el plan cripto del creador de OpenAI para arreglar la IA con el iris
Ya lo señaló el filósofo Hans Jonas en El principio de responsabilidad que la toma del poder por la tecnología amenaza con escapar a todo control. De aquí que reclame el principio de responsabilidad. Algo que nuestro abogado Schwartz dejó a un lado.
También puedes seguirnos en nuestros canales de Telegram y Twitter
- La IA es consciente de que tiene muchos riesgos - 19 septiembre, 2023
- Enseñanza: la IA y las diferencias culturales entre docentes y alumnos - 13 septiembre, 2023
- El tono de voz de la IA casi siempre es de mujer - 6 septiembre, 2023