La OCDE dio a conocer un documento titulado «IA generativa para la anticorrupción y la integridad en gobierno» donde se pone de manifiesto que algunos países están invirtiendo en el desarrollo de IA generativa en idiomas locales. Superar las barreras lingüísticas inherentes al uso o perfeccionamiento de modelos de lenguaje extensos (LLMS) disponibles en el mercado es un desafío clave. Actualmente, la mayoría de los LLM están capacitados en inglés, lo que plantea limitaciones para muchos actores que desean implementar modelos en su idioma nativo.
Países OCDE
El informe recomienda a los gobiernos seguir el ritmo de esta innovación como reguladores, pero también como usuarios, ya que los desarrollos recientes han impulsado esta innovación tecnológcia a una posición de influencia disruptiva. La IA generativa ofrece innumerables oportunidades para que los actores de la integridad (organismos anticorrupción, entidades fiscalizadoras superiores, organismos de auditoría interna y otros) mejoren el impacto de su trabajo, en particular mediante el uso de modelos de lenguaje extensos (LLMS). A medida que este tipo de IA se vuelve cada vez más común, es fundamental que los actores de la integridad comprendan tanto en qué aspectos la IA generativa y los LLM pueden aportar más valor y los riesgos que plantean.
LA IA PONE EN PELIGRO LAS LENGUAS MENOS HABLADAS DEL MUNDO
Para avanzar en esta comprensión, el documento se basa en los aportes de las comunidades de integridad y anticorrupción de la OCDE y ofrece una instantánea de las formas en que estos organismos utilizan la IA generativa y los LLM. Así como los desafíos que enfrentan y las perspectivas que estas experiencias ofrecen a organismos similares en otros países.
Oportunidad para los gobiernos
El documento también explora consideraciones clave para que los actores de la integridad garanticen sistemas de IA confiables y un uso responsable de la IA a medida que se desarrollan sus capacidades en esta área. Para identificar y explorar estas oportunidades y desafíos, la OCDE envió un cuestionario y entrevistó a organizaciones de varias comunidades de la OCDE, A partir de las respuestas de 59 organizaciones de 39 países, la OCDE recopiló ideas clave sobre el uso de la IA generativa y los LLM.
Los actores de integridad identificaron varias oportunidades y beneficios de la IA generativa, centrándose en su exploración y uso de LLM. Por ejemplo, los actores de integridad en Brasil están implementando LLM para examinar conjuntos de datos masivos e identificar patrones indicativos de fraude, ofreciendo información para investigaciones y medidas de mitigación de riesgos.
EL HACKEO DE OPENAI Y LA PROPUESTA DE PAOLO ARDOINO DE UNA IA LOCAL
En Finlandia, Francia, Grecia y Reino Unido están utilizando LLM para ayudar en la redacción de documentos, análisis de hojas de cálculo y resumen de textos. Estos LLM pueden hacer que el trabajo diario de auditores e investigadores sea más eficiente, liberándolos de tareas organizativas que consumen mucho tiempo.
Desafíos y falta de transparencia
La IA generativa, en particular los LLM utilizados para procesar y generar texto, puede mejorar las operaciones internas de los actores de integridad, con beneficios más prometedores en eficiencia operativa y análisis de datos no estructurados. Los LLM son indicados para fortalecer varias actividades anticorrupción y antifraude, pero los ejemplos en el gobierno son limitados y el retorno de la inversión no está claro.
Se destacaron varios desafíos, que van desde los técnicos relacionados con la integración de los LLM, hasta cuestiones estratégicas sobre cómo garantizar sistemas de IA confiables. Se reconoce que los LLM son una tecnología en evolución capaz de provocar «alucinaciones»,que pueden generar información convincente pero inexacta, fabricada o engañosa.
ESTOS SON LOS GOBIERNOS QUE TIENEN MÁS BITCOIN
Esta complejidad inherente en la forma en que los LLM generan resultados puede perpetuar la falta de transparencia y rendición de cuentas en la toma de decisiones, lo que puede socavar los principios mismos que los actores de integridad buscan defender. No mitigar estos riesgos, frenar los prejuicios y promover el uso responsable y ético de la IA puede tener impactos dañinos en el mundo real, como el refuerzo de las desigualdades estructurales y la discriminación.
Consejos para probar LLMC
Se citaron la escasez de habilidades y las limitaciones de TI como los mayores desafíos que enfrentan para implementar LLM. Muchas instituciones expresaron que carecen de suficientes recursos financieros, humanos y técnicos para implementar LLM por completo. O que su personal no tiene suficientes conocimientos de datos para utilizar dichas herramientas.
Los consejos para poner a prueba los LLM incluyen incorporarlos en procesos de bajo riesgo y considerar los requisitos para escalarlos desde el principio. Un enfoque de este tipo puede desarrollar capacidades donde los errores no sean tan costosos antes de escalar la IA generativa a tareas más riesgosas, más intensivas en recursos y más analíticas.
GOBIERNO DE ALEMANIA VENDE CASI EL 50% DE SU BITCOIN, CIFRADO EN CASI 50.000 BTC
Los actores de integridad dependen en su mayoría de LLM básicos llave en mano desarrollados por empresas de tecnología. Existen varias opciones para desarrollar LLM, desde modelos de código abierto hasta aquellos creados por empresas privadas o entidades gubernamentales. En la práctica, los actores de integridad que respondieron al cuestionario están utilizando un modelo llave en mano existente o están ajustando un modelo básico.
Uso responsable y ético de la IA
El documento reconoce la necesidad de salvaguardas en algunas áreas, pero pueden hacer más para garantizar sistemas de IA confiables, así como el uso responsable y ético de la IA generativa a medida que las iniciativas maduren. Los actores de integridad pueden mejorar su enfoque y sus actividades para mitigar los riesgos de sesgo y discriminación y abordar las preocupaciones éticas sobre cómo usan y aplican los LLM internamente.
Así, indica que pueden poner mayor énfasis en monitorear y evaluar los LLM, incluyendo consideraciones relativas a la interpretabilidad y explicabilidad de los resultados de un modelo. Evaluar los LLM e intentar explicar los resultados plantea desafíos complejos. Sin embargo, abordar estos desafíos con soluciones multifacéticas será fundamental para la adopción de LLM entre los actores de integridad.
GOBIERNOS DE ALEMANIA, EEUU Y MT. GOX DERRUMBAN EL PRECIO DE BITCOIN A $53.907
La IA generativa puede mejorar el trabajo de los actores de integridad, pero también requiere una mayor vigilancia de la evolución de los riesgos de integridad. Por ejemplo, los LLM brindan nuevas formas para que los actores de integridad operen y evalúen riesgos, pero también pueden acelerar y amplificar ciertos tipos de fraude y corrupción.
No generalizables para todos
Los hallazgos del cuestionario de la OCDE no son generalizables para todos los actores de integridad. No obstante, el documento describe desafíos comunes y casos de uso potenciales que son transferibles entre contextos, brindando inspiración a los actores de integridad. El trabajo centrado en políticas de la OCDE ofrece inspiración a lo largo de todo el documento, incluido el trabajo del Observatorio de Políticas OECD.AI, así como la Recomendación del Consejo sobre Inteligencia Artificial y la Recomendación sobre Estrategias de Gobierno Digital de la OCDE.
- Marco regulatorio de los criptoactivos en 2024 basado en 19 jurisdicciones - 2 diciembre, 2024
- La guía de OCDE para implementar el marco fiscal de criptoactivos - 29 noviembre, 2024
- La UE busca un marco legal para la responsabilidad civil de la IA - 25 noviembre, 2024