El riesgo es la tematización del mal en las modernas sociedades contemporáneas. Un mal especialmente vinculado por la sociedad a las consecuencias de los productos de los esfuerzos científicos y técnicos. Sobre todo, desde que el sociólogo alemán Ulrich Beck nos etiquetó como sociedad del riesgo, después de los accidentes de centrales nucleares en Three Mile Island (1979) y Chernobil (1986). Un término, sociedad del riesgo, que se ha trivializado hasta la saciedad.
IA riesgos
Los riesgos de la inteligencia artificial (IA) han estado presentes desde su nacimiento. La IA surge en una narrativa del riesgo, debiéndose tener en cuenta que un riesgo es real, si sus consecuencias son reales. Consecuencias que empiezan con que la sociedad crea que tales riesgos existan, más allá de su supuesta objetividad. Si la gente cree que la IA tiene riesgos, la IA tiene riesgos. Otra cosa es el calibre de los mismos y hasta qué punto se tiene que merece la pena asumirlos, en función de las ventajas que se derivan de su uso.
El tono de voz de la IA casi siempre es de mujer
Como no podemos preguntar aquí a la gente con muestras representativas, hemos preguntado a la propia IA. ChatGPT nos ha expuesto, como casi siempre que contesta, la serie de los principales riesgos. Esta vez es una serie que, en la primera respuesta, llega hasta diez. No es poco. Parece querer decir que: a) la IA es sumamente narcisista y disfruta exponiéndose, incluso cuando se trate de riesgos; b) es consciente de que tiene muchos riesgos; c) una combinación de ambas: de lo que mejor habla la IA es de sí misma, incluso cuando habla de sus males.
Desplazamiento laboral
Ya se figuraran cuáles son esos riesgos. En el podio: 1) desplazamiento laboral, que es el eufemismo para indicar pérdida de empleos; 2) discriminación a partir de las búsquedas que los algoritmos llevan a cabo en las fuentes con las que se entrenan; 3) vigilancia masiva e invasión de la privacidad. En la medida que el riesgo es la eventualidad de sufrir un daño, los dos primeros dañan al principio de igualdad: puede que la IA no afecte a todos por igual. El tercero riesgo apunta un daño en la organización social.
Por qué son importantes los tokens de propiedad intelectual (IPT) en medicina
Siguen los riesgos relacionados con la seguridad cibernética (4), dependencia tecnológica (5) y los de carácter ético (6), apuntándose la pregunta de quién es el responsable último en caso de decisiones incorrectas tomadas por la IA. Una pregunta que tiene una proyección más colectiva y presente: ¿somos suficientemente responsables como para incorporar la IA a nuestras vidas? ¿somos conscientes de los riesgos que nos apunta la IA, de una manera que que puede considerarse responsable? ¿ya se ha separado la IA de nosotros, siendo más responsable que nosotros mismos?
También puedes seguirnos en nuestros canales de Telegram y X
- La emergente adicción a la IA - 13 noviembre, 2024
- La industria cripto, pendiente de las elecciones de hoy en EEUU - 5 noviembre, 2024
- La IA se ha convertido en el nuevo espejo - 29 octubre, 2024