Sobre el lado oscuro de la Inteligencia Artificial

Sobre el lado oscuro de la Inteligencia Artificial
A veces, uno agradecería que el mundo dejara de girar, que todas las cosas que nos llenan y nos dan ese equilibrio se mantuvieran para siempre, con la seguridad que da un hombro en el que sabes siempre podrás recostarte a descansar.

Lamentablemente, ese no es el mundo en el que vivimos. La velocidad y el cambio constante de este contexto digital ha continuado transformando y dando forma a un entorno profesional cada vez más complejo, con soluciones tecnológicas que nos dejarían con la boca abierta hace apenas unos pocos años, pero que conllevan riesgos y desafíos muy importantes.

Sin duda, la automatización de procesos ha llegado al siguiente nivel. Cada vez es más fácil automatizar tareas y procesos complejos (incluso procesos técnicos). Todo ello mediante tecnologías accesibles que avanzan a pasos agigantados.

La inteligencia artificial se diversifica en todo tipo de industrias y servicios, también en bibliotecas y archivos. La incorporamos a nuestro día a día en parte arrastrados por esa gran ola en pro de la productividad y de la mejora de nuestras capacidades.

Como antes hicimos con Internet, las redes sociales o los smartphones, incorporamos estas tecnologías por sus atractivos atributos: la capacidad sobrehumana que nos facilitan en todo tipo de tareas diarias, la posibilidad de contar con mil y un asistentes virtuales que nos hacen la vida más fácil (o eso prometen), el apoyo en la toma de decisiones basadas en análisis de datos y todo ello a un coste asumible y en lenguaje natural, como si nos estuviéramos comunicando con otro colega o amigo.

Pero también es cierto que no siempre prestamos toda la debida atención a los peligros de las novedades tecnológicas. Preferimos subirnos antes que nadie a la ola para aprender a surfearla lo mejor posible, cuanto antes mejor. 

Todas las olas tienen sus peligros. Y muchos de estos peligros solo son observables muchos años después de producir el daño. Tendemos a pensar que la tecnología por sí misma es positiva cuando, en realidad, vivimos en un mundo esclavizado en gran medida por empresas tecnológicas. Esas que viven imbuidas por el síndrome del Monte Everest, avanzando en nuevos modelos cada vez más potentes y con más prestaciones solo por el hecho de poder hacerlo, sin reflexionar previamente sobre las implicaciones que puede tener escalar esa montaña, si es positivo para la sociedad. En definitiva, sin evaluar sus consecuencias.

Las mismas empresas que nos vendieron las redes sociales como entornos amigables, seguros y justos en los que establecer y propiciar contactos con otras personas de forma sencilla. Son las mismas empresas que han terminado por generar auténticas adicciones a generaciones de usuarios gracias a sus algoritmos, específicamente diseñados para mantener al usuario pendiente de un scroll infinito de absurdas tonterías.

Si alguien piensa que con la inteligencia artificial va a ser distinto, es que no entiende lo que son estas empresas tecnológicas. Quitémonos la venda.

Poco se habla de los problemas a los que debemos enfrentarnos en pleno auge de la inteligencia artificial. 

Los sesgos en sus respuestas, las alucinaciones, los problemas de seguridad y privacidad de algunas de estas plataformas son solo la punta de iceberg de una industria peligrosa. No digo que no deba utilizarse, pero sí, al menos, conocer y ser consciente de estos riesgos.

El impacto ambiental que va a provocar, y que ya está provocando, no es todavía conocido por el grueso de los usuarios, pero ya se habla de que un 10% del gasto energético mundial en 2025 podría deberse al procesamiento de datos y la inteligencia artificial (Terrones Rodríguez, 2023). Eso sin incluir el gasto de agua, la contaminación que genera tanto en CO2 como en basura tecnológica.

A la propagación de deepfakes y desinformación se unen las intenciones de cuestionadas tecnológicas en implementar perfiles falsos con IA para interactuar con los perfiles verdaderos en sus redes sociales, en una estrategia éticamente más que cuestionable que trata de perpetuar un uso que ya se ha demostrado perjudicial para los procesos cognitivos, especialmente en niños y adolescentes (Fabio & Suriano, 2023). Otros estudios hablan del peligro de atrofia cognitiva y de dependencia tecnológica (otra más) derivadas de la cesión habitual a la IA de ciertos procesos cognitivos (Hernández-Orallo, 2025).

Nos volvemos idiotas, y lo más alarmante es que lo hacemos conscientemente.

La opacidad de los modelos y los riesgos de la IA de frontera (modelos con los que se investiga y que no son seguros), se unen al problema de la “IA en la sombra” que opera en instituciones y organizaciones de todo tipo al haber personal que ha incorporado su uso en su día a día sin que las propias empresas o instituciones hayan establecido procesos de gobernanza seguros. Una tremenda brecha de seguridad se ha abierto en toda la sociedad.

La falta de transparencia y los problemas de caja negra, falta de regulación o regulaciones muy laxas, problemas de propiedad intelectual en los procesos de entrenamiento de modelos o la discriminación algorítmica se unen al gran problema de desigualdad al que nos vamos a enfrentar en los próximos años con la brecha algorítmica.

Todo ello, en un peligroso contexto de concentración de poder en unas pocas empresas tecnológicas dirigidas por desequilibrados gurús, capaces de comprar voluntades para continuar perpetuando su dominio tecnológico, económico, político e incluso de pensamiento.

En este contexto, incluso dedicándome a estudiar el impacto que va a suponer la IA en la sociedad, en particular, el impacto para los profesionales de la información, es imposible evitar preguntarse si no estaríamos mejor como antes, consultando los románticos armarios con las fichas del catálogo de la biblioteca o preguntando a nuestros bibliotecarios de referencia qué lecturas recomiendan sobre distopías y desencanto, a partes iguales.

#15añosBBT




Referencias bibliográficas

Fabio, R. A., & Suriano, R. (2023). The Influence of Smartphone Use on Tweens’ Capacity for Complex Critical Thinking. Children, 10(4). https://doi.org/10.3390/children10040698

Hernández-Orallo, J. (2025). Enhancement and assessment in the AI age: An extended mind perspective. Journal of Pacific Rim Psychology, 19. Scopus. https://doi.org/10.1177/18344909241309376

Terrones Rodríguez, A. L. (2023). Ética para la inteligencia artificial sostenible. Arbor, 198(806), a683. https://doi.org/10.3989/arbor.2022.806013

Este post forma parte de la serie de #15añosBBT con la que celebramos el aniversario de nuestro blog invitando a los autores que fueron parte del mismo. Gracias, Víctor, por sumarte a la celebración.

Victor Villapalos

Mi bitácora pretende ser un punto de encuentro para estudiantes y profesionales del sector y, por supuesto, para todos aquellos interesados en este ámbito del conocimiento. Desde esta pequeña ventana asomarán pensamientos y reflexiones sobre todos aquellos temas que, relacionados con la Biblioteconomía y la Documentación, merezcan una buena pincelada de bits. Estáis invitados a participar activamente en él con vuestros comentarios y/o sugerencias. Podéis conocer más sobre mi en www.victorvillapalos.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *