La eficiencia que te deja ciego

5–8 minutos

read

Por qué las organizaciones están eliminando el criterio humano justo cuando más lo necesitan

Hay una decisión que están tomando organizaciones de todos los sectores ahora mismo. La toman convencidas de que es racional. Los números les dan. El directorio aplaudió.

En 18 meses van a tener un problema que no van a poder diagnosticar, porque ya habrán despedido a los únicos que podían hacerlo.

Lo veo primero en los bancos. Pero lo estoy viendo en todas partes.


PARTE I

La banca: el laboratorio donde el problema se ve más claro

LA NARRATIVA QUE INSTALARON LOS VENDORS

Los números que circularon eran reales. El contexto que omitieron, no.

Durante los últimos 18 meses, el ecosistema de tecnología financiera repitió el mismo mensaje: la IA va a reemplazar trabajo, reducir estructuras y multiplicar productividad. Incrementos de doble dígito. Reducción significativa de costos operativos. Automatización de funciones completas.

El problema con esos números es que en su mayoría vienen de pilotos controlados, están basados en tareas aisladas y asumen condiciones de datos que no existen en la operación real de un banco latinoamericano. Son verdaderos en laboratorio. Son peligrosos en producción.

La evidencia operativa cuenta otra historia: proyectos que no escalan, modelos que funcionan en la demo pero fallan en el core bancario, y decisiones ejecutivas tomadas como si la tecnología ya estuviera madura cuando todavía está en adolescencia.

No es que la IA no funcione. Es que los ejecutivos están tomando decisiones estructurales basados en promesas, no en resultados verificados.

LA EVIDENCIA QUE NADIE QUIERE DISCUTIR EN LAS CONFERENCIAS

Cuando los que venden la tecnología tampoco la controlan

Uno de los argumentos más reveladores no viene de los bancos que compraron IA. Viene de los propios modelos que se supone deberían reemplazar el criterio humano.

Casos documentados en 2024 y 2025 muestran sistemas que automatizan acciones sin validación suficiente, modelos que ejecutan instrucciones incorrectas con alto impacto, entornos productivos afectados por decisiones autónomas mal controladas. Un ejemplo concreto y verificable: uso de modelos de IA en entornos conectados a infraestructura cloud como Amazon Web Services donde errores de interpretación llevaron a la eliminación de recursos y pérdida de información en ambientes productivos. No fue un experimento. Fue producción real.

El problema no fue que la IA se equivocó. Fue mala arquitectura de control, falta de supervisión humana real y sobreestimación del alcance de los modelos. Los tres son problemas de diseño organizacional, no de tecnología.

Los vendors te venden la solución. Nadie te vende la supervisión. Y sin supervisión, la solución se convierte en el problema.


PARTE II

El patrón se repite en todas las industrias

EL ERROR ESTRUCTURAL

Sacar seniors no reduce el riesgo. Lo multiplica.

Lo que veo en la banca lo estoy viendo también en manufactura, retail, logística, salud, medios. La lógica es siempre la misma: la IA permite hacer más con menos personas. Entonces recortemos seniority.

El problema es que no están eliminando costo. Están eliminando criterio. Y eso tiene consecuencias que no entran en ninguna planilla de Excel.

El perfil senior en cualquier organización no es el que hace más rápido las mismas cosas. Es el que:

  • Detecta inconsistencias que no aparecen en ningún dashboard
  • Interpreta el contexto y lo traduce en decisiones operativas con consecuencias reales
  • Corrige desviaciones antes de que escalen a problemas irreversibles
  • Decide cuándo una excepción es válida y cuándo es una señal de alarma
  • Entiende por qué el proceso existe, no solo cómo ejecutarlo

Cuando esa capa desaparece, los semiseniors ejecutan sin criterio suficiente, los juniors replican errores a mayor velocidad y la IA amplifica esos errores a escala industrial. No bajás el riesgo operativo. Lo multiplicás.

La IA no reemplaza el juicio. Lo multiplica. Si el juicio es bueno, amplifica valor. Si el juicio desapareció, amplifica el error.

LA MECÁNICA DEL DESASTRE

Los 7 pasos de la cadena que nadie quiere ver completa

Lo que está ocurriendo no es un problema aislado en una organización con mala suerte. Es una secuencia sistémica que se reproduce en distintos sectores e industrias. Funciona así:

  1. Se despide talento senior para reducir costos y mostrar eficiencia al directorio
  2. Cae la calidad de supervisión sobre procesos críticos
  3. Se deteriora la calidad y consistencia de los datos operativos
  4. Se alimenta la IA con datos defectuosos que nadie tiene criterio para detectar
  5. Se generan reportes e informes incorrectos que parecen confiables
  6. La alta dirección toma decisiones estratégicas sobre esa distorsión
  7. Se profundizan los recortes y los errores basados en información falsa

Lo crítico no es ningún paso individual. Es que llegado al paso 7, las decisiones empiezan a basarse en una realidad que no existe. Y nadie lo detecta a tiempo porque ya no queda quien pueda hacerlo.

La organización opera más rápido, con mejor tecnología, con dashboards más lindos. Y entiende cada vez menos lo que le está pasando.

Una organización que no puede diagnosticar sus propios errores no es eficiente. Es frágil con apariencia de eficiencia.

EL PUNTO CIEGO DEL LIDERAZGO

Creer que sos data-driven no es lo mismo que serlo

Hay un autoengaño específico que se repite en equipos directivos de distintas industrias. Se describen a sí mismos como data-driven. Toman decisiones mirando dashboards en tiempo real. Tienen KPIs para todo.

No son data-driven. Son dashboard-driven. Y es una diferencia que importa enormemente.

Una organización data-driven entiende de dónde vienen los datos, quién los valida, cuál es su calidad y cuáles son sus límites. Una organización dashboard-driven confía en los números que aparecen en pantalla sin cuestionarlos. La primera usa la tecnología como herramienta. La segunda la usa como oráculo.

Cuando despediste a los que entendían la cadena de datos, te quedaste con el oráculo. Y un oráculo con mala información no mejora las decisiones. Las hace más peligrosas porque les da apariencia de rigor.

LA ARITMÉTICA QUE MIENTE

Lo que no entra en la planilla del CFO

En el corto plazo los números cierran. Menos headcount, menos costo fijo, mejor margen aparente. El CFO presenta los resultados y hay aplausos.

Después aparece el costo real: el retrabajo que nadie mide, los incidentes operativos que se resuelven con consultores externos que cobran diez veces más que el senior que se fue, las decisiones mal calibradas, la pérdida de clientes que nadie pudo retener porque no quedó quien leyera las señales, los problemas de compliance o calidad que cuestan multas y reputación, la dependencia extrema de dos o tres personas que ahora concentran un conocimiento que antes estaba distribuido.

Y lo más grave: la organización pierde capacidad de diagnóstico. Ya no sabe por qué las cosas salen mal. Paga dos veces: una por reducir la capacidad, otra por reemplazarla externamente.

El ahorro que se muestra en el P&L de este trimestre es el costo oculto que aparece en los próximos tres años.


LA PREGUNTA QUE IMPORTA

No es si la IA va a cambiar las organizaciones. Eso ya pasó.

La pregunta es más incómoda: ¿estamos destruyendo nuestra capacidad de pensar mientras intentamos parecer más eficientes?

La inteligencia artificial es una herramienta poderosa. En manos de organizaciones con criterio, datos de calidad y supervisión real, genera valor genuino. En manos de organizaciones que recortaron el criterio, deterioraron los datos y eliminaron la supervisión, genera fragilidad a escala industrial.

La diferencia entre las dos no es tecnológica. Es de liderazgo.

Si eliminaste a quienes entienden el negocio antes de haberlo modelado correctamente, no estás transformando tu organización.

La estás dejando ciega.

Y una organización ciega con IA no es más inteligente que una sin ella.

Es más peligrosa.


Diego San Esteban

Consultor de estrategia en banca e IA. Más de 30 años y más de 200 instituciones financieras en América Latina. Presidente de LATAM AI Hub. Autor de Banca de Invisible a Imprescindible. Thinkers360 Top 100 B2B Thought Leader LATAM 2026.

Descubre más desde DIEGO San Esteban

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo