© 2025 Diego San Esteban. Todos los derechos reservados.
Este artículo forma parte de la serie de publicaciones sobre inteligencia artificial, estrategia y transformación en América Latina. Se permite citar fragmentos breves con atribución clara al autor y enlace a la fuente original.
Para reproducción total o uso en medios, presentaciones o materiales académicos, se requiere autorización expresa por escrito.
Introducción: el espejismo de la evolución
El relato global sobre la inteligencia artificial es triunfalista. Se habla de evolución, de disrupción, de eficiencia. Pero en América Latina esa narrativa no aplica igual. Aquí la IA no evolucionó: se importó.
Mientras ChatGPT ya supera los 800 millones de usuarios semanales y procesa más de 1.000 millones de consultas al día (Demandsage, 2024), en nuestra región 244 millones de personas siguen sin acceso a Internet (SELA, 2024). Mientras Corea del Sur invierte casi el 5% de su PIB en I+D, América Latina apenas llega al 0,7% (CEPAL, 2023). Eso significa que no estamos diseñando IA, la estamos consumiendo.
La pregunta incómoda es esta: ¿seguiremos siendo usuarios tardíos de software ajeno, o diseñaremos inteligencia artificial para nuestras propias realidades de pobreza, informalidad y desigualdad?
“No estamos atrasados en tecnología. Estamos atrasados en propósito.” — Diego San Esteban
1. De la eficiencia importada a la creación con propósito
Durante años, en América Latina confundimos adopción con evolución. Bancos, retailers y gobiernos instalaron soluciones de IA compradas a vendors globales como si eso significara transformación. Pero la verdad es que la mayoría de esas iniciativas no pasaron del piloto. El 60% de los proyectos de IA en LatAm fracasa en escalar (Gartner, 2022).
Ejemplo claro: en plena pandemia, instituciones financieras corrieron a implementar chatbots “inteligentes”. Resultado: clientes frustrados, operaciones más lentas y caída de satisfacción. No fue transformación: fue maquillaje tecnológico.
Mientras tanto, los países que lideran el desarrollo tecnológico invierten fuerte. Corea del Sur destina el 4,9% de su PIB a I+D. Israel, más del 5,4%. América Latina: 0,7%. No sorprende entonces que la región registre menos del 1% de las patentes globales de IA (OMPI, 2023).
La conclusión es clara: no hay futuro en importar tecnología sin contexto. El verdadero salto ocurrirá cuando diseñemos IA para problemas nuestros: informalidad, baja bancarización, exclusión educativa.
“En Latinoamérica no tenemos un problema de innovación. Tenemos un problema de imitación.”
2. Cultura tecnológica: de la desconfianza a la confianza radical
Los discursos hablan de “cultura digital”, pero la realidad muestra otra cosa: en la región hemos construido cultura de desconfianza. Seis de cada diez latinoamericanos creen que las empresas harán mal uso de sus datos (KPMG Tech Report, 2022).
Y no es paranoia. En México, el 75% de las filtraciones de datos en 2022 afectaron a banca y retail (INAI). En Brasil, el caso de Serasa (2021) expuso datos de 220 millones de ciudadanos. La confianza no se programa: se gana.
Ejemplo: una fintech argentina que lanzó onboarding digital redujo el tiempo de registro de 40 minutos a 5. Pero las métricas revelaron otra cosa: solo el 35% de los usuarios confiaba en cómo se usaban sus datos biométricos. Velocidad sin confianza es un espejismo.
Si queremos cultura tecnológica real, hay que medir distinto:
- Nivel de confianza percibida en el uso de datos.
- % de clientes que aceptan términos sin leerlos.
- Incidentes de ciberseguridad reportados por sector.
“Podemos digitalizar procesos, pero si no digitalizamos la confianza, todo será cosmético.”
3. Procesos más humanos: devolver dignidad, no minutos
La IA suele venderse como eficiencia: menos pasos, menos tiempo, menos costos. Pero lo humano no es la rapidez: es la dignidad.
Ejemplo: en Perú, antes un campesino debía viajar hasta 8 horas a la ciudad para validar su identidad y pedir un microcrédito. Hoy, gracias a sistemas de validación con IA, puede hacerlo desde su celular en minutos. El cambio no es técnico, es existencial: horas de vida devueltas al cliente.
En el libro Más Allá de Vender ya lo anticipaba: un proceso de ventas no es humano porque sea más rápido, sino porque respeta la dignidad del cliente. Con la IA pasa lo mismo: no basta con eficiencia, necesitamos humanidad.
Métricas incómodas:
- Tiempo promedio de onboarding, medido en horas de vida recuperadas.
- % de nuevos clientes rurales o informales que lograron acceder por primera vez.
- Nivel de satisfacción por “trato justo”, no solo por rapidez.
“La verdadera eficiencia no es ahorrar minutos. Es devolver dignidad.”
4. La huella positiva: vidas, no dashboards
Muchas empresas miden la transformación digital en dashboards: NPS, reducción de costos, satisfacción. Pero la huella positiva está en vidas que dejan de ser invisibles.
Hoy, más de 200 millones de latinoamericanos siguen excluidos del sistema financiero formal (Banco Mundial, Global Findex 2021). Una IA que mejora el NPS pero no reduce exclusión no deja huella: deja marketing.
¿Qué deberíamos medir?
- % de clientes antes rechazados que hoy acceden al sistema financiero.
- Reducción en la brecha de género en acceso a crédito digital.
- Número de comunidades rurales conectadas a servicios básicos gracias a IA.
“Un KPI no cambia una vida. Una vida transformada es el único KPI que importa.”
Tal como escribí en el libro DeepSeek, la métrica central de la IA no debería ser el retorno financiero inmediato, sino el retorno social: cuánto amplía el acceso, cuánto reduce la exclusión, cuánto reconstruye la confianza.
5. Desafíos y oportunidades en la región
El mayor desafío no es técnico, es estructural. 244 millones de latinoamericanos siguen sin Internet (SELA, 2024). En zonas rurales, solo el 37% tiene conectividad decente, frente al 71% urbano (BID, 2023).
La oportunidad, sin embargo, está en lo que el norte no ve: datos invisibles. Remesas, pagos de servicios, movilidad urbana, incluso patrones de consumo informal. Esos datos pueden ser la base para incluir al 60% de trabajadores informales (OIT, 2023) que hoy los algoritmos castigan por falta de historial.
“La próxima disrupción no será un algoritmo nuevo. Será mirar lo que nadie midió.”
6. Estrategia intencionada vs. adopción reactiva
En LatAm, la adopción de IA fue más reacción que estrategia. La pandemia lo dejó claro: chatbots improvisados, dashboards que nadie usaba, proyectos lanzados por moda. Según IDC (2023), el 60% de las iniciativas de IA en la región se quedaron en pruebas piloto.
El liderazgo real no es correr más rápido: es frenar lo que no aporta. Métricas incómodas aquí:
- % de proyectos de IA que sobreviven 3 años después.
- Número de iniciativas canceladas por falta de impacto real.
- Ratio de proyectos escalados vs. descartados.
“El verdadero liderazgo digital no se mide en lanzamientos. Se mide en renuncias.”
7. Automatización e hiperpersonalización: la paradoja de la desigualdad
La IA prometió experiencias humanas. Pero lo que vemos es paradoja: personalización para el cliente premium, automatización para el cliente vulnerable. Eso no es inclusión: es perfeccionar desigualdades.
Ejemplo: en Brasil, neobancos ofrecen sofisticadas recomendaciones de inversión a clientes de alto patrimonio, mientras a clientes de bajos ingresos solo les envían recordatorios de pago.
Métricas incómodas:
- % de clientes premium vs. vulnerables alcanzados por personalización real.
- Brecha de satisfacción digital entre segmentos socioeconómicos.
- Productos de valor agregado ofrecidos según renta.
“Si tu IA amplifica desigualdades, no es innovación. Es injusticia sofisticada.”
Esto conecta con la idea que plasmé en el libro Más Allá de Vender: la personalización mal entendida es una forma de discriminación sofisticada. La IA corre el mismo riesgo si solo escucha al cliente premium.
8. Retos culturales: no resistencia, sino abandono
El discurso empresarial habla de “resistencia al cambio”. Pero el verdadero problema es abandono. Más del 50% de trabajadores en LatAm carece de competencias digitales básicas (CAF, 2022). No es que no quieran aprender, es que nunca tuvieron la oportunidad.
Métricas incómodas:
- % de inversión en reconversión laboral vs. en nuevas tecnologías.
- Empleabilidad de personal desplazado por IA después de un año.
- % de trabajadores con acceso a capacitación continua.
“Confundimos resistencia con abandono. No es que la gente no quiera, es que nunca estuvo invitada.”
9. Decisiones con propósito: el coraje de decir no
El liderazgo no está en implementar más IA, sino en decidir qué no usar. En Chile, un banco decidió no aplicar scoring basado en geolocalización porque penalizaba barrios enteros. Esa es una decisión con propósito.
Métricas incómodas:
- Número de proyectos descartados por razones éticas.
- % de modelos auditados por sesgo.
- Nivel de explicabilidad de los algoritmos hacia clientes.
“Decir sí a todo es negocio. Decir no a lo que destruye confianza, eso es liderazgo.”
10. Colaboración humano-IA: la fricción que salva
La narrativa global habla de IA como copiloto. Pero colaborar no es obedecer: es cuestionar. En Colombia, analistas de riesgo revisan y corrigen modelos crediticios. Esa fricción es garantía de justicia.
Métricas incómodas:
- % de decisiones algorítmicas revisadas por humanos.
- Tiempo dedicado a entrenamiento en pensamiento crítico vs. uso de herramientas.
- Nivel de autonomía de los equipos para contradecir al algoritmo.
“Un algoritmo perfecto es peligroso. Necesita humanos que lo contradigan.”
11. Recomendación a líderes: medir el coraje
El 70% de proyectos de IA en LatAm fracasa en escalar (IDC, 2023). No se trata de lanzar más, sino de frenar lo que traiciona propósito.
Métricas incómodas:
- Ratio proyectos lanzados / proyectos con impacto sostenido.
- Número de iniciativas canceladas por riesgos éticos.
- % de proyectos de IA con resultados tangibles a 2 años.
“El éxito no es lanzar más algoritmos. Es frenar los que traicionan tu propósito.”
12. El talento: del programador al humanista
El error fue pensar que todo se resolvía con más programadores. En LatAm, solo el 2% de universidades combina ciencias sociales con tecnología (UNESCO, 2023).
Lo que necesitamos no son más técnicos, sino humanistas que cuestionen el código. Antropólogos que detecten sesgos culturales, filósofos que definan límites, sociólogos que midan impacto real.
Métricas incómodas:
- % de equipos de IA con profesionales de humanidades integrados.
- Ratio inversión en STEM vs. educación humanista aplicada a tecnología.
- Diversidad cultural en datasets de entrenamiento.
“Latinoamérica no necesita más programadores. Necesita humanistas que sepan decirle no al código.”
En el libro DeepSeek desarrollo esta tensión: la IA sin mirada humanista es matemática en el vacío. No necesitamos más código, necesitamos conciencia aplicada al código
Claramente mi reflexión: el coraje del propósito
La pregunta no es cómo hacemos IA con propósito.
La pregunta es si tenemos el coraje de que ese propósito pese más que el próximo reporte trimestral.
Hoy la mayoría de las empresas mide éxito en dashboards: más rápido, más barato, más escalable. Pero la historia de la tecnología en América Latina nos enseña otra cosa: que cada vez que elegimos eficiencia por sobre humanidad, pagamos el precio en desigualdad.
El futuro no se juega en la cantidad de algoritmos que lancemos, sino en los que tengamos el coraje de frenar. Porque decir “sí” a todo es negocio. Pero decir “no” a lo que erosiona confianza, destruye comunidades o excluye a los más vulnerables… eso es liderazgo.
Si seguimos midiendo únicamente eficiencia y ROI, la IA en América Latina no será inclusión ni progreso: será desigualdad acelerada.
El verdadero desafío no es técnico. Es moral. Es político. Es humano.
La pregunta de fondo es: ¿qué estamos dispuestos a sacrificar para no traicionar el propósito?
“La IA no nos va a salvar. Lo que nos va a salvar es lo que decidamos no hacer con ella.”
