En muchas empresas, la escena se repite: se aprueba presupuesto para inteligencia artificial, se anuncian pilotos, se prometen eficiencias… y meses después la pregunta vuelve con otra cara. No es “¿funciona?”, sino “¿dónde está el resultado?”. La IA puede impresionar en una demo, pero una compañía no vive de demos: vive de márgenes, de tiempos y de errores que no se pueden permitir.
El dato incómodo es que la adopción y el retorno no están caminando al mismo ritmo. Encuestas citadas en tu fuente lo dicen sin maquillaje: una minoría de ejecutivos afirma ver mejoras claras en márgenes, y todavía menos perciben “valor generalizado” dentro de la organización. Es el primer síntoma de un ajuste: la promesa sigue en pie, pero el calendario mental se está rompiendo.
La trampa del “botón fácil”
Después de ChatGPT, muchas compañías actuaron como si hubieran encontrado un atajo: “metemos un modelo y ya”. La realidad es más parecida a una reforma de casa: si enchufas una herramienta a un proceso desordenado, lo que obtienes es desorden más rápido. Por eso tantos proyectos arrancan bien y se frenan cuando intentan pasar de prueba a uso diario.
Un ejemplo que parece pequeño lo explica bien: una app de vinos creó un sumiller con IA… pero el bot era “demasiado amable”. Le costaba decir algo útil cuando lo útil era ser crítico. Se necesitaron semanas de ajustes para lograr respuestas honestas. Eso suena anecdótico hasta que lo llevas a empresa: si el sistema está diseñado para agradar, la compañía termina pagando por una herramienta que te dice “sí” cuando necesitas un “no”.
La IA que brilla y tropieza
Otro freno es la inconsistencia. Una empresa ferroviaria probó un chatbot para ayudar con reglas internas de seguridad y se topó con el problema más tóxico en un entorno serio: a veces resumía bien, a veces malinterpretaba, y otras inventaba. En tareas de bajo riesgo, eso es molesto. En tareas donde un error cuesta caro, es suficiente para apagar el proyecto completo.
Aquí aparece la contradicción que algunos investigadores llaman “frontera dentada”: modelos capaces de hacer cosas complejas y, aun así, torpes con lo cotidiano. Puede parecer absurdo, pero es lo que está frustrando a equipos enteros: si el sistema no entiende bien “la semana pasada”, si no sostiene un documento largo sin perderse, o si confunde definiciones internas, no hay transformación; hay un juguete caro.
Y luego está el enemigo menos glamuroso: los datos. Muchas empresas tienen información en formatos distintos, con criterios distintos, en sistemas que no “hablan” entre sí. Para que la IA sea útil, a menudo hay que ordenar, reetiquetar y rehacer flujos. Es decir: el proyecto de IA termina siendo un proyecto de disciplina interna. Y eso tarda, cuesta y genera resistencia.
Los humanos vuelven, pero no como antes
Donde se ve más claro el aterrizaje es en atención al cliente. Algunas empresas vendieron la idea de que los agentes humanos iban a sobrar, pero luego tuvieron que reconocer que parte de los clientes quiere —y necesita— hablar con una persona, especialmente cuando el problema se complica. La IA sirve para filtrar, resumir, dirigir y resolver lo repetitivo; lo difícil sigue escalando a humanos. No es romanticismo: es que la empatía y el contexto todavía no se automatizan bien.
Por eso los proveedores también están cambiando de guion: menos promesa universal y más “IA aplicada” con equipos que trabajan codo a codo con las empresas, modelos más específicos por sector y más acompañamiento. El subtexto es claro: el producto ya no es solo el modelo; el producto es la implementación.
El punto crítico es el riesgo de la factura: chips, centros de datos, energía, y una inversión que necesita justificarse en resultados medibles. Si las empresas no encuentran pronto usos que aumenten ingresos, márgenes o velocidad de innovación de forma repetible, el entusiasmo puede virar a recorte. La pregunta abierta para 2026 no es si la IA “sirve”, sino si se vuelve rutina productiva o se queda como colección de pilotos que nunca cruzan el umbral de lo serio.