La inteligencia artificial ha pasado en pocos años de ser vista como una promesa futurista a convertirse en una herramienta concreta en empresas, gobiernos y la vida cotidiana. Sin embargo, el entusiasmo inicial convive hoy con una creciente lista de problemas técnicos, económicos y éticos que plantean dudas sobre su sostenibilidad a corto plazo.
Estudios recientes muestran que cerca del 70% de los proyectos de IA no pasan de la fase piloto. Muchas compañías descubren que carecen de la infraestructura de datos, el talento o la estrategia necesaria para convertir pruebas exitosas en productos estables y escalables.
Uno de los principales retos es la dependencia de datos de calidad. Sin bases de información representativas, los algoritmos cometen errores sistemáticos, generan sesgos y refuerzan desigualdades existentes. Este fenómeno afecta desde procesos de contratación hasta diagnósticos médicos.
A ello se suma la dificultad de medir de manera clara el retorno de inversión. Mientras algunos sectores como banca, salud y telecomunicaciones logran beneficios inmediatos, para la mayoría de empresas el costo de implementar IA supera los resultados tangibles.
Los errores también son visibles en casos mediáticos. Amazon tuvo que retirar una herramienta de reclutamiento que discriminaba a mujeres; Zillow perdió millones con un algoritmo que calculaba mal el precio de viviendas; y proyectos hospitalarios fallaron en predecir la evolución de pacientes durante la pandemia.
Más allá de lo técnico, la inteligencia artificial enfrenta un terreno minado en lo ético. El sesgo algorítmico y la opacidad en las decisiones plantean riesgos graves para los derechos humanos, desde aplicaciones de reconocimiento facial que fallan con determinados grupos hasta sistemas que amplifican discursos de odio.
El caso de Myanmar en 2017, donde algoritmos de recomendación contribuyeron a difundir mensajes contra la minoría rohinyá, es un ejemplo de cómo una tecnología diseñada para conectar a las personas puede tener consecuencias devastadoras en contextos sociales y políticos delicados.
Los dilemas también alcanzan la privacidad. La recopilación masiva de datos para entrenar modelos de IA ha abierto un debate global sobre la vigilancia, el consentimiento y el control ciudadano. Para muchos expertos, la transparencia en el uso de datos será la batalla central de los próximos años.
Otro aspecto crítico es la seguridad. La capacidad de generar deepfakes, noticias falsas y contenidos manipulados amenaza la estabilidad de democracias y la confianza en la información. El riesgo no está solo en la sofisticación técnica, sino en la velocidad con la que estas herramientas se expanden.
El mercado laboral es otra área de fricción. Aunque se prevé que la IA cree nuevos empleos especializados, también eliminará millones de puestos tradicionales. La transición laboral no será sencilla y plantea la necesidad de políticas activas de capacitación y protección social.
La falta de regulación común a nivel internacional agrava la situación. Mientras la Unión Europea avanza en leyes específicas de IA, otros países se mueven lentamente, creando un escenario de vacíos legales que empresas y gobiernos aprovechan para experimentar sin demasiados controles.
Expertos insisten en que la supervisión humana debe seguir siendo el eje central de cualquier despliegue. No se trata de frenar la innovación, sino de garantizar que la inteligencia artificial funcione como apoyo y no como sustituto de la toma de decisiones críticas.
A pesar de los tropiezos, la IA continúa siendo una de las tecnologías con mayor potencial transformador. Pero el futuro inmediato dependerá menos de avances técnicos espectaculares y más de la capacidad de resolver los problemas de sesgo, gobernanza, seguridad y confianza pública.
En este contexto, la gran pregunta es si la sociedad podrá adaptar sus marcos legales, éticos y culturales con la misma rapidez con que evolucionan los algoritmos. Si no lo hace, el riesgo no es solo el fracaso de proyectos empresariales, sino un retroceso en derechos y cohesión social.