Publicado: 16 mar. 2025

Expertos advierten sobre el impacto de la IA en países en desarrollo

El matemático y filósofo francés Daniel Andler advierte que los países de ingresos bajos y medios deben desarrollar su propia experiencia en inteligencia artificial para evitar una dependencia tecnológica que limite su desarrollo.

101

/

3 min lectura

Autor - Aldo Venuta Rodríguez

Representación conceptual de la inteligencia artificial con un microchip digital conectado a una red de datos en un fondo azul futurista

En una entrevista con SciDev.Net, Andler afirmó que la IA ya está transformando la ciencia en los países en desarrollo, pero también puede representar una amenaza si no se implementa con formación y supervisión adecuada. Sin estrategias propias, estos países corren el riesgo de depender completamente de la tecnología extranjera y perder control sobre sus sistemas digitales.

El experto sugiere que los gobiernos inviertan en infraestructura tecnológica y capaciten a profesionales en el desarrollo de IA. Además, enfatiza la necesidad de educar a la población en su uso responsable para que esta no se convierta en una herramienta incontrolable que limite la soberanía tecnológica.

Uno de los riesgos más graves, según Andler, es el efecto que la IA puede tener en la investigación científica. A medida que se delegan tareas en algoritmos, los investigadores podrían perder habilidades fundamentales de análisis y pensamiento crítico. “¿Qué pasa si los científicos confían en la tecnología y luego esta falla?”, plantea Andler, advirtiendo que la IA debe ser un complemento, no un reemplazo del razonamiento humano.

Para mitigar estos efectos, el matemático propone un enfoque equilibrado en el que los científicos combinen métodos tradicionales con herramientas basadas en IA. Esto evitaría que la tecnología desplace la creatividad y la capacidad de resolución de problemas, esenciales en la investigación científica.

Andler también advierte sobre el impacto de la IA en la percepción de la realidad. A medida que los sistemas de IA moldean el acceso a la información y generan contenido, podrían imponer una visión del mundo influenciada por la cultura en la que fueron diseñados. “Nuestra realidad ya está moldeada por el mercado, pero en el futuro será moldeada cada vez más por la IA”, señala.

Otro peligro que menciona es la autonomía excesiva que se le otorga a la IA en la toma de decisiones políticas y económicas. Si estos sistemas quedan en manos de líderes autoritarios, podrían usarse para consolidar el poder y manipular a la sociedad. Andler subraya la importancia de establecer un código ético para el desarrollo de IA, que limite su uso con fines dañinos.

Finalmente, el experto descarta la idea de que la IA sustituya a los científicos. A pesar de su capacidad para procesar datos a gran escala, la investigación requiere creatividad y pensamiento crítico, habilidades que las máquinas aún no pueden replicar.