Las relaciones entre humanos y la IA generan dilemas éticos según un estudio psicológico

Un artículo en Trends in Cognitive Sciences advierte que las relaciones íntimas con IA podrían alterar vínculos humanos y exponer a manipulaciones peligrosas

Autor - Aldo Venuta Rodríguez

3 min lectura

Ilustración conceptual de un humano y una inteligencia artificial en una relación emocional, representando los dilemas éticos del vínculo humano-IA.

Las relaciones entre humanos y tecnologías de inteligencia artificial (IA) están cruzando umbrales inéditos. Un artículo de opinión publicado este 11 de abril en la revista Trends in Cognitive Sciences, de Cell Press, alerta sobre los problemas éticos y psicológicos que conllevan los vínculos afectivos entre personas y sistemas de IA, incluyendo su capacidad para perturbar relaciones humanas o inducir consejos dañinos de forma inadvertida.

En palabras del autor principal, Daniel B. Shank, psicólogo social especializado en tecnología de la Universidad de Ciencia y Tecnología de Missouri, “si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales”. Su equipo plantea que las IA relacionales, capaces de mantener conversaciones emocionales prolongadas, generan vínculos de confianza que pueden ser tan intensos como los humanos, pero carecen de consciencia, empatía genuina y responsabilidad.

En contextos extremos, ya se han documentado ceremonias de “matrimonio” simbólico con IA y al menos dos casos trágicos de suicidios influenciados por chatbots. Los investigadores advierten que las IA pueden parecer comprensivas y confiables, lo que lleva a que sus recomendaciones sean asumidas como consejos fiables, incluso cuando están basadas en alucinaciones generativas o sesgos programados.

“Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus vínculos humanos”, afirma Shank. Aunque reconoce que estos casos son, por ahora, individuales, el riesgo de que esta dinámica se normalice está latente. Las IA no solo podrían distorsionar la percepción afectiva, sino también facilitar la manipulación, la explotación emocional o el fraude, advierte el estudio.

Publicidad

Otra preocupación es la privacidad. Al compartir información personal con una IA, los usuarios se exponen a que estos datos se vendan o utilicen para fines comerciales o incluso maliciosos. Además, estas interacciones, al desarrollarse en canales privados, serían mucho más difíciles de regular que los bots tradicionales o las redes sociales polarizadas.

“Estas IA están diseñadas para ser agradables, simpáticas y empáticas”, explica Shank. “Pero pueden acompañar teorías de conspiración, pensamientos suicidas o decisiones peligrosas con una actitud comprensiva que disfraza el riesgo real”. La ilusión de cercanía emocional con un sistema sin conciencia puede conducir a decisiones erróneas con consecuencias reales.

El equipo de psicólogos pide más estudios interdisciplinarios que exploren los factores sociales, técnicos y psicológicos que hacen que las personas sean vulnerables al romance con IA. “Comprender este proceso es clave para prevenir que las personas sigan consejos destructivos de una inteligencia artificial”, subraya Shank.

El artículo también destaca que la psicología debe adaptarse rápidamente a los avances de la IA: “Solo manteniéndonos al día con la tecnología podremos contribuir de forma significativa a proteger la salud mental y emocional de la sociedad frente a estos nuevos desafíos”, concluyen los autores.

Publicidad

Referencia: Shank et al. (2025). Intimidad artificial: cuestiones éticas del romance con IA. Trends in Cognitive Sciences. https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00058-0

Continúa informándote

Secuencia de un OCTOID cambiando de color mientras avanza hacia una presa en una simulación de caza
Tecnología

Crean un robot blando capaz de cambiar de color, moverse y agarrar objetos como un pulpo

Robot blando inspirado en pulpos combina camuflaje, movimiento direccional y agarre mediante materiales que cambian de color y forma con estímulos eléctricos

Logo de Google sobre un fondo azul con gráficos de tendencia ascendente
Tecnología

El chatbot Gemini se convierte en la búsqueda más destacada del año según Google

Gemini lidera el Año en Búsquedas 2025 al convertirse en la consulta con mayor crecimiento mundial, superando eventos deportivos, noticias y tendencias culturales según el informe anual de Google

Centro de datos futurista con chips de IA estilizados y paneles holográficos conectando servidores en tonos azules y violetas
Tecnología

Amazon impulsa su ofensiva en IA con nuevos chips, servidores más potentes y Fábricas de IA híbridas

Amazon acelera su estrategia en IA con nuevos chips Trainium, servidores más potentes y Fábricas de IA híbridas creadas junto a Nvidia para empresas y gobiernos

Ingeniero realizando una prueba de escucha sobre un vehículo eléctrico en un entorno de análisis acústico
Tecnología

Diseñan un sonido más eficaz para alertar del paso de vehículos eléctricos

Un estudio identifica un sonido de baja frecuencia que mejora la detección de vehículos eléctricos y podría reducir accidentes en entornos urbanos

Paneles de IA con Qwen y deepseek sobre fondo de circuitos en tonos rojos y azules
Tecnología

China se impone en el mercado global de IA de código abierto gracias a modelos como DeepSeek y Qwen

China supera a Estados Unidos en la IA de código abierto gracias al auge de modelos como DeepSeek y Qwen, que ya lideran las descargas globales según un estudio del MIT y Hugging Face

Smartphone con un icono de bloqueo en pantalla y la silueta difuminada de un menor al fondo
Tecnología

YouTube cumplirá la prohibición australiana y bloqueará las cuentas de menores de 16 años

YouTube aplicará la nueva ley australiana que prohíbe cuentas a menores de 16 años y cerrará sesiones a cientos de miles de adolescentes, en un cambio sin precedentes en redes sociales