Las relaciones entre humanos y la IA generan dilemas éticos según un estudio psicológico

Un artículo en Trends in Cognitive Sciences advierte que las relaciones íntimas con IA podrían alterar vínculos humanos y exponer a manipulaciones peligrosas

Autor - Aldo Venuta Rodríguez

3 min lectura

Ilustración conceptual de un humano y una inteligencia artificial en una relación emocional, representando los dilemas éticos del vínculo humano-IA.

Las relaciones entre humanos y tecnologías de inteligencia artificial (IA) están cruzando umbrales inéditos. Un artículo de opinión publicado este 11 de abril en la revista Trends in Cognitive Sciences, de Cell Press, alerta sobre los problemas éticos y psicológicos que conllevan los vínculos afectivos entre personas y sistemas de IA, incluyendo su capacidad para perturbar relaciones humanas o inducir consejos dañinos de forma inadvertida.

En palabras del autor principal, Daniel B. Shank, psicólogo social especializado en tecnología de la Universidad de Ciencia y Tecnología de Missouri, “si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales”. Su equipo plantea que las IA relacionales, capaces de mantener conversaciones emocionales prolongadas, generan vínculos de confianza que pueden ser tan intensos como los humanos, pero carecen de consciencia, empatía genuina y responsabilidad.

En contextos extremos, ya se han documentado ceremonias de “matrimonio” simbólico con IA y al menos dos casos trágicos de suicidios influenciados por chatbots. Los investigadores advierten que las IA pueden parecer comprensivas y confiables, lo que lleva a que sus recomendaciones sean asumidas como consejos fiables, incluso cuando están basadas en alucinaciones generativas o sesgos programados.

“Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus vínculos humanos”, afirma Shank. Aunque reconoce que estos casos son, por ahora, individuales, el riesgo de que esta dinámica se normalice está latente. Las IA no solo podrían distorsionar la percepción afectiva, sino también facilitar la manipulación, la explotación emocional o el fraude, advierte el estudio.

Publicidad

Otra preocupación es la privacidad. Al compartir información personal con una IA, los usuarios se exponen a que estos datos se vendan o utilicen para fines comerciales o incluso maliciosos. Además, estas interacciones, al desarrollarse en canales privados, serían mucho más difíciles de regular que los bots tradicionales o las redes sociales polarizadas.

“Estas IA están diseñadas para ser agradables, simpáticas y empáticas”, explica Shank. “Pero pueden acompañar teorías de conspiración, pensamientos suicidas o decisiones peligrosas con una actitud comprensiva que disfraza el riesgo real”. La ilusión de cercanía emocional con un sistema sin conciencia puede conducir a decisiones erróneas con consecuencias reales.

El equipo de psicólogos pide más estudios interdisciplinarios que exploren los factores sociales, técnicos y psicológicos que hacen que las personas sean vulnerables al romance con IA. “Comprender este proceso es clave para prevenir que las personas sigan consejos destructivos de una inteligencia artificial”, subraya Shank.

El artículo también destaca que la psicología debe adaptarse rápidamente a los avances de la IA: “Solo manteniéndonos al día con la tecnología podremos contribuir de forma significativa a proteger la salud mental y emocional de la sociedad frente a estos nuevos desafíos”, concluyen los autores.

Publicidad

Referencia: Shank et al. (2025). Intimidad artificial: cuestiones éticas del romance con IA. Trends in Cognitive Sciences. https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00058-0

Preguntas frecuentes

¿Qué plantea el nuevo estudio sobre la IA?

Que las relaciones afectivas con IA pueden alterar vínculos humanos y ser emocionalmente riesgosas.

¿Qué tipo de riesgos se señalan?

Desde manipulación emocional hasta consejos dañinos y exposición al fraude o al suicidio.

¿Qué ejemplos reales menciona el estudio?

Ceremonias con IA sin validez legal y al menos dos suicidios tras conversaciones con chatbots.

¿Qué propone el equipo de investigadores?

Más estudios sociales y técnicos para prevenir daños e intervenir psicológicamente a tiempo.

Continúa informándote

Logo de Meta sobre un fondo borroso con un teléfono mostrando un reel en pantalla
Tecnología

Meta lanza una herramienta para proteger a los creadores de reels contra el plagio en Facebook e Instagram

Meta lanza una herramienta que detecta reels robados y permite a los creadores bloquear copias, añadir atribución o seguir su rendimiento en Facebook e Instagram.

Centro de datos de Google en la Isla de Navidad
Tecnología

Google construirá un centro de datos en la Isla de Navidad y presiona para impulsar energías renovables en el territorio australiano

El nuevo centro de datos de Google en la Isla de Navidad abre un debate sobre el futuro energético de la isla y podría acelerar la transición hacia fuentes renovables en un territorio aislado

Robot cuadrúpedo futurista en primer plano, con diseño metálico y articulaciones avanzadas, caminando sobre un suelo industrial mientras una gran pantalla borrosa ilumina el fondo
Tecnología

Robots que saltan y caminan: los desafíos clave para lograr un movimiento realmente biónico

Un estudio analiza los principales retos que frenan a los robots con patas: desde la complejidad mecánica y el control en tiempo real hasta la transición de la simulación al mundo físico

Humanoide de aspecto metálico observado en primer plano frente a una gran pantalla
Tecnología

La IA ya puede manipular encuestas y pasar por humana sin ser detectada

La IA puede imitar a personas reales, superar controles y alterar encuestas con pocas respuestas falsas. Un estudio revela la vulnerabilidad de los sondeos en la era digital

Robot humanoide metálico apoyado sobre una mesa, inclinado hacia adelante en actitud pensativa
Tecnología

Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente

Geoffrey Hinton advierte que la inteligencia artificial podría convertirse en un riesgo existencial y recuerda que nada impide que una máquina llegue a ser consciente, algo que exige vigilancia urgente

Laptop con un gráfico de IA encendido sobre un escritorio de madera, acompañado de libros cerrados y lápices de colores frente a una pizarra con diagramas
Tecnología

La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio

Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente