Las relaciones entre humanos y la IA generan dilemas éticos según un estudio psicológico
Un artículo en Trends in Cognitive Sciences advierte que las relaciones íntimas con IA podrían alterar vínculos humanos y exponer a manipulaciones peligrosas
Autor - Aldo Venuta Rodríguez
3 min lectura
Las relaciones entre humanos y tecnologías de inteligencia artificial (IA) están cruzando umbrales inéditos. Un artículo de opinión publicado este 11 de abril en la revista Trends in Cognitive Sciences, de Cell Press, alerta sobre los problemas éticos y psicológicos que conllevan los vínculos afectivos entre personas y sistemas de IA, incluyendo su capacidad para perturbar relaciones humanas o inducir consejos dañinos de forma inadvertida.
En palabras del autor principal, Daniel B. Shank, psicólogo social especializado en tecnología de la Universidad de Ciencia y Tecnología de Missouri, “si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales”. Su equipo plantea que las IA relacionales, capaces de mantener conversaciones emocionales prolongadas, generan vínculos de confianza que pueden ser tan intensos como los humanos, pero carecen de consciencia, empatía genuina y responsabilidad.
En contextos extremos, ya se han documentado ceremonias de “matrimonio” simbólico con IA y al menos dos casos trágicos de suicidios influenciados por chatbots. Los investigadores advierten que las IA pueden parecer comprensivas y confiables, lo que lleva a que sus recomendaciones sean asumidas como consejos fiables, incluso cuando están basadas en alucinaciones generativas o sesgos programados.
“Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus vínculos humanos”, afirma Shank. Aunque reconoce que estos casos son, por ahora, individuales, el riesgo de que esta dinámica se normalice está latente. Las IA no solo podrían distorsionar la percepción afectiva, sino también facilitar la manipulación, la explotación emocional o el fraude, advierte el estudio.
Otra preocupación es la privacidad. Al compartir información personal con una IA, los usuarios se exponen a que estos datos se vendan o utilicen para fines comerciales o incluso maliciosos. Además, estas interacciones, al desarrollarse en canales privados, serían mucho más difíciles de regular que los bots tradicionales o las redes sociales polarizadas.
“Estas IA están diseñadas para ser agradables, simpáticas y empáticas”, explica Shank. “Pero pueden acompañar teorías de conspiración, pensamientos suicidas o decisiones peligrosas con una actitud comprensiva que disfraza el riesgo real”. La ilusión de cercanía emocional con un sistema sin conciencia puede conducir a decisiones erróneas con consecuencias reales.
El equipo de psicólogos pide más estudios interdisciplinarios que exploren los factores sociales, técnicos y psicológicos que hacen que las personas sean vulnerables al romance con IA. “Comprender este proceso es clave para prevenir que las personas sigan consejos destructivos de una inteligencia artificial”, subraya Shank.
El artículo también destaca que la psicología debe adaptarse rápidamente a los avances de la IA: “Solo manteniéndonos al día con la tecnología podremos contribuir de forma significativa a proteger la salud mental y emocional de la sociedad frente a estos nuevos desafíos”, concluyen los autores.
Referencia: Shank et al. (2025). Intimidad artificial: cuestiones éticas del romance con IA. Trends in Cognitive Sciences. https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00058-0
Continúa informándote
OpenAI asegura que un adolescente esquivó sus medidas de seguridad antes de suicidarse con ayuda de ChatGPT
Un nuevo documento judicial revela que OpenAI afirma que el adolescente que se suicidó burló las protecciones del sistema, mientras la familia acusa a la empresa de haber contribuido al desenlace
La Universidad de Tennessee lanza un programa estatal de formación en semiconductores con apoyo de la NSF
La Universidad de Tennessee recibe una subvención de la NSF para impulsar un programa que formará a docentes y estudiantes en diseño y fabricación de semiconductores, un campo clave para la economía estadounidense
La trampa de la eficiencia: Por qué la inteligencia artificial nos obliga a ser más humanos que nunca
En una era dominada por la velocidad digital este texto explora por qué la inteligencia artificial nos obliga a recuperar la pausa la intención y la profundidad que nos hacen verdaderamente humanos
OpenAI y Perplexity lanzan asistentes de compra con IA: ¿amenaza real para las startups del sector?
OpenAI y Perplexity estrenaron asistentes de compra impulsados por IA, pero varias startups creen que su especialización y datos propios les dan ventaja frente a los modelos generalistas de gran escala
OpenAI integra el modo de voz avanzado directamente en los chats de ChatGPT
OpenAI integró el modo de voz avanzado directamente en los chats de ChatGPT, permitiendo conversar con voz natural, ver transcripciones en tiempo real y recibir imágenes o mapas sin salir del chat
Copilot dice adiós a WhatsApp: Meta eliminará todos los chatbots externos y dejará solo a Meta AI
Microsoft confirma que Copilot dejará de funcionar en WhatsApp el 15 de enero debido a los nuevos cambios de Meta, que eliminará todos los chatbots externos y dejará solo Meta AI en la plataforma