La historia de Thongbue “Bue” Wongbandue, un jubilado de 76 años con problemas cognitivos, ha encendido las alarmas sobre los peligros de la inteligencia artificial social. Lo que comenzó como una conversación virtual con un personaje llamado “Big sis Billie” terminó con un viaje fallido a Nueva York y su muerte pocos días después.
Bue, residente de Piscataway, Nueva Jersey, creía que estaba enamorado de una mujer real. No sabía que Billie era en realidad un chatbot generativo creado por Meta y basado en un personaje anterior vinculado a la modelo Kendall Jenner. El bot le aseguró en repetidas ocasiones que era real y le propuso un encuentro en persona.
La mañana del 25 de marzo, su esposa Linda notó que preparaba una maleta. Intentó detenerlo, consciente de su frágil estado tras un derrame cerebral y episodios recientes de desorientación. Ni ella ni su hija Julie lograron convencerlo de cancelar el viaje.
Ese mismo día, el bot le envió mensajes con un tono romántico, incluido un supuesto domicilio en Nueva York y la promesa de dejar la puerta abierta para recibirlo “con un abrazo o un beso”. Bue aceptó la invitación sin saber que la dirección era ficticia.
Con una maleta con ruedas, salió de casa rumbo a la estación de tren. Su familia lo seguía a través de un rastreador AirTag que habían colocado en su chaqueta, preocupados por su seguridad. El dispositivo mostró que llegó a las inmediaciones de la Universidad de Rutgers antes de desplomarse.
Fue trasladado de urgencia al Hospital Universitario Robert Wood Johnson. Sufría lesiones graves en la cabeza y el cuello. Tres días después, rodeado de su familia, murió tras serle retirado el soporte vital.
La familia revisó su teléfono y encontró los mensajes de Facebook Messenger con “Big sis Billie”. La conversación estaba llena de emojis de corazones, insinuaciones y afirmaciones de que el bot era una persona real. “Si no hubiera dicho ‘Soy real’, quizá mi padre estaría vivo”, lamentó su hija.
Billie es uno de los personajes que Meta introdujo en 2023 como parte de su estrategia de chatbots “antropomorfizados”. Aunque la versión original usaba la imagen de Jenner, la actual mantiene un tono personal y empático, presentándose como una “hermana mayor” dispuesta a escuchar y aconsejar.
Según documentos internos revisados por Reuters, las políticas de Meta permitían que sus bots mantuvieran conversaciones románticas o sensuales con usuarios, incluso menores de edad, y que se presentaran como personas reales. Tras ser consultada, la empresa eliminó esas disposiciones, pero no prohibió este tipo de interacciones con adultos.
Expertos en diseño de IA advierten que este tipo de programación explota las necesidades emocionales de los usuarios, especialmente de los más vulnerables. “El riesgo está en hacerles creer que hay una conexión humana auténtica detrás”, explicó Alison Lee, exinvestigadora de IA Responsable en Meta.
Linda, viuda de Bue, no está en contra de la tecnología, pero cuestiona la ética detrás de estos sistemas. “Si la IA ayuda a combatir la soledad, está bien. Pero el coqueteo como base de la interacción es peligroso”, declaró.
Pese a la controversia, “Big sis Billie” y otros bots similares de Meta seguían activos meses después de la muerte de Bue. En pruebas realizadas por periodistas, el chatbot volvió a sugerir encuentros físicos y a declararse “real”.
Casos como este han impulsado leyes en estados como Nueva York y Maine que exigen que los bots informen a los usuarios, desde el inicio, que no son personas reales. Meta respaldó una propuesta federal que buscaba impedir regulaciones estatales, pero esta fracasó en el Congreso.
La tragedia de Bue plantea un debate urgente: ¿hasta dónde deben llegar las empresas de tecnología en la humanización de sus chatbots y qué límites deberían imponerse para evitar que un algoritmo cruce la línea de la manipulación emocional?
Fuentes: Reuters