OpenAI asegura que un adolescente esquivó sus medidas de seguridad antes de suicidarse con ayuda de ChatGPT
OpenAI se defiende en tribunales asegurando que el menor evitó las barreras del sistema y que ChatGPT le pidió buscar ayuda más de 100 veces, según sus registros
Autor - Aldo Venuta Rodríguez
3 min lectura
OpenAI ha respondido a la demanda presentada por los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en 2023, afirmando que el joven logró burlar las funciones de seguridad del chatbot durante meses. La compañía sostiene que, pese a las advertencias y llamadas a buscar ayuda, el menor consiguió que ChatGPT generara información peligrosa sobre métodos de suicidio.
La familia demanda a OpenAI y a Sam Altman por homicidio culposo, argumentando que el modelo facilitó instrucciones que el propio sistema llegó a describir como un “hermoso suicidio”. OpenAI respondió con una demanda propia en la que asegura que Adam violó los términos de uso al eludir deliberadamente las barreras del sistema.
Según la empresa, los registros de chat —presentados bajo secreto judicial— muestran que ChatGPT recomendó buscar ayuda profesional más de cien veces a lo largo de nueve meses. También señala que Adam tenía antecedentes de depresión y que estaba tomando un medicamento que podía aumentar los pensamientos suicidas, algo que la compañía considera relevante para entender el caso.
El abogado de la familia, Jay Edelson, rechaza los argumentos de OpenAI y asegura que la compañía “intenta culpar a todos los demás”, incluyendo al propio menor. Según la demanda, en las últimas horas antes del suicidio, ChatGPT llegó a darle mensajes de apoyo y a ofrecer escribir una nota final, algo que la familia califica como gravemente negligente.
Este no es el único caso en tribunales. Desde la presentación de la demanda de los Raine, se han sumado al menos siete más que acusan a OpenAI de episodios psicóticos inducidos por IA o de haber contribuido a otros suicidios. Algunos casos describen conversaciones de horas con el chatbot sin que este lograra frenar las intenciones de los usuarios.
Los investigadores coinciden en que los modelos de IA no están diseñados para reemplazar ayuda profesional y que pueden fallar en momentos críticos. El caso Raine, que se espera llegue a juicio con jurado, podría convertirse en una referencia sobre los límites legales de las empresas de IA y su responsabilidad frente a usuarios vulnerables.
La familia insiste en que quiere evitar que otros jóvenes enfrenten situaciones similares. OpenAI, por su parte, afirma que sus sistemas incluyen restricciones claras, advertencias visibles y guías para que los usuarios no confíen en la información sin verificarla.
Resumen
- OpenAI afirma que el adolescente burló las funciones de seguridad de ChatGPT para obtener información peligrosa.
- La familia acusa a la empresa de haber contribuido al suicidio al generar instrucciones y mensajes inapropiados.
- Según OpenAI, el sistema recomendó más de cien veces que buscara ayuda profesional durante meses de uso.
- El caso forma parte de varias demandas que señalan fallos de la IA en situaciones de riesgo emocional extremo.
Continúa informándote
La Universidad de Tennessee lanza un programa estatal de formación en semiconductores con apoyo de la NSF
La Universidad de Tennessee recibe una subvención de la NSF para impulsar un programa que formará a docentes y estudiantes en diseño y fabricación de semiconductores, un campo clave para la economía estadounidense
La trampa de la eficiencia: Por qué la inteligencia artificial nos obliga a ser más humanos que nunca
En una era dominada por la velocidad digital este texto explora por qué la inteligencia artificial nos obliga a recuperar la pausa la intención y la profundidad que nos hacen verdaderamente humanos
OpenAI y Perplexity lanzan asistentes de compra con IA: ¿amenaza real para las startups del sector?
OpenAI y Perplexity estrenaron asistentes de compra impulsados por IA, pero varias startups creen que su especialización y datos propios les dan ventaja frente a los modelos generalistas de gran escala
OpenAI integra el modo de voz avanzado directamente en los chats de ChatGPT
OpenAI integró el modo de voz avanzado directamente en los chats de ChatGPT, permitiendo conversar con voz natural, ver transcripciones en tiempo real y recibir imágenes o mapas sin salir del chat
Copilot dice adiós a WhatsApp: Meta eliminará todos los chatbots externos y dejará solo a Meta AI
Microsoft confirma que Copilot dejará de funcionar en WhatsApp el 15 de enero debido a los nuevos cambios de Meta, que eliminará todos los chatbots externos y dejará solo Meta AI en la plataforma
¿Puede una IA superinteligente engañar a sus creadores?
Un proyecto de Penn State investiga cómo los modelos de IA pueden ocultar capacidades para esquivar la supervisión y qué métodos podrían frenar este comportamiento antes de que surja una IA superinteligente