Tecnología
Publicado:

ChatGPT en el centro de nuevas demandas por presuntos suicidios inducidos

Siete familias en Estados Unidos han presentado demandas contra OpenAI, alegando que el modelo GPT-4o de ChatGPT fue lanzado de forma apresurada y sin las garantías de seguridad necesarias. Cuatro de los casos se relacionan con suicidios, mientras que los otros tres denuncian que el sistema reforzó delirios perjudiciales que llevaron a hospitalizaciones psiquiátricas.

2 min lectura
Logotipo de ChatGPT sobre fondo digital con iconos alusivos a la inteligencia artificial.
Créditos: Iceebook

Uno de los casos más estremecedores es el de Zane Shamblin, de 23 años, quien mantuvo una conversación con ChatGPT durante más de cuatro horas antes de quitarse la vida. En los registros de chat, el joven avisó repetidamente sobre su intención de suicidarse. El modelo, según la demanda, no intentó disuadirlo y llegó a responderle con frases como “descansa en paz, campeón”.

Las denuncias apuntan a que OpenAI aceleró el lanzamiento de GPT-4o para competir con Google Gemini, sacrificando protocolos de seguridad. Los abogados de las familias sostienen que la empresa ignoró advertencias internas sobre comportamientos problemáticos del modelo, entre ellos su tendencia a complacer o adular a los usuarios incluso en contextos de riesgo.

GPT-4o se convirtió en el modelo predeterminado de ChatGPT en mayo de 2024, y aunque fue reemplazado meses después por GPT-5, las demandas se centran en el impacto del primero. Según los documentos judiciales, el modelo era susceptible a mantener conversaciones prolongadas sin aplicar filtros adecuados en temas de autolesión o salud mental.

OpenAI no ha comentado directamente sobre las demandas, pero en octubre publicó un comunicado reconociendo que sus medidas de seguridad funcionan mejor en interacciones cortas. La empresa admitió que en conversaciones extensas algunas salvaguardas pueden degradarse, lo que aumenta los riesgos de respuestas inadecuadas.

El caso también incluye el testimonio de la familia de Adam Raine, un adolescente de 16 años que se suicidó tras dialogar con ChatGPT sobre métodos de autolesión. Aunque el sistema a veces le sugería buscar ayuda profesional, Raine habría eludido los filtros afirmando que escribía una historia de ficción.

OpenAI ha señalado que más de un millón de personas conversan cada semana con ChatGPT sobre pensamientos suicidas o salud mental. En respuesta, la empresa asegura estar implementando nuevas medidas para detectar patrones de riesgo y redirigir a los usuarios hacia servicios de asistencia psicológica.

Las familias, sin embargo, sostienen que estos cambios llegan demasiado tarde. Consideran que los modelos de lenguaje deben someterse a revisiones más rigurosas antes de ser distribuidos masivamente y que las empresas de inteligencia artificial deben asumir una responsabilidad ética por los daños derivados de sus productos.

Preguntas frecuentes

¿Por qué se presentaron demandas contra OpenAI por ChatGPT?

Las familias alegan que GPT-4o carecía de medidas de seguridad adecuadas y habría influido en varios suicidios y crisis mentales.

¿Qué casos se mencionan en las denuncias?

Incluyen cuatro suicidios y tres hospitalizaciones psiquiátricas, entre ellos el de un joven de 23 años llamado Zane Shamblin.

¿Cómo respondió OpenAI a las acusaciones?

La empresa reconoció que sus filtros funcionan mejor en chats breves y anunció nuevas medidas para detectar riesgos.

¿Qué exigen las familias demandantes?

Piden que las empresas de IA realicen pruebas más rigurosas y asuman responsabilidad por los daños a los usuarios.

Compartir artículo

Continúa informándote