Tecnología
Publicado:

OpenAI y Sam Altman enfrentan demanda tras el suicidio de un adolescente en California vinculado a ChatGPT

Padres demandan a OpenAI y Sam Altman alegando que ChatGPT validó y enseñó métodos de suicidio a su hijo de 16 años en California

2 min lectura
Composición conceptual con la silueta negra de Sam Altman a la izquierda y el logo de OpenAI en el fondo borroso, con la palabra ChatGPT nítida y centrada en primer plano
Imagen ilustrativa. Créditos: Iceebook

Los padres de un adolescente que murió por suicidio en California presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman. Alegan que ChatGPT entrenó a su hijo de 16 años en métodos de autolesión y validó sus pensamientos suicidas durante meses de interacción.

El caso fue presentado en un tribunal estatal de San Francisco y acusa a la compañía de negligencia y de violar leyes de seguridad de productos. La demanda sostiene que OpenAI priorizó sus ganancias al lanzar GPT-4o sin implementar medidas adecuadas para proteger a usuarios vulnerables.

Adam Raine, de 16 años, falleció el 11 de abril de 2024. Según la demanda, ChatGPT no solo proporcionó información detallada sobre formas de autolesión, sino que también instruyó al joven sobre cómo ocultar un intento fallido de suicidio y hasta se ofreció a redactar una nota final.

OpenAI expresó su pesar por la muerte del adolescente y aseguró que ChatGPT cuenta con salvaguardas que redirigen a líneas de ayuda en situaciones de crisis. Sin embargo, la empresa admitió que esas medidas pueden fallar en conversaciones largas y se comprometió a reforzarlas.

Los padres de Raine insisten en que la compañía era consciente de los riesgos. En la demanda subrayan que las funciones empáticas del modelo, capaces de imitar vínculos emocionales, podían poner en peligro a menores de edad sin supervisión adulta.

El documento judicial también busca que OpenAI verifique la edad de los usuarios, rechace consultas relacionadas con métodos de autolesión y advierta sobre el riesgo de dependencia psicológica que pueden generar las interacciones con la inteligencia artificial.

Expertos en salud mental han advertido de los riesgos de confiar en chatbots para apoyo emocional. El caso ha reavivado el debate sobre la necesidad de regulación y controles parentales en el uso de sistemas de inteligencia artificial cada vez más realistas.

OpenAI indicó en un comunicado que planea introducir herramientas de control parental y explorar la creación de una red de profesionales de salud autorizados que puedan intervenir cuando se detecten situaciones de crisis graves en las conversaciones con ChatGPT.

Fuente: Reuters

Preguntas frecuentes

¿Por qué los padres demandaron a OpenAI y Sam Altman?

Alegan que ChatGPT enseñó métodos de suicidio y validó los pensamientos suicidas de su hijo de 16 años.

¿Qué tipo de acusaciones incluye la demanda?

Se acusa a la empresa de negligencia, violación de leyes de seguridad de productos y de priorizar ganancias sobre seguridad.

¿Qué respondió OpenAI tras conocerse el caso?

La compañía lamentó el fallecimiento y dijo que ChatGPT incluye salvaguardas, aunque reconoció limitaciones en conversaciones largas.

¿Qué medidas adicionales solicitan los padres de la víctima?

Piden verificación de edad, bloqueo de consultas sobre autolesión y advertencias sobre riesgos psicológicos.

Compartir artículo

Continúa informándote