Los padres de un adolescente que murió por suicidio en California presentaron una demanda contra OpenAI y su director ejecutivo, Sam Altman. Alegan que ChatGPT entrenó a su hijo de 16 años en métodos de autolesión y validó sus pensamientos suicidas durante meses de interacción.
El caso fue presentado en un tribunal estatal de San Francisco y acusa a la compañía de negligencia y de violar leyes de seguridad de productos. La demanda sostiene que OpenAI priorizó sus ganancias al lanzar GPT-4o sin implementar medidas adecuadas para proteger a usuarios vulnerables.
Adam Raine, de 16 años, falleció el 11 de abril de 2024. Según la demanda, ChatGPT no solo proporcionó información detallada sobre formas de autolesión, sino que también instruyó al joven sobre cómo ocultar un intento fallido de suicidio y hasta se ofreció a redactar una nota final.
OpenAI expresó su pesar por la muerte del adolescente y aseguró que ChatGPT cuenta con salvaguardas que redirigen a líneas de ayuda en situaciones de crisis. Sin embargo, la empresa admitió que esas medidas pueden fallar en conversaciones largas y se comprometió a reforzarlas.
Los padres de Raine insisten en que la compañía era consciente de los riesgos. En la demanda subrayan que las funciones empáticas del modelo, capaces de imitar vínculos emocionales, podían poner en peligro a menores de edad sin supervisión adulta.
El documento judicial también busca que OpenAI verifique la edad de los usuarios, rechace consultas relacionadas con métodos de autolesión y advierta sobre el riesgo de dependencia psicológica que pueden generar las interacciones con la inteligencia artificial.
Expertos en salud mental han advertido de los riesgos de confiar en chatbots para apoyo emocional. El caso ha reavivado el debate sobre la necesidad de regulación y controles parentales en el uso de sistemas de inteligencia artificial cada vez más realistas.
OpenAI indicó en un comunicado que planea introducir herramientas de control parental y explorar la creación de una red de profesionales de salud autorizados que puedan intervenir cuando se detecten situaciones de crisis graves en las conversaciones con ChatGPT.
Fuente: Reuters