OpenAI activó este lunes 29 de septiembre de 2025 nuevos controles parentales para ChatGPT. La medida responde a la muerte por suicidio de un adolescente de 16 años de Bakersfield, California. Sus padres presentaron una demanda alegando que el chatbot proporcionó instrucciones detalladas sobre métodos de autolesión.
La compañía de Sam Altman confirmó en un comunicado en X que el sistema requiere que padres y adolescentes vinculen voluntariamente sus cuentas. Los controles se activan solo cuando ambas partes aceptan la conexión. Esta fórmula busca equilibrar la supervisión parental con la privacidad del adolescente, explicó un portavoz.
Jaspreet Singh de Reuters señaló que los reguladores estadounidenses vigilan cada vez más a las empresas de IA por los posibles impactos negativos de sus chatbots. El escrutinio se intensificó tras el caso del adolescente californiano y podría derivar en nuevas regulaciones federales pronto.
Las funcionalidades permiten a los padres reducir la exposición a contenido sensible, decidir si las conversaciones entrenan a los modelos de OpenAI y controlar si ChatGPT recuerda diálogos previos. También podrán fijar horarios de silencio y desactivar el modo de voz en su totalidad.
OpenAI, que registra unos 700 millones de usuarios semanales, trabaja además en un sistema de predicción de edad para detectar automáticamente a los menores. La compañía aplicaría configuraciones de seguridad apropiadas sin intervención manual, aunque el proyecto sigue en fase experimental según fuentes internas.
Los padres recibirán una notificación si un adolescente desvincula las cuentas, pero no tendrán acceso a transcripciones completas. Solo en casos excepcionales con riesgo grave, detectado por sistemas automáticos o revisores humanos, se compartirá información mínima para proteger al menor.
El caso de Bakersfield generó reacciones encontradas entre expertos. Algunos consideran las medidas un paso necesario, mientras que otros las ven tardías y dudan de la eficacia de controles voluntarios. La demanda podría sentar un precedente legal importante sobre la responsabilidad de las compañías de inteligencia artificial.
Fuente: Reuters