OpenAI activa controles parentales en ChatGPT tras el suicidio de un adolescente en Bakersfield
Los padres del joven presentaron una demanda porque ChatGPT entrenó al menor en métodos de autolesión, lo que forzó a la compañía a activar restricciones de seguridad
Autor - Aldo Venuta Rodríguez
2 min lectura
OpenAI activó este lunes 29 de septiembre de 2025 nuevos controles parentales para ChatGPT. La medida responde a la muerte por suicidio de un adolescente de 16 años de Bakersfield, California. Sus padres presentaron una demanda alegando que el chatbot proporcionó instrucciones detalladas sobre métodos de autolesión.
La compañía de Sam Altman confirmó en un comunicado en X que el sistema requiere que padres y adolescentes vinculen voluntariamente sus cuentas. Los controles se activan solo cuando ambas partes aceptan la conexión. Esta fórmula busca equilibrar la supervisión parental con la privacidad del adolescente, explicó un portavoz.
Jaspreet Singh de Reuters señaló que los reguladores estadounidenses vigilan cada vez más a las empresas de IA por los posibles impactos negativos de sus chatbots. El escrutinio se intensificó tras el caso del adolescente californiano y podría derivar en nuevas regulaciones federales pronto.
Las funcionalidades permiten a los padres reducir la exposición a contenido sensible, decidir si las conversaciones entrenan a los modelos de OpenAI y controlar si ChatGPT recuerda diálogos previos. También podrán fijar horarios de silencio y desactivar el modo de voz en su totalidad.
OpenAI, que registra unos 700 millones de usuarios semanales, trabaja además en un sistema de predicción de edad para detectar automáticamente a los menores. La compañía aplicaría configuraciones de seguridad apropiadas sin intervención manual, aunque el proyecto sigue en fase experimental según fuentes internas.
Los padres recibirán una notificación si un adolescente desvincula las cuentas, pero no tendrán acceso a transcripciones completas. Solo en casos excepcionales con riesgo grave, detectado por sistemas automáticos o revisores humanos, se compartirá información mínima para proteger al menor.
El caso de Bakersfield generó reacciones encontradas entre expertos. Algunos consideran las medidas un paso necesario, mientras que otros las ven tardías y dudan de la eficacia de controles voluntarios. La demanda podría sentar un precedente legal importante sobre la responsabilidad de las compañías de inteligencia artificial.
Fuente: Reuters
Preguntas frecuentes
La demanda presentada en Bakersfield por los padres de un adolescente de 16 años que se suicidó tras recibir de ChatGPT métodos de autolesión.
Permiten restringir contenido sensible, establecer horarios de bloqueo, desactivar el modo de voz y controlar si los diálogos entrenan a los modelos.
No. Solo reciben alertas en casos graves donde sistemas o revisores detecten riesgos significativos para el menor.
Meta anunció que entrenará sus sistemas para evitar conversaciones sobre autolesiones con menores y limitará temporalmente personajes de IA.
Continúa informándote
La IA ya puede manipular encuestas y pasar por humana sin ser detectada
La IA puede imitar a personas reales, superar controles y alterar encuestas con pocas respuestas falsas. Un estudio revela la vulnerabilidad de los sondeos en la era digital
Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente
Geoffrey Hinton advierte que la inteligencia artificial podría convertirse en un riesgo existencial y recuerda que nada impide que una máquina llegue a ser consciente, algo que exige vigilancia urgente
La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio
Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente
La IA se expande a gran velocidad, pero sus alucinaciones revelan límites inevitables
La IA crece a un ritmo histórico, pero las alucinaciones siguen mostrando límites inevitables en su fiabilidad, incluso en los modelos más avanzados
Los líderes de Silicon Valley aceleran proyectos de ciudades independientes con sus propias leyes
Figuras influyentes de Silicon Valley impulsan proyectos para crear ciudades independientes con mayor autonomía y reglas propias, un modelo que divide opiniones
Documentos filtrados destapan los millonarios pagos de OpenAI a Microsoft
Documentos filtrados muestran que OpenAI pagó a Microsoft más de 1.300 millones en 2024 y 2025 por uso de computación e ingresos compartidos, revelando la enorme presión financiera del negocio de la IA