OpenAI activa controles parentales en ChatGPT tras el suicidio de un adolescente en Bakersfield

Los padres del joven presentaron una demanda porque ChatGPT entrenó al menor en métodos de autolesión, lo que forzó a la compañía a activar restricciones de seguridad

Autor - Aldo Venuta Rodríguez

2 min lectura

Logotipo de OpenAI en color blanco sobre fondo azul, mostrado en la pantalla de un dispositivo móvil en primer plano
Imagen ilustrativa. Créditos: Iceebook

OpenAI activó este lunes 29 de septiembre de 2025 nuevos controles parentales para ChatGPT. La medida responde a la muerte por suicidio de un adolescente de 16 años de Bakersfield, California. Sus padres presentaron una demanda alegando que el chatbot proporcionó instrucciones detalladas sobre métodos de autolesión.

La compañía de Sam Altman confirmó en un comunicado en X que el sistema requiere que padres y adolescentes vinculen voluntariamente sus cuentas. Los controles se activan solo cuando ambas partes aceptan la conexión. Esta fórmula busca equilibrar la supervisión parental con la privacidad del adolescente, explicó un portavoz.

Jaspreet Singh de Reuters señaló que los reguladores estadounidenses vigilan cada vez más a las empresas de IA por los posibles impactos negativos de sus chatbots. El escrutinio se intensificó tras el caso del adolescente californiano y podría derivar en nuevas regulaciones federales pronto.

Las funcionalidades permiten a los padres reducir la exposición a contenido sensible, decidir si las conversaciones entrenan a los modelos de OpenAI y controlar si ChatGPT recuerda diálogos previos. También podrán fijar horarios de silencio y desactivar el modo de voz en su totalidad.

Publicidad

OpenAI, que registra unos 700 millones de usuarios semanales, trabaja además en un sistema de predicción de edad para detectar automáticamente a los menores. La compañía aplicaría configuraciones de seguridad apropiadas sin intervención manual, aunque el proyecto sigue en fase experimental según fuentes internas.

Los padres recibirán una notificación si un adolescente desvincula las cuentas, pero no tendrán acceso a transcripciones completas. Solo en casos excepcionales con riesgo grave, detectado por sistemas automáticos o revisores humanos, se compartirá información mínima para proteger al menor.

El caso de Bakersfield generó reacciones encontradas entre expertos. Algunos consideran las medidas un paso necesario, mientras que otros las ven tardías y dudan de la eficacia de controles voluntarios. La demanda podría sentar un precedente legal importante sobre la responsabilidad de las compañías de inteligencia artificial.

Fuente: Reuters

Publicidad

Preguntas frecuentes

¿Qué desencadenó los controles parentales?

La demanda presentada en Bakersfield por los padres de un adolescente de 16 años que se suicidó tras recibir de ChatGPT métodos de autolesión.

¿Qué funciones incluyen los controles?

Permiten restringir contenido sensible, establecer horarios de bloqueo, desactivar el modo de voz y controlar si los diálogos entrenan a los modelos.

¿Los padres pueden acceder a los chats completos?

No. Solo reciben alertas en casos graves donde sistemas o revisores detecten riesgos significativos para el menor.

¿Otras empresas han tomado medidas similares?

Meta anunció que entrenará sus sistemas para evitar conversaciones sobre autolesiones con menores y limitará temporalmente personajes de IA.

Continúa informándote

Humanoide de aspecto metálico observado en primer plano frente a una gran pantalla
Tecnología

La IA ya puede manipular encuestas y pasar por humana sin ser detectada

La IA puede imitar a personas reales, superar controles y alterar encuestas con pocas respuestas falsas. Un estudio revela la vulnerabilidad de los sondeos en la era digital

Robot humanoide metálico apoyado sobre una mesa, inclinado hacia adelante en actitud pensativa
Tecnología

Geoffrey Hinton avisa del riesgo existencial de la IA y afirma que nada impide que sea consciente

Geoffrey Hinton advierte que la inteligencia artificial podría convertirse en un riesgo existencial y recuerda que nada impide que una máquina llegue a ser consciente, algo que exige vigilancia urgente

Laptop con un gráfico de IA encendido sobre un escritorio de madera, acompañado de libros cerrados y lápices de colores frente a una pizarra con diagramas
Tecnología

La educación superior acelera reformas para integrar la IA generativa en sus planes de estudio

Las universidades avanzan en reformas urgentes para integrar la IA generativa en sus planes de estudio, transformando la enseñanza, la evaluación y la formación docente

Rostro humanoide azul con patrones de red neuronal, disolviéndose en una nube de puntos y líneas luminosas
Tecnología

La IA se expande a gran velocidad, pero sus alucinaciones revelan límites inevitables

La IA crece a un ritmo histórico, pero las alucinaciones siguen mostrando límites inevitables en su fiabilidad, incluso en los modelos más avanzados

Ciudad futurista flotando entre nubes, con rascacielos iluminados por luz cálida sobre un cielo azul suave
Tecnología

Los líderes de Silicon Valley aceleran proyectos de ciudades independientes con sus propias leyes

Figuras influyentes de Silicon Valley impulsan proyectos para crear ciudades independientes con mayor autonomía y reglas propias, un modelo que divide opiniones

Logotipos de OpenAI y Microsoft sobre un fondo degradado en tonos azul, violeta y verde
Tecnología

Documentos filtrados destapan los millonarios pagos de OpenAI a Microsoft

Documentos filtrados muestran que OpenAI pagó a Microsoft más de 1.300 millones en 2024 y 2025 por uso de computación e ingresos compartidos, revelando la enorme presión financiera del negocio de la IA