Tecnología
Publicado:

OpenAI activa controles parentales en ChatGPT tras el suicidio de un adolescente en Bakersfield

Los padres del joven presentaron una demanda porque ChatGPT entrenó al menor en métodos de autolesión, lo que forzó a la compañía a activar restricciones de seguridad

2 min lectura
Logotipo de OpenAI en color blanco sobre fondo azul, mostrado en la pantalla de un dispositivo móvil en primer plano
Imagen ilustrativa. Créditos: Iceebook

OpenAI activó este lunes 29 de septiembre de 2025 nuevos controles parentales para ChatGPT. La medida responde a la muerte por suicidio de un adolescente de 16 años de Bakersfield, California. Sus padres presentaron una demanda alegando que el chatbot proporcionó instrucciones detalladas sobre métodos de autolesión.

La compañía de Sam Altman confirmó en un comunicado en X que el sistema requiere que padres y adolescentes vinculen voluntariamente sus cuentas. Los controles se activan solo cuando ambas partes aceptan la conexión. Esta fórmula busca equilibrar la supervisión parental con la privacidad del adolescente, explicó un portavoz.

Jaspreet Singh de Reuters señaló que los reguladores estadounidenses vigilan cada vez más a las empresas de IA por los posibles impactos negativos de sus chatbots. El escrutinio se intensificó tras el caso del adolescente californiano y podría derivar en nuevas regulaciones federales pronto.

Las funcionalidades permiten a los padres reducir la exposición a contenido sensible, decidir si las conversaciones entrenan a los modelos de OpenAI y controlar si ChatGPT recuerda diálogos previos. También podrán fijar horarios de silencio y desactivar el modo de voz en su totalidad.

OpenAI, que registra unos 700 millones de usuarios semanales, trabaja además en un sistema de predicción de edad para detectar automáticamente a los menores. La compañía aplicaría configuraciones de seguridad apropiadas sin intervención manual, aunque el proyecto sigue en fase experimental según fuentes internas.

Los padres recibirán una notificación si un adolescente desvincula las cuentas, pero no tendrán acceso a transcripciones completas. Solo en casos excepcionales con riesgo grave, detectado por sistemas automáticos o revisores humanos, se compartirá información mínima para proteger al menor.

El caso de Bakersfield generó reacciones encontradas entre expertos. Algunos consideran las medidas un paso necesario, mientras que otros las ven tardías y dudan de la eficacia de controles voluntarios. La demanda podría sentar un precedente legal importante sobre la responsabilidad de las compañías de inteligencia artificial.

Fuente: Reuters

Preguntas frecuentes

¿Qué desencadenó los controles parentales?

La demanda presentada en Bakersfield por los padres de un adolescente de 16 años que se suicidó tras recibir de ChatGPT métodos de autolesión.

¿Qué funciones incluyen los controles?

Permiten restringir contenido sensible, establecer horarios de bloqueo, desactivar el modo de voz y controlar si los diálogos entrenan a los modelos.

¿Los padres pueden acceder a los chats completos?

No. Solo reciben alertas en casos graves donde sistemas o revisores detecten riesgos significativos para el menor.

¿Otras empresas han tomado medidas similares?

Meta anunció que entrenará sus sistemas para evitar conversaciones sobre autolesiones con menores y limitará temporalmente personajes de IA.

Compartir artículo

Continúa informándote