Tecnología
Publicado:

La seguridad infantil incomoda al CEO de Roblox durante una entrevista en Hard Fork

El debate sobre la verificación de edad terminó abriendo tensiones sobre cómo Roblox maneja la seguridad de sus usuarios más jóvenes

2 min lectura
Imagen con el texto ROBLOX en primer plano sobre un fondo azul degradado
Créditos: Iceebook

El director ejecutivo de Roblox, Dave Baszucki, acudió al podcast Hard Fork del New York Times para explicar la nueva verificación de edad de la plataforma, una función que exigirá un escaneo facial para acceder a las herramientas de mensajería. La idea, según él, es aumentar la autenticidad de las cuentas y limitar posibles abusos en espacios donde los jugadores pueden comunicarse directamente.

La conversación empezó tranquila, pero cambió de tono cuando los presentadores insistieron en si Roblox había priorizado el crecimiento sobre la seguridad. Al mencionarse un informe que señalaba esa crítica, Baszucki respondió con un breve «Divertido. Sigamos con esto», dejando ver cierto cansancio ante el tema.

El ambiente se tensó aún más cuando Kevin Roose comentó que la mejora de los modelos de inteligencia artificial sería clave para reforzar la seguridad infantil. Baszucki, intentando suavizar la situación, replicó: «Bien, entonces te alineas con lo que hicimos. ¡Choca esos cinco!». Aun así, su incomodidad se notó.

Choque con los presentadores por el enfoque en la protección de menores

Baszucki señaló que había acudido al podcast para hablar “de todo” y no únicamente de restricciones de edad o de los fallos de la plataforma. Recalcó que, si su equipo de relaciones públicas le pidiera hablar durante una hora solo sobre seguridad infantil, lo haría, pero su intención era tener una conversación más amplia.

Ese contraste entre lo que él esperaba y lo que Hard Fork consideraba prioritario dejó clara una tensión habitual en plataformas gigantes: equilibrar innovación, crecimiento y seguridad sin perder la confianza de familias y usuarios.

Una plataforma masiva bajo presión constante

Roblox es uno de los entornos digitales más populares entre niños y adolescentes, lo que coloca a la empresa bajo un escrutinio continuo. Aunque asegura invertir en moderación, IA, herramientas automáticas y sistemas de verificación, cada novedad vuelve a abrir el debate sobre si estas medidas son suficientes.

La entrevista no reveló un nuevo problema concreto, pero sí mostró lo incómodo que puede resultar para los directivos que se les cuestione repetidamente sobre la seguridad infantil, un tema que para la audiencia y para los padres sigue siendo central, más allá de cualquier avance tecnológico.

Fuente: TechCrunch

Preguntas frecuentes

¿Por qué Roblox quiere usar escaneo facial para verificar la edad?

Para asegurar que quienes acceden a ciertas funciones, como la mensajería, son realmente mayores de edad y así reducir riesgos de abuso o contactos no deseados.

¿Por qué el CEO de Roblox se mostró incómodo en la entrevista?

Porque los presentadores insistieron en que la plataforma prioriza el crecimiento sobre la seguridad infantil, un tema que él consideraba tratado en exceso.

¿Qué preocupa a las familias sobre Roblox?

La protección de los menores, el riesgo de contactos inapropiados y si las herramientas de moderación e IA son suficientes para mantener la plataforma segura.

¿Invertirá Roblox más en seguridad infantil?

La compañía afirma que sí: en moderación, IA, verificación y nuevas herramientas, aunque la entrevista mostró que el debate sigue abierto y bajo fuerte presión pública.

Compartir artículo

Continúa informándote