El uso de la inteligencia artificial Grok, desarrollada por la empresa xAI de Elon Musk, en el gobierno estadounidense está generando un intenso debate sobre privacidad, ética y posibles conflictos de intereses. Tres fuentes revelaron a Reuters que el equipo DOGE, vinculado a Musk, está promoviendo el empleo del chatbot Grok para analizar datos federales, incluso en agencias tan delicadas como el Departamento de Seguridad Nacional (DHS), sin la aprobación formal requerida.
La polémica crece porque Grok podría tener acceso a información gubernamental sensible, potencialmente violando leyes de confidencialidad y privacidad. Expertos advierten que xAI podría obtener ventaja frente a otros proveedores de IA, beneficiándose del análisis de datos federales y del entrenamiento de sus algoritmos con información privilegiada, lo que plantea dudas sobre la equidad en los contratos públicos y la protección de los datos de millones de estadounidenses.
A pesar de las negativas oficiales del DHS, algunas fuentes aseguran que el equipo DOGE recomendó a funcionarios el uso de Grok antes de su aprobación formal, e incluso impulsó iniciativas para entrenar la IA en la identificación de patrones de comportamiento de empleados, lo que reaviva el temor a prácticas de vigilancia política dentro de la burocracia federal.
La administración Trump ha defendido estas iniciativas como parte de un esfuerzo por combatir el despilfarro y aumentar la eficiencia. Sin embargo, especialistas en ética gubernamental consideran que la participación directa de Musk, quien mantiene intereses económicos en xAI, podría contravenir leyes federales sobre conflicto de intereses y beneficiar a la empresa en futuras licitaciones.
La controversia adquiere mayor relevancia porque la gestión y análisis de datos federales requieren estrictos controles legales. El uso de IA privada en sistemas públicos eleva el riesgo de fugas, usos indebidos o abuso de información sensible, algo que preocupa tanto a defensores de la privacidad como a legisladores y funcionarios.
Hasta ahora, no se ha confirmado qué datos específicos fueron procesados por Grok ni el alcance real de su implementación. Musk, la Casa Blanca y xAI han evitado responder a las preguntas de los medios. La sombra de la duda, sin embargo, ya ha reabierto el debate sobre los límites éticos de la inteligencia artificial en la administración pública y la necesidad urgente de nuevas regulaciones.
Referencias: Reuters