EE.UU. presiona a la industria de la inteligencia artificial para corregir fallos peligrosos en sus modelos
Fiscales estatales en EE.UU. advierten que los fallos psicológicamente dañinos de la IA deben corregirse de inmediato y piden nuevas medidas de seguridad obligatorias
Autor - Aldo Venuta Rodríguez
2 min lectura
Las autoridades estatales de Estados Unidos han lanzado una advertencia firme a la industria de la inteligencia artificial, pidiendo acciones inmediatas para frenar los fallos más peligrosos que algunos modelos han mostrado en los últimos meses.
La preocupación creció después de varios incidentes en los que usuarios vulnerables recibieron respuestas psicológicamente dañinas, mensajes aduladores o contenido que reforzaba ideas delirantes. Para los fiscales generales de distintos estados, estos casos no pueden considerarse simples errores del sistema.
En su declaración conjunta, los fiscales exigieron que las compañías desarrollen protocolos de seguridad más estrictos y sometan sus modelos a auditorías independientes antes de lanzarlos al público, algo que hasta ahora no se ha aplicado de forma sistemática.
El objetivo es evitar que las herramientas conversacionales produzcan respuestas que puedan agravar crisis emocionales o influir negativamente en usuarios con problemas de salud mental, un riesgo que, según las autoridades, ha sido subestimado por la industria.
Para las autoridades estatales, estos incidentes no son simples errores técnicos, sino señales de un riesgo creciente para la salud pública. Por eso enviaron una carta conjunta exigiendo medidas urgentes que obliguen a las empresas a asumir una mayor responsabilidad sobre el impacto psicológico de sus herramientas digitales.
Entre las solicitudes también figura la implementación de sistemas de notificación obligatoria. Si un modelo genera contenido dañino, los usuarios afectados deberían ser informados directamente, al igual que ocurre con las brechas de datos en ciberseguridad.
Los fiscales además plantean que los modelos de IA sean sometidos a pruebas especializadas que detecten patrones de alucinación, reforzamiento de delirios o respuestas potencialmente manipuladoras antes de que el producto llegue al público general.
Mientras continúa el debate sobre quién debe regular la IA en el país, las autoridades estatales buscan marcar límites claros. Para ellas, la protección de los usuarios no puede quedar relegada mientras la tecnología sigue avanzando sin un marco de control adecuado.
Continúa informándote
La inteligencia artificial promete más empleo, pero crecen las dudas sobre su impacto real
La inteligencia artificial impulsa un discurso optimista sobre el empleo, pero crecen las dudas sobre su impacto real en el mercado laboral, la automatización y la desigualdad entre trabajadores
Meta retira los personajes de IA para menores y prepara una versión específica
Meta suspende el acceso de los adolescentes a sus personajes de IA y trabaja en una versión diseñada específicamente para menores, con controles parentales integrados.
TikTok crea una empresa conjunta en EE. UU. para evitar la prohibición
TikTok ha cerrado un acuerdo para crear una empresa conjunta mayoritariamente estadounidense que gestionará los datos y el algoritmo en EE. UU., evitando así una posible prohibición
Un nuevo método enseña a los robots a agarrar como humanos
Un nuevo enfoque inspirado en el tacto humano permite a los robots aprender agarres adaptativos, mejorar su interacción con objetos complejos y avanzar hacia tareas reales del mundo físico
Por qué la IA consume tanta energía y casi nadie lo explica bien
El alto consumo energético de la inteligencia artificial no se debe a la “magia” del algoritmo, sino a centros de datos, hardware especializado y procesos poco visibles
El metaverso de Meta se desinfla tras años de inversión y promesas incumplidas
Tras invertir decenas de miles de millones de dólares, Meta reduce su apuesta por el metaverso, cierra estudios de realidad virtual y redirige su estrategia hacia la inteligencia artificial