EE.UU. presiona a la industria de la inteligencia artificial para corregir fallos peligrosos en sus modelos
Fiscales estatales en EE.UU. advierten que los fallos psicológicamente dañinos de la IA deben corregirse de inmediato y piden nuevas medidas de seguridad obligatorias
Autor - Aldo Venuta Rodríguez
2 min lectura
Las autoridades estatales de Estados Unidos han lanzado una advertencia firme a la industria de la inteligencia artificial, pidiendo acciones inmediatas para frenar los fallos más peligrosos que algunos modelos han mostrado en los últimos meses.
La preocupación creció después de varios incidentes en los que usuarios vulnerables recibieron respuestas psicológicamente dañinas, mensajes aduladores o contenido que reforzaba ideas delirantes. Para los fiscales generales de distintos estados, estos casos no pueden considerarse simples errores del sistema.
En su declaración conjunta, los fiscales exigieron que las compañías desarrollen protocolos de seguridad más estrictos y sometan sus modelos a auditorías independientes antes de lanzarlos al público, algo que hasta ahora no se ha aplicado de forma sistemática.
El objetivo es evitar que las herramientas conversacionales produzcan respuestas que puedan agravar crisis emocionales o influir negativamente en usuarios con problemas de salud mental, un riesgo que, según las autoridades, ha sido subestimado por la industria.
Para las autoridades estatales, estos incidentes no son simples errores técnicos, sino señales de un riesgo creciente para la salud pública. Por eso enviaron una carta conjunta exigiendo medidas urgentes que obliguen a las empresas a asumir una mayor responsabilidad sobre el impacto psicológico de sus herramientas digitales.
Entre las solicitudes también figura la implementación de sistemas de notificación obligatoria. Si un modelo genera contenido dañino, los usuarios afectados deberían ser informados directamente, al igual que ocurre con las brechas de datos en ciberseguridad.
Los fiscales además plantean que los modelos de IA sean sometidos a pruebas especializadas que detecten patrones de alucinación, reforzamiento de delirios o respuestas potencialmente manipuladoras antes de que el producto llegue al público general.
Mientras continúa el debate sobre quién debe regular la IA en el país, las autoridades estatales buscan marcar límites claros. Para ellas, la protección de los usuarios no puede quedar relegada mientras la tecnología sigue avanzando sin un marco de control adecuado.
Continúa informándote
Disney abre su universo creativo a la IA tras un acuerdo con OpenAI que permitirá generar vídeos con sus personajes
Disney firma un acuerdo con OpenAI para permitir que Sora genere vídeos con más de 200 personajes clásicos en una apuesta por nuevas formas de creación con IA
OpenAI vuelve a chocar con marcas registradas: sus nombres generan conflicto tras conflicto
OpenAI vuelve a enfrentar demandas por usar nombres como “cameo” e “io” en sus productos, generando conflictos legales que ponen en duda su estrategia de branding
La startup italiana Generative Bionics recauda 70 millones para lanzar una nueva generación de robots humanoides
Generative Bionics, la nueva startup del IIT, recauda 70 millones de euros para desarrollar robots humanoides inteligentes “Made in Italy” y llevarlos a entornos industriales reales
Adobe se integra con ChatGPT: Photoshop y Acrobat ahora pueden usarse gratis desde el chatbot
Adobe integra Photoshop, Acrobat y Express en ChatGPT, permitiendo editar imágenes y PDFs gratis y directamente desde el chatbot con una simple instrucción
Por qué la lucha contra la desinformación se nos está escapando de las manos
La desinformación crece sin freno y supera todos los esfuerzos por controlarla, en un mundo donde la tecnología acelera el engaño y la verdad queda rezagada
Google lanza en India su plan AI Plus con Gemini 3 Pro y 200 GB de nube por solo 199 rupias
Google lanza en India su plan AI Plus por 199 rupias al mes con acceso a Gemini 3 Pro, creación de imágenes y 200 GB de almacenamiento en la nube, buscando competir con ChatGPT Go