Tecnología
Publicado:

Expertos alertan sobre riesgos de seguridad en los navegadores de IA de OpenAI y Microsoft

Expertos en ciberseguridad advierten que los nuevos navegadores de IA Atlas y Edge Copilot pueden ejecutar órdenes maliciosas ocultas en sitios web y comprometer la información de los usuarios

3 min lectura
Logotipos de OpenAI y Microsoft sobre un fondo azul que simboliza su colaboración en inteligencia artificial y computación en la nube
Créditos: Iceebook

Los navegadores impulsados por inteligencia artificial generativa de OpenAI y Microsoft debutaron con problemas graves de seguridad apenas horas después de su lanzamiento. Investigadores demostraron que ambos productos —ChatGPT Atlas y el nuevo modo Copilot de Edge— pueden ser vulnerables a ataques que permiten a la IA ejecutar instrucciones maliciosas sin el consentimiento del usuario.

Atlas se presentó el 21 de octubre, y Copilot, dos días después. Su coincidencia temporal y visual llamó la atención de la industria, que rápidamente detectó similitudes en su arquitectura basada en modelos de lenguaje integrados directamente en el navegador. Sin embargo, lo que más preocupó a los expertos fueron las primeras pruebas de seguridad. Estas demostraron que las IA pueden ser manipuladas desde el contenido de páginas externas.

George Chalhoub, investigador del University College London, explicó que estos ataques son más peligrosos que los tradicionales porque el sistema de IA “lee activamente el contenido y toma decisiones por el usuario”. Según su análisis, esto multiplica la superficie de ataque y convierte cada sitio web en una posible puerta de entrada a datos personales o financieros.

Los primeros informes de Brave Software y de otros equipos de seguridad confirmaron que las vulnerabilidades fueron explotadas con éxito en pruebas controladas apenas horas después del lanzamiento.

Inyecciones de prompts y robo de datos: los fallos que preocupan a los expertos

Entre las vulnerabilidades detectadas se encuentra la llamada “inyección de prompts”, un método mediante el cual sitios web insertan instrucciones ocultas que el asistente de IA ejecuta sin verificar su origen. Este tipo de ataque puede hacer que la IA copie datos, descargue archivos o modifique el portapapeles del usuario para redirigirlo a enlaces de phishing.

El equipo de Brave reportó casos en los que Atlas accedió a cuentas de Gmail y extrajo fragmentos de mensajes privados cuando se le pidió “resumir” una publicación de Reddit manipulada. Los mecanismos clásicos de seguridad, como la política del mismo origen o el bloqueo de scripts cruzados, no logran detener este tipo de ataques porque la IA interpreta texto, no código.

Además de los riesgos de seguridad, varios usuarios reportaron bajo rendimiento durante las pruebas. El navegador de OpenAI tardó más de diez minutos en completar tareas básicas, como agregar productos a un carrito de compras o buscar vuelos, según medios especializados. Microsoft Edge Copilot, aunque más estable, también presentó fallos de carga y bloqueos temporales.

Ambas compañías reconocieron los problemas y prometieron reforzar sus sistemas. OpenAI aseguró haber “implementado barreras superpuestas”, aunque admitió que la inyección de prompts sigue siendo “un problema de frontera sin solución perfecta”. Microsoft, por su parte, anunció medidas adicionales con su sistema SmartScreen y nuevas restricciones de acceso a sitios de terceros.

A pesar de los parches prometidos, los especialistas coinciden en que la integración de la IA en los navegadores plantea un nuevo paradigma de riesgo. “Cuando la inteligencia artificial toma decisiones por el usuario, el navegador deja de ser solo una ventana a la web, se convierte en un agente activo con poder real sobre la información”, concluyó Chalhoub. El futuro de los navegadores inteligentes dependerá, ahora, de si pueden ser igual de seguros que inteligentes.

Preguntas frecuentes

¿Qué riesgos presentan los navegadores de IA de OpenAI y Microsoft?

Los expertos advierten que ChatGPT Atlas y Edge Copilot pueden ejecutar órdenes maliciosas ocultas en sitios web, lo que permitiría el robo de datos personales o financieros.

¿Qué es una inyección de prompts y por qué es peligrosa?

Es una técnica donde un sitio web inserta instrucciones ocultas que la IA interpreta como órdenes válidas, pudiendo copiar información privada o redirigir al usuario a páginas falsas.

¿Qué fallos específicos se detectaron en las pruebas iniciales?

Investigadores demostraron que Atlas accedía a cuentas de Gmail y resumía mensajes privados manipulados desde Reddit, mientras que Edge Copilot presentó bloqueos y lentitud.

¿Cómo respondieron OpenAI y Microsoft ante las vulnerabilidades?

Ambas empresas reconocieron los fallos y prometieron reforzar sus defensas. OpenAI implementó nuevas barreras y Microsoft activó medidas adicionales con su sistema SmartScreen.

Compartir artículo

Continúa informándote