Logo Guapacho
ON

Portada » Nuevo ataque de imágenes Gemini: filtran datos con IA maliciosa

Nuevo ataque de imágenes Gemini: filtran datos con IA maliciosa

🕒 Lectura estimada: 2 min

Un ataque con imágenes en Gemini puede filtrar datos sensibles. Descubre cómo funciona esta técnica y por qué es un riesgo para la IA generativa.


La seguridad en los modelos de inteligencia artificial vuelve a estar bajo la lupa. Investigadores de seguridad informática han revelado un ataque con imágenes en Gemini capaz de filtrar datos sensibles de los usuarios. Lo inquietante es que no se trata de un hackeo tradicional, sino de la inyección de instrucciones ocultas en archivos visuales que parecen inocentes a simple vista.

¿Cómo funciona el ataque?

Según el reporte publicado por The Trail of Bits, los atacantes insertan instrucciones maliciosas en una marca de agua invisible. Al subir la imagen a plataformas como Gemini CLI, Vertex AI Studio o la API de Gemini, el modelo procesa el archivo y ejecuta la orden sin que el usuario lo note.

El truco está en el escalado automático de imágenes. La mayoría de modelos de IA trabajan con formatos reducidos (224 x 224 o 512 x 512 píxeles). Al redimensionar la foto manipulada, aparece el prompt oculto y Gemini lo interpreta como un comando válido. Esto permite filtrar datos de aplicaciones conectadas, como Google Calendar o Zapier, sin confirmación previa del usuario.

Aunque pueda sonar complejo, los investigadores demostraron que los atacantes pueden difundir imágenes infectadas en sitios web, memes o incluso por campañas de phishing. Con un clic inocente, la IA redimensiona la foto y ejecuta el ataque. De echo, las pruebas lograron enviar correos desde cuentas conectadas y extraer información sensible.

Las técnicas más afectadas son las basadas en escalado con nearest neighbor, bilinear y bicubic interpolation. Para inyectar los comandos, los ingenieros maliciosos utilizan la herramienta de código abierto Anamorpherm, que oculta prompts en zonas oscuras de las imágenes.

¿Qué se puede hacer?

Los expertos recomiendan no subir imágenes de origen desconocido a Gemini u otros asistentes, además de revisar qué permisos tiene la IA en nuestras aplicaciones. Este caso deja en claro que los modelos multimodales, aunque impresionantes, también son vulnerables.

Fuente

CATEGORÍAS:

Seguridad, Sociedad, Tecnología

james

Suscríbete al boletín

Recibe noticias, análisis y contenido geek directo en tu bandeja.

Deja tu comentario

Deja una respuesta

Te puede interesar