Portada »
Hackers intentaron clonar Gemini con más de 100.000 prompts
🕒 Lectura estimada: 3 min
Un grupo de hackers intentó clonar Gemini utilizando una técnica basada en el envío masivo de 100.000 prompts
Portada »
🕒 Lectura estimada: 3 min
Un grupo de hackers intentó clonar Gemini utilizando una técnica basada en el envío masivo de 100.000 prompts
La inteligencia artificial se ha convertido en uno de los activos tecnológicos más valiosos del mundo, y Gemini, el modelo de IA desarrollado por Google, está en el centro de esa revolución. Pero su valor también lo convierte en un objetivo. Un grupo de hackers intentó clonar el modelo utilizando una técnica basada en el envío masivo de 100.000 prompts, con el objetivo de replicar su comportamiento sin tener acceso directo a su código o entrenamiento original.
Este incidente confirma una nueva realidad: los modelos de inteligencia artificial no solo compiten en capacidades, sino también en seguridad.
Entrenar un modelo como Gemini implica inversiones millonarias en infraestructura, datos y talento especializado. Para evitar este proceso, los atacantes utilizaron más de 100.000 prompts cuidadosamente diseñados, buscando analizar las respuestas del sistema y entender sus patrones de razonamiento.
Este método, conocido como extracción de modelo, consiste en interactuar repetidamente con una inteligencia artificial para reconstruir una versión funcional similar. En otras palabras, intentaban “copiar” la lógica de Gemini a partir de sus respuestas.
El equipo de Threat Intelligence Group de Google detectó rápidamente el comportamiento anómalo. El volumen y la frecuencia de las consultas activaron las alertas de seguridad, lo que permitió bloquear las cuentas implicadas antes de que el intento avanzara.
Tras detectar el ataque, Google tomó medidas inmediatas para proteger Gemini, como el bloqueo de cuentas involucradas, la Interrupción del intento de extracción de modelo y mejorando la protección contra este tipo de ataques.
Google no ha confirmado la identidad de los responsables. Sin embargo, expertos en ciberseguridad señalan que estos intentos pueden provenir de varios actores, incluyendo:
El principal interés radica en replicar las capacidades de razonamiento de Gemini, uno de los modelos más avanzados actualmente.
Este incidente deja claro que la seguridad es ahora un componente esencial en el desarrollo de inteligencia artificial. A medida que modelos como Gemini se vuelven más avanzados, también aumentan los intentos de copiarlos, manipularlos o explotarlos.
Las empresas tecnológicas están invirtiendo cada vez más en sistemas capaces de detectar patrones sospechosos, limitar el abuso de sus plataformas y proteger su propiedad intelectual.
En este nuevo escenario, la inteligencia artificial no solo es una herramienta poderosa, sino también un activo que requiere protección constante. Y el intento de clonación de Gemini es una señal clara de que la carrera por dominar la IA también se libra en el terreno de la ciberseguridad.
james
Recibe noticias, análisis y contenido geek directo en tu bandeja.
Deja tu comentario