play_arrow

keyboard_arrow_right

Listeners:

Top listeners:

skip_previous skip_next
00:00 00:00
playlist_play chevron_left
volume_up
  • cover play_arrow

    CORRIENTES FM SOMOS TU VOS

  • cover play_arrow

    HUMOR PARA LEER Y ESCUCHAR Reflexiones de la vida diaria: «Metidas de pata» E-GRUPOCLAN

Tecnología

Crearon un gusano que se propaga en asistentes de IA generativa, roba información e instala malware

today4 de marzo de 2024 2

Fondo
share close

Un grupo de investigadores ha desarrollado un gusano informático que tiene la capacidad de propagarse entre agentes de Inteligencia Artificial (IA) generativa, implementar malware en ellos y robar datos de los usuarios.

Este gusano, denominado Morris II -en referencia al considerado primer ‘malware’ de la historia e identificado en 1988, Morris-, se creó para demostrar los riesgos de los ecosistemas autónomos y conectados por la IA generativa, explicaron los desarrolladores en Wired.

El equipo de expertos, formado por el investigador de Cornell Tech Ben Nassi y otros dos compañeros, Stav Cohen y Ron Britton, demostraron cómo el gusano puede atacar a un asistente de correo electrónico de IA generativa para robar información de los usuarios y enviar mensajes de spam, sobrepasando algunos sistemas de seguridad de ChatGPT y Gemini durante el ataque.

Cómo lograron “envenenar” los asistentes de IA

En primer lugar, recordaron que la mayoría de los sistemas de IA generativa funcionan mediante instrucciones, que permiten a las herramientas responder una pregunta o crear una imagen. Sin embargo, estas indicaciones también se pueden emplear contra el sistema, para que la IA generativa ignore su principal finalidad y sobrepase los límites de seguridad.

Para probar este gusano, los investigadores crearon un sistema de correo electrónico de prueba, capaz de enviar y recibir mensajes utilizando IA generativa de ChatGPT y Gemini, así como el modelo de lenguaje grande (LLM) de código abierto LLaVA.

En esta simulación, los investigadores escribieron un correo electrónico capaz de “envenenar” la base de datos del asistente de correo electrónico usando la generación mejorada por recuperación (RAG, por sus siglas en inglés), un proceso que permite a los LLM obtener datos adicionales desde el exterior.

Una vez el RAG recupera el correo electrónico, envía estos datos a GPT-4 o Gemini Pro para elaborar una respuesta, haciendo jailbreak -esto es, instalando ‘software’ diferente al del fabricante- en el servicio GenAI.

La respuesta generada, por tanto, “contiene datos confidenciales del usuario e infecta posteriormente nuevos ‘hosts’ cuando se utiliza para responder a un correo electrónico enviado a un nuevo cliente y luego se almacena en su base de datos”, según ha explicado Nassi.

Imágenes con contenido malicioso

Por otra parte, el equipo de ingenieros probó distribuir una imagen con un mensaje malicioso incrustado, que hizo que el asistente de correo electrónico reenviase el mensaje a otras personas. Esto fue posible porque se codificó el mensaje autorreplicante en la imagen, de modo que cualquier tipo de imagen contenedora de spam o material dañino se puede reenviar a nuevos clientes o usuarios después de haber remitido el correo electrónico original.

En este proceso se puede extraer datos de los correos electrónicos en cuestión, como los nombres, los números de teléfono, los números de tarjetas de crédito “y cualquier cosa que se considere confidencial”, en palabras del investigador.

Con este trabajo, los analistas buscan demostrar que existe un “mal diseño de arquitectura” dentro del ecosistema de IA, lo que advierte que los desarrolladores de estas herramientas deben fortalecer sus sistemas de seguridad para hacerlos “más resistentes”.

Escrito por E-GRUPOCLAN

Valóralo

Comentarios de las entradas (0)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *