¡Alerta! ChatGPT presenta un riesgo de seguridad. ¿Está tu data en peligro?
¡Alerta! ChatGPT presenta un riesgo de seguridad. ¿Está tu data en peligro?
¡Chamba, chamba! Parece que la inteligencia artificial generativa popular de OpenAI, ChatGPT, está en el ojo del huracán por nuevas preocupaciones de seguridad. Según la investigación del experto en seguridad Johann Rehberger y el seguimiento de Tom’s Hardware, ChatGPT tiene fallas de seguridad que provienen de su nueva función de carga de archivos.
Las nuevas actualizaciones de ChatGPT y sus problemas de seguridad
La reciente actualización de OpenAI a ChatGPT Plus añadió un montón de nuevas funciones, incluyendo la generación de imágenes DALL-E y el Code Interpreter, que permite la ejecución de código Python y el análisis de archivos. El código se crea y se ejecuta en un entorno de sandbox que, desafortunadamente, es vulnerable a los ataques de inyección de prompts.
La vulnerabilidad conocida de ChatGPT
Una vulnerabilidad conocida en ChatGPT desde hace algún tiempo, el ataque implica engañar a ChatGPT para que ejecute instrucciones desde una URL de terceros, lo que lleva a codificar los archivos cargados en una cadena amigable para la URL y enviar estos datos a un sitio web malicioso. Aunque la probabilidad de tal ataque requiere condiciones específicas (por ejemplo, el usuario debe pegar activamente una URL maliciosa en ChatGPT), el riesgo sigue siendo preocupante. Esta amenaza de seguridad podría realizarse a través de varios escenarios, incluyendo un sitio web de confianza que se vea comprometido con un prompt malicioso, o a través de tácticas de ingeniería social.
La prueba de Tom’s Hardware
Tom’s Hardware hizo un trabajo impresionante probando cuán vulnerables pueden ser los usuarios a este ataque. La explotación se probó creando un archivo falso de variables de entorno y utilizando ChatGPT para procesar y enviar inadvertidamente estos datos a un servidor externo. Aunque la efectividad de la explotación varió entre las sesiones (por ejemplo, ChatGPT a veces se negó a cargar páginas externas o transmitir datos de archivos), plantea preocupaciones de seguridad significativas, especialmente dada la capacidad de la IA para leer y ejecutar comandos de Linux y manejar archivos cargados por el usuario en un entorno virtual basado en Linux.
La respuesta de OpenAI
Como señala Tom’s Hardware en sus hallazgos, a pesar de parecer improbable, la existencia de este agujero de seguridad es significativa. Idealmente, ChatGPT no debería ejecutar instrucciones de páginas web externas, pero lo hace. Mashable se puso en contacto con OpenAI para obtener comentarios, pero no respondió de inmediato a nuestra solicitud.
¡Chamba, chamba! ¿Qué opinas de esta noticia? No olvides dejar tus comentarios, compartir en tus redes sociales y seguir conectado con Dify.cl para más noticias de tecnología.