Un correo bastó para que ChatGPT filtrara datos privados de Gmail
23/9/25
Por:
Ximena Perez
Investigadores descubrieron que instrucciones ocultas en un mensaje lograron engañar a la IA y exponer información sensible.

Un fallo de seguridad puso en el centro de atención a ChatGPT, luego de que se confirmara que un simple correo electrónico fue suficiente para que la inteligencia artificial terminara filtrando datos privados de un usuario de Gmail. El hallazgo fue realizado por la firma de ciberseguridad Radware y encendió las alarmas sobre los riesgos de estas tecnologías.
La vulnerabilidad se presentó en la función de “investigación profunda”, que permite analizar correos electrónicos para ofrecer resúmenes y respuestas. El problema fue que el sistema no distinguió entre el contenido normal de un correo y las instrucciones maliciosas ocultas en el mismo. De esta forma, al procesar el mensaje, ChatGPT terminó enviando información sensible a un servidor controlado por los atacantes.
Entre los datos que pudieron verse comprometidos estaban nombres, direcciones y otros elementos personales que forman parte de los correos electrónicos de los usuarios.
Tras ser notificada, OpenAI corrigió la vulnerabilidad en agosto, antes de que la noticia se hiciera pública. La empresa señaló que reforzará los filtros para evitar que se repita un incidente de este tipo.
Este caso resalta la importancia de mantener precauciones al usar funciones avanzadas de inteligencia artificial, especialmente aquellas que acceden a información personal como correos electrónicos o documentos privados. Los expertos recomiendan revisar configuraciones de seguridad, limitar accesos innecesarios y mantenerse atentos a las actualizaciones oficiales.
Lo último


