ESET destapa: tus chats con la IA no son privados ni seguros
La falsa privacidad de la inteligencia artificial
Interactuar con plataformas como ChatGPT no es tan inocente como muchos creen. Detrás de cada pregunta y respuesta hay una red de almacenamiento que no solo guarda, sino analiza y potencialmente expone información sensible.
Qué está pasando con tus datos
La firma de ciberseguridad ESET advierte que estos chats no funcionan como un simple mensaje privado. Tus conversaciones se guardan en servidores, se usan para entrenar futuros modelos y, peor aún, pueden ser revisadas por personas capacitadas que examinan fragmentos anonimizados. Así, información confidencial puede ser absorbida y reproducida sin control.
Por qué esto cambia el escenario empresarial
Empresas que colocan planes estratégicos, códigos exclusivos o datos de acceso en estos chats abren la puerta a filtraciones graves. No son casos aislados: más de 225.000 registros de acceso a ChatGPT terminaron a la venta en la dark web en 2024, consecuencia directa de vulnerabilidades explotadas por malware especializado.
Qué se puede hacer para contener el daño
- Evitar compartir datos reales en estos entornos sin controles estrictos.
- Anonimizar información sensible, reemplazando nombres o fragmentos críticos antes de enviar cualquier dato.
- Desactivar opciones de historial y entrenamiento en la configuración de la IA para limitar la exposición.
- Implementar contraseñas fuertes y autenticación de dos factores para proteger accesos.
Lo preocupante: el proceso técnico para eliminar completamente datos ya cargados es complejo y poco confiable. Es hora de que las empresas dejen de confiar ciegamente en la supuesta privacidad de estas plataformas y empiecen a blindar su información frente a un riesgo que pocos están dispuestos a admitir.