ESET destapa: tus chats con la IA no son privados ni seguros

La falsa privacidad de la inteligencia artificial

Interactuar con plataformas como ChatGPT no es tan inocente como muchos creen. Detrás de cada pregunta y respuesta hay una red de almacenamiento que no solo guarda, sino analiza y potencialmente expone información sensible.

Qué está pasando con tus datos

La firma de ciberseguridad ESET advierte que estos chats no funcionan como un simple mensaje privado. Tus conversaciones se guardan en servidores, se usan para entrenar futuros modelos y, peor aún, pueden ser revisadas por personas capacitadas que examinan fragmentos anonimizados. Así, información confidencial puede ser absorbida y reproducida sin control.

Por qué esto cambia el escenario empresarial

Empresas que colocan planes estratégicos, códigos exclusivos o datos de acceso en estos chats abren la puerta a filtraciones graves. No son casos aislados: más de 225.000 registros de acceso a ChatGPT terminaron a la venta en la dark web en 2024, consecuencia directa de vulnerabilidades explotadas por malware especializado.

Qué se puede hacer para contener el daño

  • Evitar compartir datos reales en estos entornos sin controles estrictos.
  • Anonimizar información sensible, reemplazando nombres o fragmentos críticos antes de enviar cualquier dato.
  • Desactivar opciones de historial y entrenamiento en la configuración de la IA para limitar la exposición.
  • Implementar contraseñas fuertes y autenticación de dos factores para proteger accesos.

Lo preocupante: el proceso técnico para eliminar completamente datos ya cargados es complejo y poco confiable. Es hora de que las empresas dejen de confiar ciegamente en la supuesta privacidad de estas plataformas y empiecen a blindar su información frente a un riesgo que pocos están dispuestos a admitir.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Desplazarse hacia arriba