La inteligencia artificial generativa, o GenAI, se integró rápidamente en el entorno laboral de México a través de herramientas como ChatGPT o Grammarly, pero su adopción acelerada esconde riesgos que muchas organizaciones no están preparadas para gestionar.
Un nuevo informe de Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, revela una realidad alarmante sobre cómo se está utilizando esta tecnología en el país, exponiendo a las empresas a fugas de información y ciberataques.
El uso de IA generativa crece exponencialmente en el país
El estudio «The State of Generative AI 2025» posiciona a México como uno de los países más activos de América Latina en la adopción de esta tecnología, donde se registra un promedio de más de 60 aplicaciones de GenAI por organización.
Esta cifra demuestra que su implementación no se limita a los sectores tecnológicos, ya que industrias como la manufactura, los servicios financieros y la salud también integran estas herramientas en procesos críticos de su operación diaria.
Aplicaciones sin cifrado ni privacidad exponen datos sensibles
Lo más preocupante del informe es que al menos el 10% de estas aplicaciones se consideran de alto riesgo, una categorización que responde a fallas críticas de seguridad que aumentan la probabilidad de incidentes.
Estas herramientas permiten la carga de archivos sensibles, carecen de un cifrado adecuado para proteger la información o utilizan los datos que tú ingresas para entrenar sus propios modelos, todo mientras incumplen con estándares básicos de privacidad.
El fenómeno de la ‘IA en la sombra’ facilita las fugas de información
Uno de los mayores retos para la seguridad corporativa es la IA en la sombra, un fenómeno que ocurre cuando los empleados utilizan herramientas sin el conocimiento o la aprobación del departamento de TI, abriendo la puerta a brechas de seguridad.
Basta con que un programador copie fragmentos de código propietario en una plataforma pública para depurarlo o que un directivo use una IA para redactar un plan estratégico, sin saber que esa información confidencial podría ser almacenada o reutilizada por terceros.
Vulnerabilidades de jailbreak permiten manipular las herramientas
A nivel técnico, muchas de estas aplicaciones presentan debilidades significativas, ya que el informe comprobó que más del 70% de los asistentes de escritura evaluados eran vulnerables a técnicas de jailbreak.
Estos métodos manipulan la IA para que genere respuestas que normalmente estarían bloqueadas, incluyendo contenido inapropiado, riesgoso o incluso código malicioso que podría ser utilizado en un ataque posterior contra la organización.
La ciberseguridad debe ser un pilar en la adopción de IA
La falta de controles de seguridad ya muestra consecuencias medibles, pues los incidentes de pérdida de datos vinculados a la GenAI se duplicaron en lo que va de 2025 y ahora representan el 14% de todos los incidentes de seguridad en plataformas SaaS.
La adopción de tecnología sin una estrategia de protección paralela es una vulnerabilidad que las empresas mexicanas deben atender con urgencia para no comprometer sus activos más valiosos en esta nueva etapa tecnológica.





