Miercoles, 18 de Febrero del 2026
turismo



Los riesgos de la IA generativa en entornos corporativos

Publicado el 21/08/25
  • El uso no regulado de herramientas de inteligencia artificial generativa —como ChatGPT, Gemini, Copilot, entre otras— puede conllevar riesgos significativos, como la fuga de información confidencial en entornos corporativos.

 

Lima, 21 de Agosto del 2025. La adopción masiva de herramientas de inteligencia artificial generativa como ChatGPT, Gemini, Claude o Copilot está revolucionando la productividad en empresas y entidades públicas, pero también está exponiendo a las organizaciones a graves riesgos de ciberseguridad.

Al respecto, Fiorella Escalante, Country Manager de Inetum Perú, indicó que el uso no regulado de estas plataformas —especialmente sus versiones abiertas y gratuitas— puede provocar fugas de información confidencial, pérdida de propiedad intelectual, incumplimientos normativos y facilitar ataques cibernéticos, lo que exige una respuesta urgente y estratégica por parte de las organizaciones.

Cada vez más empleados utilizan estas herramientas para redactar documentos, traducir textos o analizar datos. Sin embargo, al introducir información sensible en plataformas públicas, se corre el riesgo de que estos datos sean almacenados, analizados o utilizados para entrenar modelos sin el consentimiento del usuario o de la organización. Esto puede derivar en la exposición de secretos empresariales, estrategias, algoritmos o incluso documentos clasificados, sin ningún tipo de trazabilidad ni control.

Entre los riesgos más críticos se encuentran la fuga de información confidencial, la pérdida de propiedad intelectual, el incumplimiento de normativas como la Ley de Protección de Datos Personales, y la posibilidad de ataques indirectos como el phishing, la ingeniería social o el ransomware, que se ven facilitados por la exposición de patrones, nombres o estructuras organizativas.

Para enfrentar esta problemática, Inetum propone un enfoque integral que combine tecnología, procesos y cultura organizacional. Algunas de las soluciones incluyen herramientas como DLP (Data Loss Prevention), que bloquea la salida no autorizada de información; CASB (Cloud Access Security Broker), que monitoriza el uso de plataformas en la nube; y IRM (Information Rights Management), que protege

documentos mediante cifrado y control de permisos. También se recomienda establecer políticas de clasificación de la información, limitar el acceso desde dispositivos corporativos, capacitar a los empleados sobre los riesgos del uso de IA generativa y registrar el uso de estas herramientas para garantizar trazabilidad.

“La IA generativa ofrece enormes beneficios, pero su implementación debe estar alineada con las políticas de seguridad de cada organización. Algunas empresas ya están optando por soluciones privadas de IA, entrenadas con datos internos y alojadas en entornos seguros, lo que permite aprovechar sus capacidades sin comprometer la confidencialidad”, informó Fiorella Escalante.

Además, Inetum recomienda la creación de un comité ético-tecnológico que supervise el uso de estas herramientas, evalúe riesgos emergentes y proponga medidas adaptativas para garantizar un uso responsable y seguro de la inteligencia artificial generativa en entornos corporativos.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *