Se ha identificado recientemente un error de seguridad en su asistente de inteligencia artificial Microsoft 365 Copilot, capaz de procesar y resumir correos electrónicos marcados como confidenciales sin respetar las políticas de protección de datos establecidas por las organizaciones. El incidente generó preocupación en entornos corporativos debido a que las herramientas de IA están cada vez más integradas en flujos de trabajo empresariales críticos.
El fallo permitió que Copilot accediera a información ubicada en carpetas como Elementos enviados y Borradores, incluso cuando los mensajes contaban con etiquetas de sensibilidad o controles de Data Loss Prevention (DLP) activos. Microsoft reconoció el problema como un error de código interno y desplegó rápidamente una corrección durante febrero de 2026.
Aunque la compañía indicó que no hubo evidencia de explotación maliciosa ni filtraciones externas de datos, el incidente evidencia los riesgos emergentes asociados al uso de inteligencia artificial empresarial y plantea nuevos desafíos en materia de gobernanza, privacidad y cumplimiento normativo.
Descubre todos los detalles de cómo protegerte, revisando el boletín completo.