Un error en Copilot hace que se salte la protección de datos y lea emails confidenciales


Microsoft ha reconocido un grave bug de Microsoft 365 Copilot que permitía al asistente de IA resumir correos marcados como confidenciales… sin el permiso de los usuarios. Un acto que se salta las políticas de Data Loss Prevention que pretenden prevenir precisamente que este tipo de contenido sensible llegue a Copilot.

El problema, que ya tiene nombre a nivel interno como CW1226324, afectó específicamente a la pestaña «Work» de Copilot Chat, la cual accedió a mensajes en las carpetas Sent Items y Drafts desde finales de enero de este mismo año hasta ahora, que se ha detectado.

Aunque Microsoft ha asegurado que no se han filtrado datos a la nube, ni hubo ningún tipo de explotación maliciosa, el fallo ha expuesto un riesgo de cumplimiento normativo serio para las empresas que dependen de DLP para cumplir con las regulaciones como el Reglamento de Protección de Datos de la UE. Y es que la IA procesó información que debería haber quedado bloqueada desde primera hora.

La compañía comenzó a desplegar un parche a principios de febrero, pero el incidente ha puesto en evidencia otro fallo más en la cadena de IA de Microsoft.


Más información: