Buenas.
Tengo un servidor de ficheros con unos 10 TB de información. Hago backup de todo de manera diaria. El tema es que es posible que sólo un pequeño porcentaje de ese volumen varíe, con lo cual el plan de backup podría ser más eficiente.
Me interesaría saber, de entre toda la maraña de carpetas y ficheros, cuáles son aquéllos que cambian con más frecuencia, para identificarlos y hacerles un tratamiento diferente.
Sé que puedo "buscar ficheros creados o modificados" entre fechas, pero entre tanta información, puedo tardar mucho y afectar al rendimiento del servidor. Además, debería hacerlo durante varios días seguidos, para tener una identificación fiable.
¿Se os ocurre alguna manera de hacerlo? Uso Windows 2008 Server, y quizá tiene una herramienta de auditoría de ficheros que haga esto. O con algún software de terceros.
Gracias!