Depuis des années j'utilise un script de backup.
Je dump les bases de données et je "tar zcfP" les répertoires.
Mais la partie TAR devient beaucoup trop gourmande à cause de la taille de mes sites (Plus de 100Go parfois).
Trop gourmand en CPU et en temps (Les machines ne sont pas forcément super puissantes).
Les backups peuvent prendre plus de 6h à s'éxécuter, ça devient débile...

Auriez-vous une astuce pour faire des archives rapidement (Même si la compression n'est pas extraordinaire) et sans mettre à plat mes machines ?
SI je souhaite des archives plutôt qu'une ribambelle de petits fichiers c'est parce qu'ensuite je fais des backups croisés avec sshfs et qu'un multitude de petits fichiers est BEAUCOUP plus lent que quelques gros... ;-)
Merci pour vos pistes.