[Linux] Serveur qui gèle si on y copie un fichier trop grand ?
Christophe Courtois
christophe@::1
Lun 20 Aou 22:36:45 CEST 2018
Salut !
Le 20/08/2018 à 19:52, Jean-Marc Libs a écrit :
> Transférer le même fichier via sftp fonctionne sans souci
> Et pendant que j'y étais, j'ai testé via rsync sans souci:
> Mais un test de confirmation avec scp a bien replanté le serveur. Mais
> pas à 256Mo, à 168Mo cette fois-ci.
Bizarre, ton histoire.
Le débit est-il équivalent dans les 3 cas ? (jusqu'à la perte de
connexion en tout cas)
> Le but, évidemment, c’est pas de transmettre le fichier en question.
> C'est de trouver comment avoir un serveur qui se fige pas suite à des
> manips anodines qui n'ont rien à voir :-(
À tout hasard :
- tester avec scp -v
- ou scp -C (une histoire de compression ?)
- 256 Mo, c'est beaucoup par rapport à la mémoire du serveur cible et à
ses IO ? je pense à un cache qui sature (et que scp traiterait de
manière plus agressive ?). Il se passe quoi si tu réduis la bande
passante avec scp -l ?
- quand ça fige, c
- en parallèle, que disent (par exemple ) iftop, vmstat, free -m ?
- tu as laissé combien de temps à scp avant d'abandonner le transfert ?
--
Christophe Courtois
Plus d'informations sur la liste de diffusion linux