[Linux] Serveur qui gèle si on y copie un fichier trop grand ?

Christophe Courtois christophe@::1
Lun 20 Aou 22:36:45 CEST 2018


Salut !

Le 20/08/2018 à 19:52, Jean-Marc Libs a écrit :
> Transférer le même fichier via sftp fonctionne sans souci
> Et pendant que j'y étais, j'ai testé via rsync sans souci:
> Mais un test de confirmation avec scp a bien replanté le serveur. Mais
> pas à 256Mo, à 168Mo cette fois-ci.

Bizarre, ton histoire.

Le débit est-il équivalent dans les 3 cas ? (jusqu'à la perte de
connexion en tout cas)

> Le but, évidemment, c’est pas de transmettre le fichier en question.
> C'est de trouver comment avoir un serveur qui se fige pas suite à des
> manips anodines qui n'ont rien à voir :-(

À tout hasard :
 - tester avec scp -v
 - ou scp -C (une histoire de compression ?)
 - 256 Mo, c'est beaucoup par rapport à la mémoire du serveur cible et à
ses IO ? je pense à un cache qui sature (et que scp traiterait de
manière plus agressive ?). Il se passe quoi si tu réduis la bande
passante avec scp -l ?
  - quand ça fige, c
  - en parallèle, que disent (par exemple ) iftop, vmstat, free -m ?
  - tu as laissé combien de temps à scp avant d'abandonner le transfert ?


-- 
Christophe Courtois


Plus d'informations sur la liste de diffusion linux