[Linux] Serveur qui gèle si on y copie un fichier trop grand ?
Cyril Chaboisseau
cyril.chaboisseau@::1
Mer 22 Aou 15:47:02 CEST 2018
Salut JM,
* Jean-Marc Libs <jeanmarc.libs@::1> [2018-08-21 17:31 +0200]:
> On Mon, Aug 20, 2018 at 10:36 PM Christophe Courtois <christophe@::1>
> >
> > À tout hasard :
> > - tester avec scp -v
> > - ou scp -C (une histoire de compression ?)
> > - 256 Mo, c'est beaucoup par rapport à la mémoire du serveur cible et à
> > ses IO ? je pense à un cache qui sature (et que scp traiterait de
> > manière plus agressive ?). Il se passe quoi si tu réduis la bande
> > passante avec scp -l ?
> > - quand ça fige, c
> > - en parallèle, que disent (par exemple ) iftop, vmstat, free -m ?
> > - tu as laissé combien de temps à scp avant d'abandonner le transfert ?
suite aux conseils de Christophe, comme j'ai l'impression que tu n'as
pas tester l'option limitation de la BP par scp, peux-tu voir si ça
passe avec la commande suivante :
scp -l 8192 dbdump/20180727_all-databases.sql xx.xx.xx.xx:
(idéalement, le faire aussi depuis un compte non-root pour voir si ça
change qque chose)
autres pistes :
changer ton MTU sur ton lan
ifconfig eth0 mtu 1492
ou bien
ip link set dev eth0 mtu 1492
(dans l'hypothèse où tu serais à 1500 ou +)
dernière piste, désactiver TCP SACK
sudo sysctl -w net.ipv4.tcp_sack=0
--
Cyril Chaboisseau
Plus d'informations sur la liste de diffusion linux