[Linux] Serveur qui gèle si on y copie un fichier trop grand ?

Cyril Chaboisseau cyril.chaboisseau@::1
Mer 22 Aou 15:47:02 CEST 2018


Salut JM,

* Jean-Marc Libs <jeanmarc.libs@::1> [2018-08-21 17:31 +0200]:

> On Mon, Aug 20, 2018 at 10:36 PM Christophe Courtois <christophe@::1>
> >
> > À tout hasard :
> >  - tester avec scp -v
> >  - ou scp -C (une histoire de compression ?)
> >  - 256 Mo, c'est beaucoup par rapport à la mémoire du serveur cible et à
> > ses IO ? je pense à un cache qui sature (et que scp traiterait de
> > manière plus agressive ?). Il se passe quoi si tu réduis la bande
> > passante avec scp -l ?
> >   - quand ça fige, c
> >   - en parallèle, que disent (par exemple ) iftop, vmstat, free -m ?
> >   - tu as laissé combien de temps à scp avant d'abandonner le transfert ?

suite aux conseils de Christophe, comme j'ai l'impression que tu n'as
pas tester l'option limitation de la BP par scp, peux-tu voir si ça
passe avec la commande suivante :

scp -l 8192 dbdump/20180727_all-databases.sql xx.xx.xx.xx:

(idéalement, le faire aussi depuis un compte non-root pour voir si ça
change qque chose)

autres pistes :

changer ton MTU sur ton lan

ifconfig eth0 mtu 1492
ou bien
ip link set dev eth0 mtu 1492

(dans l'hypothèse où tu serais à 1500 ou +)


dernière piste, désactiver TCP SACK

sudo sysctl -w net.ipv4.tcp_sack=0


-- 
	Cyril Chaboisseau


Plus d'informations sur la liste de diffusion linux