[Linux] Wget -r -l <number> ne marche pas si `Content-Encoding: gzip`
R. Bastian
rbastian@::1
Jeu 28 Mai 19:38:08 CEST 2009
On Thu, 28 May 2009 11:40:05 -0500
Olemis Lang <olemis@::1> scribit:
> Bonjour à tous et à toutes !
>
> Je viens d'essayer de télécharger plusieurs pages comme je montre ci-dessous:
>
> {{{
> $ wget -k -F -r -l 2 <url>
> }}}
>
> Mais j'ai trouvé q ça ne marche pas parce q je n'obtiens qu'une page
> (même si cette page-là contient bcp de liens ;) Ensuite j'ai essayé
>
> {{{
> $ wget -S <url>
> --12:16:13-- <url>
> => `index.html'
> [...]
> HTTP request sent, awaiting response...
> HTTP/1.0 200 OK
> [...]
> Content-Encoding: gzip
> Length: unspecified [text/html]
>
> [ <=>
> ] 6,869 --.--K/s
> }}}
>
> Alors je voiudrais savoir s'il est possible d'utiliser gzip afin que
> wget puisse obtenir la page HTML et continue à télécharger d'autres
> pages de manière recursive ... C'est possible ? Comment ?
>
> Merci d'avance !
wget n'est pas à utiliser dans tous les cas avec -r - mais je ne sais pas dans lesquels ...
sur certains sites, le pompage se mélange les crayons dans la récursion.
(p.ex. les sites de doc de numpy - ça te dit qq chose ? ;-)
>
> --
> Regards,
>
> Olemis.
>
> Blog ES: http://simelo-es.blogspot.com/
> Blog EN: http://simelo-en.blogspot.com/
>
> Featured article:
> Oracle : por más que engorda sigue subiendo ... -
> http://feedproxy.google.com/~r/simelo-es/~3/ndKoYi3D-kg/oracle-por-mas-que-engorda-sigue.html
>
Plus d'informations sur la liste de diffusion linux