[Linux] Wget -r -l <number> ne marche pas si `Content-Encoding: gzip`

R. Bastian rbastian@::1
Jeu 28 Mai 19:38:08 CEST 2009


On Thu, 28 May 2009 11:40:05 -0500
Olemis Lang <olemis@::1> scribit:

> Bonjour à tous et à toutes !
> 
> Je viens d'essayer de télécharger plusieurs pages comme je montre ci-dessous:
> 
> {{{
> $ wget -k -F -r -l 2 <url>
> }}}
> 
> Mais j'ai trouvé q ça ne marche pas parce q je n'obtiens qu'une page
> (même si cette page-là contient bcp de liens ;) Ensuite j'ai essayé
> 
> {{{
> $ wget -S <url>
> --12:16:13--  <url>
>            => `index.html'
> [...]
> HTTP request sent, awaiting response...
>   HTTP/1.0 200 OK
> [...]
>   Content-Encoding: gzip
> Length: unspecified [text/html]
> 
>     [ <=>
>                 ] 6,869         --.--K/s
> }}}
> 
> Alors je voiudrais savoir s'il est possible d'utiliser gzip afin que
> wget puisse obtenir la page HTML et continue à télécharger d'autres
> pages de manière recursive ... C'est possible ? Comment ?
> 
> Merci d'avance !

wget n'est pas à utiliser dans tous les cas avec -r - mais je ne sais pas dans lesquels ...
sur certains sites, le pompage se mélange les crayons dans la récursion.
(p.ex. les sites de doc de numpy - ça te dit qq chose ? ;-)




> 
> -- 
> Regards,
> 
> Olemis.
> 
> Blog ES: http://simelo-es.blogspot.com/
> Blog EN: http://simelo-en.blogspot.com/
> 
> Featured article:
> Oracle : por más que engorda sigue subiendo ...  -
> http://feedproxy.google.com/~r/simelo-es/~3/ndKoYi3D-kg/oracle-por-mas-que-engorda-sigue.html
> 



Plus d'informations sur la liste de diffusion linux