Catégories
Linux Trucs et astuces

Aspirer un site internet pour une consultation hors-ligne

Il doit certainement exister des logiciels avec possibilité de filtres et de dizaines d’autres options, mais pour la plupart des cas cette simple commande me suffit :

wget -r -k -np -T 10 -t 1 http://www.zapoyok.info

  • -r : signifie que le téléchargement sera récursif et suit les liens présent dans la page
  • -k : permet de reconstituer le site localement afin d’être consultable hors connexion : les liens sont modifié pour pointer localement
  • -np empêche de remonter dans le répertoire parent.
  • -T 10 : Time connection. Le temps max en seconde pour aspirer un lien. Quand cette option est omis, un lien difficilement accessible peut ralentir considérablement l’aspiration du site.
  • -t 1 : nombre de tentative de connexion si il y a erreur 404 (pas de lien). Ici, on veut qu’il n’y ait qu’une seule tentative de connexion afin d’accélérer le traitement d’aspiration.