archiver_et_rendre_statique_un_wiki
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
archiver_et_rendre_statique_un_wiki [2022/02/12 23:25] – Clean Labomedia | archiver_et_rendre_statique_un_wiki [2024/02/27 11:27] (Version actuelle) – [Avec httrack] Benjamin Labomedia | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Archiver et rendre statique un site web ====== | ====== Archiver et rendre statique un site web ====== | ||
- | A creuser, l' | + | |
Voir aussi le projet [[https:// | Voir aussi le projet [[https:// | ||
- | Par contre, avec wget, ça aspire tout un site en bourrant le serveur de requêtes (attention à pas se faire bannir) : | + | ===== Avec httrack ===== |
+ | |||
+ | [[https:// | ||
+ | |||
+ | Il suffit de l' | ||
+ | |||
+ | Une fois installé, lancer simplement en ligne de commande : | ||
+ | |||
+ | httrack | ||
+ | |||
+ | Puis suivre le processus en répondant aux questions. | ||
+ | |||
+ | Par exemple, pour télécharger un site complet exemple.org (html, css, js, images, pdf...etc), en limitant à 4 connections / seconde, 400kb/s et 8 connections en même temps max : | ||
+ | |||
+ | httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path example.org --max-rate=409600 --connection-per-second=4 --sockets=8 --quiet https:// | ||
+ | httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path / | ||
+ | |||
+ | ===== Avec wget ===== | ||
+ | |||
+ | Avec wget, ça aspire tout un site en bourrant le serveur de requêtes (attention à pas se faire bannir) : | ||
wget --mirror --convert-links --html-extension wget --adjust-extension --page-requisites --no-parent -o log http:// | wget --mirror --convert-links --html-extension wget --adjust-extension --page-requisites --no-parent -o log http:// |
archiver_et_rendre_statique_un_wiki.1644708303.txt.gz · Dernière modification : 2022/02/12 23:25 de Labomedia