archiver_et_rendre_statique_un_wiki
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédenteDernière révisionLes deux révisions suivantes | ||
archiver_et_rendre_statique_un_wiki [2019/08/08 08:54] – serge | archiver_et_rendre_statique_un_wiki [2022/02/13 00:01] – [Avec httrack] n1c0 | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
- | ====== Archiver et rendre statique un wiki ====== | + | ====== Archiver et rendre statique un site web ====== |
- | =====Préparation===== | + | Voir aussi le projet [[https://github.com/ |
- | ====Ajouter sur la page d’accueil un lien vers toutes les pages==== | + | |
- | Il y a 2 pages d' | + | |
- | Ajouter: | + | |
- | * Un lien vers les pages de l' | + | |
- | * Un lien vers les pages en edit https:// | + | |
- | Cela assure que toutes les pages seront bien parcourues. | + | ===== Avec httrack ===== |
- | =====Téléchargement===== | + | [[https://www.httrack.com/|httrack]] est un logiciel qui aspire un site avec de nombreuses options et qui peut aussi s' |
- | Ne pas utiliser httrack qui veux toujours aspirer tous les internets ! | + | |
- | ====Ressources==== | + | |
- | * https://alvinalexander.com/linux-unix/ | + | |
- | ====Commande à valider et commenter par bj==== | + | Il suffit de l'installer via le gestionnaire de paquet de votre distribution Linux / BSD, ou via les binaires à télécharger sur le site pour Windows, |
- | wget -c --mirror --no-parent --convert-links https:// | + | |
- | Test | + | |
- | wget -k -p -r --user-agent='Mozilla/5.0 (Windows | + | |
- | D' | + | |
- | -k: convert links to suit local viewing | + | |
- | -p: download page requisites/ | + | |
- | -r: download recursively | + | |
- | | + | |
- | Voir https:// | + | |
- | =====Ajouter un bandeau sur toutes les pages===== | + | Une fois installé, lancer simplement en ligne de commande : |
- | * Des explications | + | |
- | * Avec un lien de recherche vers Google sur votre wiki | + | |
- | **Exemple sur mediawiki** | + | httrack |
- | | + | |
- | {{ : | + | Puis suivre le processus en répondant aux questions. |
- | Facile en python, demander | + | Par exemple, pour télécharger un site complet exemple.org (html, css, js, images, pdf...etc), en limitant |
- | {{tag>sb}} | + | httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path example.org --max-rate=409600 --connection-per-second=4 --sockets=8 --quiet https:// |
+ | |||
+ | ===== Avec wget ===== | ||
+ | |||
+ | Avec wget, ça aspire tout un site en bourrant le serveur de requêtes (attention à pas se faire bannir) : | ||
+ | |||
+ | wget --mirror --convert-links --html-extension wget --adjust-extension --page-requisites --no-parent -o log http:// | ||
+ | |||
+ | Cela aspirera le site en écrivant tout ce qu'il se passe dans un fichier log. En enlevant le paramètre <code>-o log</ | ||
+ | |||
+ | < | ||
+ | --mirror : Equivalent à '-r -N -l inf --no-remove-listing', | ||
+ | </ | ||
+ | < | ||
+ | --convert-links : Cela converti les liens après que le téléchargement est terminé pour relier les assets au HTML (pour une vue locale. Ce qu'il nous faut quoi). | ||
+ | </ | ||
+ | < | ||
+ | --html-extension : Ajoute une extension .html à tous les fichiers téléchargés. Votre Apache/ | ||
+ | --adjust-extension : Ajoute les bonnes extensions aux noms de fichier(html or css) selon leur type | ||
+ | --page-requisites : télécharge le CSS et les images pour bien afficher la page offline | ||
+ | --no-parent : quand récursif, évite de remonter au répertoire parent, pour par exeple, ne copier qu'un bout du site | ||
+ | </ | ||
+ | |||
+ | ====Ressources==== | ||
+ | |||
+ | * https:// | ||
+ | * http:// | ||
+ | * https:// | ||
+ | {{tag> |
archiver_et_rendre_statique_un_wiki.txt · Dernière modification : 2024/02/27 11:27 de Benjamin Labomedia