archiver_et_rendre_statique_un_wiki
Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
a:archiver_et_rendre_statique_un_wiki [2019/05/06 06:54] – [Téléchargement] serge | archiver_et_rendre_statique_un_wiki [2024/02/27 11:27] (Version actuelle) – [Avec httrack] Benjamin Labomedia | ||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
- | ====== Archiver et rendre statique un wiki ====== | + | ====== Archiver et rendre statique un site web ====== |
- | =====Préparation===== | + | Voir aussi le projet [[https:// |
- | ====Ajouter sur la page d’accueil un lien vers toutes les pages==== | + | |
- | y compris: | + | ===== Avec httrack ===== |
- | * les pages des espaces de nom spécifique ! | + | |
- | * les pages en edit | + | |
- | Exemple: | + | |
- | * https:// | + | |
- | <code xml> | + | [[https://www.httrack.com/|httrack]] est un logiciel qui aspire un site avec de nombreuses options et qui peut aussi s'executer en ligne de commande. Souvent meilleur que wget, c'est surement le meilleur choix actuellement. |
- | {| class=" | + | |
- | |Ce site est une archive statique du wiki archivé en 2018. Le nouveau wiki se trouve à cette adresse: ''' | + | |
- | |} | + | |
- | {| class=" | + | Il suffit de l'installer via le gestionnaire de paquet de votre distribution Linux / BSD, ou via les binaires à télécharger sur le site pour Windows, OSX, Linux et même Android. |
- | |La recherche ne fonctionne pas: vous pouvez faire une recherche sur [[Toutes les pages|''' | + | |
- | |} | + | |
- | {| class=" | + | Une fois installé, lancer simplement en ligne de commande |
- | |Pour les geeks [[Toutes les pages en edit|Toutes les pages avec le code mediawiki]]. | + | |
- | |} | + | |
- | </ | + | |
- | ====Ajouter un bandeau sur la page d' | + | httrack |
- | | + | |
- | * Avec un lien de recherche vers Google sur votre wiki | + | Puis suivre le processus en répondant aux questions. |
- | Exemple: | + | |
+ | Par exemple, pour télécharger un site complet exemple.org (html, css, js, images, pdf...etc), en limitant à 4 connections / seconde, 400kb/s et 8 connections en même temps max : | ||
- | =====Téléchargement===== | + | httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path example.org --max-rate=409600 --connection-per-second=4 --sockets=8 --quiet https:// |
- | Ne pas utiliser httrack qui veux toujours aspirer tous les internets ! | + | httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path / |
- | | + | ===== Avec wget ===== |
+ | |||
+ | Avec wget, ça aspire tout un site en bourrant le serveur de requêtes (attention à pas se faire bannir) : | ||
+ | |||
+ | wget --mirror | ||
+ | |||
+ | Cela aspirera le site en écrivant tout ce qu'il se passe dans un fichier log. En enlevant le paramètre < | ||
+ | |||
+ | < | ||
+ | --mirror : Equivalent à '-r -N -l inf --no-remove-listing', | ||
+ | </ | ||
+ | < | ||
+ | --convert-links : Cela converti les liens après que le téléchargement est terminé pour relier les assets au HTML (pour une vue locale. Ce qu'il nous faut quoi). | ||
+ | </ | ||
+ | < | ||
+ | --html-extension : Ajoute une extension .html à tous les fichiers téléchargés. Votre Apache/Nginx/etc... vous remerciera. | ||
+ | --adjust-extension : Ajoute les bonnes extensions aux noms de fichier(html or css) selon leur type | ||
+ | --page-requisites : télécharge le CSS et les images pour bien afficher la page offline | ||
+ | --no-parent : quand récursif, évite de remonter au répertoire parent, pour par exeple, ne copier qu'un bout du site | ||
+ | </ | ||
+ | ====Ressources==== | ||
- | {{tag> | + | * https:// |
+ | * http:// | ||
+ | * https:// | ||
+ | {{tag> |
archiver_et_rendre_statique_un_wiki.1557125688.txt.gz · Dernière modification : 2019/05/06 06:54 de serge