Outils pour utilisateurs

Outils du site


archiver_et_rendre_statique_un_wiki

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
a:archiver_et_rendre_statique_un_wiki [2019/05/06 06:54] – [Téléchargement] sergearchiver_et_rendre_statique_un_wiki [2024/02/27 11:27] (Version actuelle) – [Avec httrack] Benjamin Labomedia
Ligne 1: Ligne 1:
-====== Archiver et rendre statique un wiki ======+====== Archiver et rendre statique un site web ======
  
-=====Préparation===== +Voir aussi le projet [[https://github.com/rhizome-conifer/conifer|Conifer]] de [[https://rhizome.org|Rhizome.org]] pour archiver des sites web complexes (net-art, javascript, ...)
-====Ajouter sur la page d’accueil un lien vers toutes les pages====+
  
-y compris: +===== Avec httrack =====
-  * les pages des espaces de nom spécifique ! +
-  * les pages en edit +
-Exemple: +
-  * https://wiki.labomedia.org/index.php/index.html+
  
-<code xml> +[[https://www.httrack.com/|httrack]] est un logiciel qui aspire un site avec de nombreuses options et qui peut aussi s'executer en ligne de commande. Souvent meilleur que wget, c'est surement le meilleur choix actuellement.
-{| class="wikitable" style="color:red; background-color:#ffffcc;" cellpadding="10" +
-|Ce site est une archive statique du wiki archivé en 2018. Le nouveau wiki se trouve à cette adresse: '''https://ressources.labomedia.org/''+
-|}+
  
-{| class="wikitable" style="color:663399; background-color:#b6fcd5;" cellpadding="10" +Il suffit de l'installer via le gestionnaire de paquet de votre distribution Linux / BSD, ou via les binaires à télécharger sur le site pour Windows, OSX, Linux et même Android.
-|La recherche ne fonctionne pas: vous pouvez faire une recherche sur [[Toutes les pages|'''Toutes les pages''']] ou '''[[Liste des pages du précédent Wiki]]''' avec un CTRL+F. +
-|}+
  
-{| class="wikitable" style="color:aaaaaa; background-color:#dddddd;" cellpadding="10" +Une fois installé, lancer simplement en ligne de commande :
-|Pour les geeks [[Toutes les pages en edit|Toutes les pages avec le code mediawiki]]. +
-|} +
-</code>+
  
-====Ajouter un bandeau sur la page d'accueil==== +  httrack 
-  * Des explications +   
-  * Avec un lien de recherche vers Google sur votre wiki +Puis suivre le processus en répondant aux questions.
-Exemple:+
  
 +Par exemple, pour télécharger un site complet exemple.org (html, css, js, images, pdf...etc), en limitant à 4 connections / seconde, 400kb/s et 8 connections en même temps max :
  
-=====Téléchargement====+  httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path example.org --max-rate=409600 --connection-per-second=4 --sockets=8 --quiet https://exemple.org/ -* +exemple.org/
-Ne pas utiliser httrack qui veux toujours aspirer tous les internets !+  httrack --mirror --robots=0 --stay-on-same-domain --keep-links=0 --path /home/pipi/Documents/httrack --max-rate=67108854 --sockets=8 --quiet monsiteweb.org
  
-  wget  -c --mirror --no-parent --convert-links https://wiki.labomedia.org+===== Avec wget ===== 
 + 
 +Avec wget, ça aspire tout un site en bourrant le serveur de requêtes (attention à pas se faire bannir) : 
 + 
 +  wget --mirror --convert-links --html-extension wget --adjust-extension --page-requisites --no-parent -o log http://monsite.org 
 +   
 +Cela aspirera le site en écrivant tout ce qu'il se passe dans un fichier log. En enlevant le paramètre <code>-o log</code> cela affichera tout devant vos yeux victorieux. Pour y aller + molo avec le nombre de requêtes par secondes, vous pouvez ajouer un paramètre <code>--wait=1</code> qui ne fera une requête que toutes les secondes. Du coup ça risque de durer un moment pour un gros site. Pour les autres paramètres : 
 + 
 +<code> 
 +--mirror : Equivalent à '-r -N -l inf --no-remove-listing', cela permet de faire un mirroir le + exact possible. 
 +</code> 
 +<code> 
 +--convert-links : Cela converti les liens après que le téléchargement est terminé pour relier les assets au HTML (pour une vue locale. Ce qu'il nous faut quoi). 
 +</code> 
 +<code> 
 +--html-extension : Ajoute une extension .html à tous les fichiers téléchargés. Votre Apache/Nginx/etc... vous remerciera. 
 +--adjust-extension : Ajoute les bonnes extensions aux noms de fichier(html or css) selon leur type 
 +--page-requisites : télécharge le CSS et les images pour bien afficher la page offline 
 +--no-parent : quand récursif, évite de remonter au répertoire parent, pour par exeple, ne copier qu'un bout du site 
 +</code>
  
 +====Ressources====
  
-{{tag>sb}}+  * https://alvinalexander.com/linux-unix/how-to-make-offline-mirror-copy-website-with-wget 
 +  * http://meng6.net/pages/computing/sysadmin/backup_mediawiki/ 
 +  * https://itprohelper.com/mirror-a-website-using-wget/
  
 +{{tag>web}}
archiver_et_rendre_statique_un_wiki.1557125688.txt.gz · Dernière modification : 2019/05/06 06:54 de serge