Anciennes révisionsLiens de retourExporter en PDFHaut de page Share via Share via... Twitter LinkedIn Facebook Pinterest Telegram WhatsApp Yammer RedditDerniers changementsSend via e-MailImprimerPermalien × httrack Depuis un moment je n'utilise plus trop wget mais httrack pour archiver des sites en HTML statique. guide httrack (site officiel) filtres http://konradpodgorski.com/blog/2013/10/20/how-to-recursively-download-an-entire-website-using-wget/ script bash Un petit script tout en un. Commencer par créer le répertoire et s'y rendre puis: echo "Archiver un site" echo "Entrer l'url du site" read url httrack -I0 --sockets=2 --keep-alive --cookies=0 -n -N4 -%P $url echo "Finished!" Old httrack http://LOCAL_URI -O . -N "%h%p/%n/index%[page].%t" -cWqQ%v --robots=0 puis find . -name "*.html" -type f -print0 | xargs -0 perl -i -pe "s/\/index.html/\//g" source: cet excellent article sur un archivage drupal, https://www.lullabot.com/articles/sending-a-drupal-site-into-retirement Alternatives https://scrapy.org/ WARCreate https://chrome.google.com/webstore/detail/warcreate/kenncghfghgolcbmckhiljgaabnpcaaa?hl=en&gl=US https://github.com/machawk1/wail/releases info/httrack.txt Dernière modification : 2023/08/15 08:49de radeff S'identifier