Tag

, ,

Con Wget è possibile scaricare un intero sito web, per una eventuale visualizzazione offline, ad esempio :
$ wget \
–recursive \
–no-clobber \
–page-requisites \
–html-extension \
–convert-links \
–restrict-file-names=windows \
–domains website.org \
–no-parent \
http://www.website.org/tutorials/html/

Questo il comando per scaricare il sito web http://www.website.org/tutorials/html/
Vediamo le opzioni :
* –recursive scarica l’intero sito web;
* –domains website.org non segue i link esterni a website.org;
* –no-parent non segue link al di fuori della directory tutorials/html/;
* –page-requisites scarica gli elementi che compongono la pagina, immagini CSS ed altro;
* –html-extension salva i file con l’estensione html;
* –convert-links converte i links, in modo che funzionino anche offline;
* –restrict-file-names=windows modifica i filenames in modo tale che essi lavoreranno in Windows;
* –no-clobber non sovrascrive alcun file esistente.

via armanz-world

Annunci