Home Hardware Networking Programmazione Software Domanda Sistemi
Conoscenza Informatica >> sistemi >> Linux >> .

Come scaricare tutte le pagine di un sito Web in Linux

Il sistema operativo Linux utilizza il comando " wget " per scaricare le pagine Web al proprio computer , ed è possibile utilizzare questo comando per scaricare una singola pagina o un intero sito web . Ogni elemento del sito , comprese le immagini e altri dati , sarà copiato in una directory sul computer locale . Poiché la maggior parte dei siti web non vogliono di scaricare l'intero sito , hanno posto ostacoli in atto per evitare questo . Il comando " wget " dispone di opzioni che consentono di ignorare le ostruzioni . Istruzioni
1

Aprire una finestra di terminale tramite il "Utilità di sistema ", " Accessori " o " utilità " del menu principale .
2

Tipo " mkdir Sito web /"per creare la directory che conterrà le pagine web che si scarica , sostituendo" Sito " con qualsiasi nome che desideri .
3

Digitare" cd Website /"per navigare in directory creata , sostituendo "sito web" con il nome corretto della directory
4

Tipo " wget - wait = 25 - limit- rate = 20K -r - p - U Mozilla http . : //mysite.com , " sostituendo" http://mysite.com "con il nome del sito che si desidera scaricare e " Mozilla ", con il nome del vostro browser. L'opzione " wait" , dice per mettere in pausa 25 secondi tra ogni recupero , il " - limit- rate " opzione dice a limitare ogni download alla dimensione specificata
5

tipo " ls-l" a . elencare il contenuto della directory , quando il download è completato .

 

sistemi © www.354353.com