1
escriba el comando wget
http://example.com
para descargar la página principal de un sitio web . Reemplazar " example.com " por el nombre del sitio que desea descargar. La página Web se almacena en un directorio que tiene el mismo nombre que el sitio que descarga, por ejemplo, " example.com ".
2
Escriba el comando
wget -m http://example.com
para descargar todas las páginas , o espejo, una página web .
3
Escriba el comando
wget - . convert- links- m http://example.com
para convertir todos los enlaces contenidos en el sitio web a archivos locales
4
Escriba el comando
wget -H -r - level = 1 -k -p http://example.com
para descargar todas las páginas de un sitio web además de todas las páginas de enlaces que el sitio .
5
Escriba el comando
wget -nc -m http://example.com
para continuar (-c ) que diariamente descargan el contenido de un sitio si falla la conexión a Internet .
6
Crear un archivo de texto que contiene los sitios que desea descargar . A continuación, escriba el comando
wget -i websites.txt
descargar todos los sitios que figuran en el archivo de texto . Reemplazar " websites.txt " con el nombre del archivo de texto que ha creado.
7
Escriba el comando wget
http://example.com/images/* . Jpeg
para descargar sólo las imágenes JPEG de un sitio web en particular.
8
Escriba el comando
wget- h
para ver una lista de todas las opciones disponibles para el comando wget .