Как скачать сайт целиком на Windows и Linux?

Загрузить сайт целиком в Windows и Linux

Сейчас я вам расскажу как вы можете скачать сайт целиком. Для чего это может понадобится? чтобы иметь доступ к нужному сайту без доступа в интернет. Примеров может быть много, на работе системный администратор может закрыть доступ к нужному сайту, то есть дома скачали и принесли на работу его).

Скачивать сайты будем с помощью программ для Windows, стандартных утилит для Linux, и конечно же онлайн web-сервисов.

Начнем мы конечно с онлайн web-сервисов, для того чтобы не устанавливать себе на компьютер нечего лишнего.

Начнем с моего веб-сервиса:

download_project

 

На втором месте бесплатный сервис site2zip.ru

site2zip

Скачивается все очень просто, указываем лишь адрес сайта, и вводим код с картинки.

 

Теперь расскажу про программы и утилиты с помощью которых можно скачать сайт. Для Windows можете использовать HTTrack WebSite Copier.

skachat-sait-tselikom-03

Интерфейс установки на английском языке, но после установке можно выбрать русский язык. Поддерживается множество настроек. Так же для Windows можно скачать бесплатную утилиту, wget.

А для Linux для скачивания сайта можно использовать стандартную утилиту wget.

Wget — это утилита, предназначена для загрузки файлов по сети. У wget довольно много настроек, я здесь разберу лишь основные.

Пример скачивания сайта:

 

После выполнения данной команды в директорию site.com будет загружена локальная копия сайта http://site.com. Чтобы открыть главную страницу сайта нужно открыть файл index.html.

Рассмотрим используемые параметры:

-r указывает на то, что нужно рекурсивно переходить по ссылкам на сайте, чтобы скачивать страницы.
-k используется для того, чтобы wget преобразовал все ссылки в скаченных файлах таким образом, чтобы по ним можно было переходить на локальном компьютере (в автономном режиме).
-p указывает на то, что нужно загрузить все файлы, которые требуются для отображения страниц (изображения, css и т.д.).
-l определяет максимальную глубину вложенности страниц, которые wget должен скачать (по умолчанию значение равно 5, в примере мы установили 7). В большинстве случаев сайты имеют страницы с большой степенью вложенности и wget может просто «закопаться», скачивая новые страницы. Чтобы этого не произошло можно использовать параметр -l.
-E добавлять к загруженным файлам расширение .html.
-nc при использовании данного параметра существующие файлы не будут перезаписаны. Это удобно, когда нужно продолжить загрузку сайта, прерванную в предыдущий раз.

2 комментария

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *