Интернет

Как скачать весь сайт для чтения в автономном режиме

Как скачать весь сайт для чтения в автономном режиме

Хотя в наши дни Wi-Fi доступен везде , время от времени вы можете оказаться без него. И когда вы это делаете, могут быть определенные веб-сайты, которые вы хотели бы сохранить и получить к ним доступ в автономном режиме — возможно, для исследований, развлечений или для потомков.

Достаточно легко сохранить отдельные веб-страницы для чтения в автономном режиме , но что, если вы хотите загрузить весь веб-сайт ? Ну, это проще, чем вы думаете! Вот четыре изящных инструмента, которые вы можете использовать, чтобы загрузить любой веб-сайт для чтения в автономном режиме, без каких-либо усилий.

1. WebCopy

Читать сайт в автономном режиме с помощью WebCopy

Доступно только для Windows.

WebCopy by Cyotek берет URL-адрес веб-сайта и сканирует его на наличие ссылок, страниц и мультимедиа. Когда он находит страницы, он рекурсивно ищет дополнительные ссылки, страницы и медиа, пока не будет обнаружен весь сайт. Затем вы можете использовать параметры конфигурации, чтобы решить, какие части загрузить в автономном режиме.

Интересной особенностью WebCopy является то, что вы можете настроить несколько «проектов», каждый из которых имеет свои собственные настройки и конфигурации. Это позволяет легко перезагружать много разных сайтов в любое время, каждый из которых точно таким же образом каждый раз.

Один проект может копировать множество веб-сайтов, поэтому используйте их с организованным планом (например, «технический» проект для копирования технических сайтов).

Как скачать весь сайт с помощью WebCopy

  1. Установите и запустите приложение.
  2. Перейдите к File> New, чтобы создать новый проект.
  3. Введите URL-адрес в поле « Веб-сайт» .
  4. Измените поле Сохранить папку, где вы хотите сохранить сайт.
  5. Поиграйте с Project> Rules… ( узнайте больше о правилах WebCopy ).
  6. Перейдите в Файл> Сохранить как…, чтобы сохранить проект.
  7. Нажмите « Копировать сайт» на панели инструментов, чтобы начать процесс.

После завершения копирования вы можете использовать вкладку «Результаты», чтобы увидеть состояние каждой отдельной страницы и / или файла мультимедиа. На вкладке «Ошибки» отображаются все возможные проблемы, а на вкладке «Пропущенные» отображаются файлы, которые не были загружены.

Но наиболее важным является файл Sitemap, который показывает полную структуру каталогов сайта, обнаруженную WebCopy.

Для просмотра веб-сайта в автономном режиме откройте проводник и перейдите к указанной папке для сохранения. Откройте index.html (или иногда index.htm ) в своем браузере, чтобы начать просмотр.

2. HTTrack

Захват веб-страницы для чтения в автономном режиме с WinHTTRack

Доступно для Windows, Linux и Android.

HTTrack более известен, чем WebCopy, и, возможно, лучше, потому что он с открытым исходным кодом и доступен на платформах, отличных от Windows, но интерфейс немного неуклюжий и оставляет желать лучшего. Тем не менее, это работает хорошо, так что не позволяйте этому отвлечь вас.

Как и WebCopy, он использует проектный подход, который позволяет копировать несколько веб-сайтов и сохранять их все организованными. Вы можете приостановить и возобновить загрузку, а также обновить скопированные веб-сайты, повторно загрузив старые и новые файлы.

Как скачать сайт с HTTrack

  1. Установите и запустите приложение.
  2. Нажмите Далее, чтобы начать создание нового проекта.
  3. Дайте проекту имя, категорию, базовый путь и нажмите « Далее» .
  4. Выберите « Загрузить веб-сайты» для «Действие», затем введите URL-адрес каждого веб-сайта в поле « Веб-адреса» , по одному URL-адресу на строку. Вы также можете хранить URL-адреса в TXT-файле и импортировать его, что удобно, если вы хотите повторно загрузить те же сайты позже. Нажмите Далее .
  5. Настройте параметры, если хотите, затем нажмите Готово .

После того, как все загружено, вы можете просматривать сайт как обычно, зайдя туда, куда были загружены файлы и открыв index.html или index.htm в браузере.

3. SiteSucker

SiteSucker копирует сайты для просмотра в автономном режиме

Доступно для Mac и iOS.

Если вы на Mac, ваш лучший вариант — SiteSucker . Этот простой инструмент разрывает целые веб-сайты и поддерживает одинаковую общую структуру, а также включает в себя все соответствующие медиа-файлы (например, изображения, PDF-файлы, таблицы стилей).

Он имеет чистый и простой в использовании интерфейс, который не может быть проще в использовании: вы буквально вставляете URL-адрес веб-сайта и нажимаете Enter.

Одной из отличных функций является возможность сохранить загрузку в файл, а затем использовать этот файл для повторной загрузки таких же файлов и структуры в будущем (или на другом компьютере). Эта функция также позволяет SiteSucker приостанавливать и возобновлять загрузку.

SiteSucker стоит 5 долларов и не поставляется с бесплатной версией или бесплатной пробной версией, что является ее самым большим недостатком. Последняя версия требует macOS 10.13 High Sierra или более поздней версии. Более старые версии SiteSucker доступны для более старых систем Mac, но некоторые функции могут отсутствовать.

4. Wget

Доступно для Windows, Mac и Linux.

Wget — это утилита командной строки, которая может извлекать все виды файлов по протоколам HTTP и FTP. Поскольку веб-сайты обслуживаются по протоколу HTTP, а большинство файлов мультимедиа доступны через HTTP или FTP, это делает Wget отличным инструментом для копирования веб-сайтов.

Хотя Wget обычно используется для загрузки отдельных файлов, его можно использовать для рекурсивной загрузки всех страниц и файлов, найденных на начальной странице:

wget -r -p //www..com 

Однако некоторые сайты могут обнаружить и предотвратить то, что вы пытаетесь сделать, потому что копирование сайта может стоить им большой пропускной способности. Чтобы обойти это, вы можете замаскировать себя как веб-браузер с помощью строки агента пользователя:

 wget -r -p -U Mozilla //www..com 

Если вы хотите быть вежливым, вам также следует ограничить скорость загрузки (чтобы не перегружать пропускную способность веб-сервера) и делать паузу между каждой загрузкой (чтобы не перегружать веб-сервер слишком большим количеством запросов):

 wget -r -p -U Mozilla --wait=10 --limit-rate=35K //www..com 

Wget поставляется в комплекте с большинством Unix-систем. На Mac вы можете установить Wget с помощью одной команды Homebrew: brew install wget ( как настроить Homebrew на Mac ). В Windows вам нужно будет использовать эту портированную версию .

Какие сайты вы хотите скачать?

Теперь, когда вы знаете, как загрузить весь веб-сайт, вам никогда не придется ничего не читать, даже если у вас нет доступа к Интернету.

Но помните: чем больше сайт, тем больше загрузка. Мы не рекомендуем скачивать огромные сайты, такие как , потому что вам понадобятся тысячи МБ для хранения всех используемых нами медиа-файлов.

Лучшие сайты для загрузки — это сайты с большим количеством текста и небольшим количеством изображений, а также сайты, которые регулярно не добавляют новые страницы или не меняют их. Статические информационные сайты, сайты с электронными книгами и сайты, которые вы хотите архивировать в случае их отказа, идеальны.

Если вам интересны дополнительные параметры для чтения в автономном режиме, посмотрите, как настроить Google Chrome для чтения книг в автономном режиме. настроить Google Chrome для чтения книг в автономном режиме настроить Google Chrome для чтения книг в автономном режиме И для других способов чтения длинных статей а не загружайте их, ознакомьтесь с нашими советами и рекомендациями.

Изображение предоставлено: RawPixel.com/Shutterstock

Похожие посты
Интернет

Google Store Лучшие предложения

Интернет

Руководство по специальному режиму в сети

Интернет

10 советов по безопасности беспроводной домашней сети

Интернет

САН против НАН