Как скопировать сайт целиком если сайт уже оффлайн (хостинг выдает заглушку - Извините сайт наработает ...), но страницы сайта есть еще в webarchive и в cache гугла. Какими средствами можно скопировать то что осталось и собрать хоть как то информаци воедино? Посоветуйте автоматические или полуавтоматические способы. (как собрать руками я примерно понимаю)
Вдруг кому будет интересно.
Нашел следующее решение. На сайте - https://github.com/h...hine-downloader подробно изложен механизм работы скрипта Wayback Machine Downloader.
Не знаю как это работает в Windows но на Мак достаточно просто:
1. Запускаем Terminal
2. Пишем команду - gem install wayback_machine_downloader но у меня она не сработала пришлось написать вот так - sudo gem install wayback_machine_downloader нажимаем Enter и ждем установки примерно 2 минуты.
3. После установки пишем команду - wayback_machine_downloader http://названиесайта.com и нажимаем Enter и ждем когда скрипт посчитает сколько надо скачать и потом начинается скачивание. Примерно у меня на выкачивание сайта ушло минут 40.
Плюс в том что качает всю сохраненную копию в том числе и картинки и текст.
PS Сейчас ищу варианты загрузить скачанный сайт на localhost в Wordpress Пока даже и не представляю как это сделать))))