Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1555 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
idal

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Подробнее...

Всего записей: 2 | Зарегистр. 27-09-2016 | Отправлено: 13:48 27-09-2016
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
idal
Цитата:
Фарш невозможно провернуть назад....
И мясо из котлет не восстановишь...

Всего записей: 12813 | Зарегистр. 11-03-2002 | Отправлено: 14:21 27-09-2016
idal

Newbie
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
а подскажите тогда варианты скачиваний, что бы качать сразу 2 варинта
1 для просмотра  
2 для полной копии донора сайта с такой же иерархией, для последующего восстановления на хостинг

Всего записей: 2 | Зарегистр. 27-09-2016 | Отправлено: 14:43 27-09-2016 | Исправлено: idal, 17:55 27-09-2016
sanmal



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спрашиваю в самой живой ветке. Чем и как можно скачать изображения со страницы
http://rapala.fishing/products/jigging-rap
включая удаленные?

Всего записей: 300 | Зарегистр. 30-10-2008 | Отправлено: 17:11 29-09-2016 | Исправлено: sanmal, 17:14 29-09-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sanmal> Чем и как можно скачать изображения со страницы http://rapala.fishing/products/jigging-rap
 
Сабжем.  Втупую.  В чем проблема-то?
 
> включая удаленные?
 
Это какие?  Там, как я вижу, все локальные.
 
Добавлено:
> Втупую.
 
Ну то есть:
 
$ wget -U 'Mozilla/5.0' -m 'http://rapala.fishing/products/jigging-rap' -I '/sites/master.rapala.fishing/files/product-image-zoom/product_images/'

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 17:28 29-09-2016
sanmal



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Это какие?  Там, как я вижу, все локальные.

удаленные со страницы, но все еще хранящиеся в той директории

Цитата:
Ну то есть:  
 
$ wget -U 'Mozilla/5.0' -m 'http://rapala.fishing/products/jigging-rap' -I '/sites/master.rapala.fishing/files/product-image-zoom/product_images/'

а ничего почеловечнее с оболочкой нет?

Всего записей: 300 | Зарегистр. 30-10-2008 | Отправлено: 18:53 29-09-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sanmal
 
cURL с GUI cURL устроит? Но этот шелл за раз кушает один файл. Автор Дирк Пауль. cURL лучше тут взять http://winampplugins.co.uk/curl/ - гарантия работы на ХР т.к. сборка в GCC (VC++2012 - VC++2015 без специальных приёмов собирают код минимум под Vista).

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34360 | Зарегистр. 31-07-2002 | Отправлено: 22:16 29-09-2016
sanmal



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG

Цитата:
cURL с GUI cURL

при запуске консоль на полсекунды проскакивает

Цитата:
http://winampplugins.co.uk/curl/

то же самое, адрес ввожу, косоль проскочила и все.
Имел ввиду что то попроще, для блондинок, навроде httrack, шоб было куда адрес ввести с кнопкой старта, без вникая и шаманских танцов с бубном, как предлагается выше.

Всего записей: 300 | Зарегистр. 30-10-2008 | Отправлено: 04:54 30-09-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sanmal
 
А вы в С:\Downloads загляните. Говорят иной раз полезно. А что до блондинок - увы, сегодня человеку думать надо, а у блондинок от думанья цвет лица портится и морщины появляются...

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34360 | Зарегистр. 31-07-2002 | Отправлено: 05:46 30-09-2016 | Исправлено: Victor_VG, 06:05 30-09-2016
sanmal



Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
А вы в С:\Downloads загляните. Говорят иной раз полезно.

С чего ей там такой появиться, не было и нет.

Цитата:
А что до блондинок - увы, сегодня человеку думать надо, а у блондинок от думанья цвет лица портится и морщины появляются...

Думать всегда надо было, там где оно стоит, но это явно не тот случай. Ты вот ссылок дал, с таким же успехом можно и из шапки скачать, но пока разберешься что именно там качать и что именно с ними делать проще будет вручную эти 30 картинок сохранить. Забью, сорян за потраченное время

Всего записей: 300 | Зарегистр. 30-10-2008 | Отправлено: 09:11 30-09-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sanmal
 
Ваше дело.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34360 | Зарегистр. 31-07-2002 | Отправлено: 09:26 30-09-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Кто-нибудь расскажите на примере
https://ru.scribd.com/doc/182813282/%D0%90%D0%B2%D0%B0%D1%80%D0%B8%D0%B9%D0%BD%D0%BE-%D1%81%D0%BF%D0%B0%D1%81%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9-%D0%B8%D0%BD%D1%81%D1%82%D1%80%D1%83%D0%BC%D0%B5%D0%BD%D1%82-Holmatro как с помощью Wget скачивать книги.
На программу Wget натолкнуло сообщение : "Открыть код страницы, выдрать прямые ссылки на картинки. Потом скопировать их в *.bat файл и с помощью программы Wget поставить скачиваться",  
думаю это много лучше решение, чем мною практикуемое поштучное выдирание каждой страницы.  
С Wget ранее не был знаком, но присутствует желание познакомиться. Ещё не установленна, так как пока не знаю какую лучше ставить на W7.  

Всего записей: 1013 | Зарегистр. 03-02-2007 | Отправлено: 14:54 30-09-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
sanmal
>> Там, как я вижу, все локальные.
> удаленные со страницы, но все еще хранящиеся в той директории
 
Как вы себе это представляете?
 
> а ничего почеловечнее с оболочкой нет?
 
Что, простите?
 



Aalai, этот ваш Scribd — не такая уж безвестная гадость.  Вы полагаете, что вы первый, кому понадобилось написать такую программу, или просто хотите повелосипедировать?
 
> выдрать прямые ссылки на картинки
 
Картинки — картинками, так там же еще и текст есть.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 15:41 30-09-2016 | Исправлено: ASE_DAG, 15:53 30-09-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
повелосипедировать?  

откройте тайный смысл  

Цитата:
Картинки — картинками, так там же еще и текст есть.

В моём случае речь шла о картинках данный каталог был представлен для примера.
Но в общем то не против, если покажите как справляться и с исчезающим  текстом.

Всего записей: 1013 | Зарегистр. 03-02-2007 | Отправлено: 16:11 30-09-2016
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Aalai
Цитата:
откройте тайный смысл
тайный смысл в изобретении нового велосипеда...

Всего записей: 12813 | Зарегистр. 11-03-2002 | Отправлено: 19:09 30-09-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Нашёл книгу без подводных камней, где странички свободно перенесятся на комп
https://ru.scribd.com/document/104777495/%D0%93%D0%98%D0%9C%D0%A1-%D0%9E%D0%B3%D0%BD%D0%B8-%D0%B8-%D0%B7%D0%BD%D0%B0%D0%BA%D0%B8-%D0%B2%D0%BD%D1%83%D1%82%D1%80%D0%B5%D0%BD%D0%BD%D0%B8%D1%85-%D0%B2%D0%BE%D0%B4%D0%BD%D1%8B%D1%85-%D0%B8-%D0%BC%D0%BE%D1%80%D1%81%D0%BA%D0%B8%D1%85-%D0%BF%D1%83%D1%82%D0%B5%D0%B9
на её примере можно наконец то показать как работает Wget на похожих сайтах ?

Всего записей: 1013 | Зарегистр. 03-02-2007 | Отправлено: 23:00 30-09-2016
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aalai> на её примере можно наконец то показать как работает Wget на похожих сайтах?
 
Дался вам он, а?  Никак он на похожих сайтах не работает, там все на яваскрипте.


----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 00:13 01-10-2016
Aalai

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Никак

Коротко и ясно, нет бы так сразу.  
Похоже нарытое на просторах "...Открыть код страницы, выдрать прямые ссылки на картинки. Потом скопировать их в *.bat файл и с помощью программы Wget поставить скачиваться..." выдали за желаемое. Во дурят

Всего записей: 1013 | Зарегистр. 03-02-2007 | Отправлено: 03:37 01-10-2016
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aalai
 
Батник штука лишняя - вгет умеет работать со списками, но с вычисляемыми скриптами нет. Но можно поступить проще - вам часто нужно решать такую задачу? Если задача разовая, то возится с кучей инструментов нет смысла, но есть то, что может помочь - аддон для основанных на созданном ещё Netscape движке Gecko браузеров  FlashGot. С точки зрения пользователя это универсальный инструмент который вычисляет прямые ссылки на выбранные нами объекты и управляет их закачкой. При желании к нему можно прикрутить cURL, DownThenAll!, Wget или просто приказать браузеру своими средствами скачать выбранное - мультимедиа, только указанные нами ссылки, все что отыщет, все ссылки с нескольких страниц. Вот он и разберётся со скриптами, но не обещаю что он сможет вам помочь во всех 100% случаев.  
 
Иногда приходится самому смотреть исходники страницы и вручную восстанавливать "хитро спрятанные" ссылки. Я встречался со случаями когда ссылка строилась из группы сегментов и восстановить её мог только человек.  
 
Так что вот вам и ещё один сгодящийся в хозяйстве инструмент. Или можете воспользоваться готовой портативной сборкой SeaMonkey v2.40. Только у всех программ на движке Gecko есть встроенная проверка "Я запущена?" и если она уже запущена, то вторая копия не запускается, а ваша команда передаётся уже запущенной копии на исполнение.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34360 | Зарегистр. 31-07-2002 | Отправлено: 07:12 01-10-2016 | Исправлено: Victor_VG, 07:14 01-10-2016
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Victor_VG
Цитата:
восстановить её мог только человек
Ну не факт, есть, например, WebCopier Pro, умеет работать со скриптами

Всего записей: 12813 | Зарегистр. 11-03-2002 | Отправлено: 07:20 01-10-2016
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru