Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1555 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
neorion

Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
los
Спасибо. Полезная опция. Жаль, curl не умеет делать паузы между закачками. Надеюсь сервер меня не забанит.
Зато curl нативно поддерживает socks прокси (приходится использовать русский shadowsocks для доступа к сайту).
Добавил пресет в GUI:

Код:
curl --socks5 127.0.0.1:1060 -O --progress-bar --create-dirs --output-dir "_OUTPUT_" "_INPUT_" -A "Mozilla/5.0 (X11; Windows NT 6.1; rv:60.0) Gecko/20100101 Firefox/60.0"

Всего записей: 448 | Зарегистр. 02-10-2022 | Отправлено: 23:39 22-02-2023 | Исправлено: neorion, 05:08 23-02-2023
los

Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
neorion

Цитата:
Жаль, curl не умеет делать паузы между закачками.

под *nix можно использовать команду sleep. Или используйте wget с ключом '-w'

Всего записей: 7731 | Зарегистр. 08-09-2001 | Отправлено: 10:38 23-02-2023
DimitriusXZ

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Есть папка на FTP сервере.
В ней много файлов и папок c подпапками.
Как скачать эту папку целиком?

Всего записей: 885 | Зарегистр. 17-01-2010 | Отправлено: 20:41 14-03-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
DimitriusXZ
 
Да, легко: wget -rnH --cut-dirs=<num> --retr-symlinks -P<outdir> <url> где <num> число исключаемых из выходного пути каталогов верхнего уровня отсчитываемых от корневого каталога сервера. Например мы хотим скачать ftp://ftp.freebsd.org/pub/FreeBSD/ports/ports/ тогда пишем команду вида:
 
wget -rnH --cut-dirs=3 --retr-symlinks -P123 ftp://ftp.freebsd.org/pub/FreeBSD/ports/ports/
 
и в подкаталоге 123 будет создан каталог /ports со всеми его файлами и подкаталогами. А вышележащие каталоги ./ftp.freebsd.org  и ./pub/FreeBSD/ports/ будут исключены. ./ftp.freebsd.org устранит опция -nH, а ./pub/FreeBSD/ports/ уберёт --cut-dirs=3. Опции -r и -nH по правилам ОС UNIX т.к. у них нет общих элементов можно объединить в одну -rnH что мы и делаем для сокращения длины команды.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 22:51 14-03-2023 | Исправлено: Victor_VG, 23:09 14-03-2023
DimitriusXZ

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо.

Всего записей: 885 | Зарегистр. 17-01-2010 | Отправлено: 20:00 15-03-2023
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Релиз cURL 8.0 и 8.0.1

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 14:46 21-03-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
 
Ну, на curl.se я ещё вчера забрал бинарники curl 8.0.1, Released on the 2023-03-20. Только для винды их в лоб не взять - имя пакета не curl-8.0.1-win*-mingw.*, а curl-8.0.1_1-win*-mingw.* посему в теме cURL curld.cmd валяется.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 17:45 21-03-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Та почему не взять-то? Нормально забирается всё. Уже в какой-то из тем отвечал тебе.
И с сайта работает, и по директ линкам всё отлично отдаётся.

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 17:57 21-03-2023 | Исправлено: insorg, 17:57 21-03-2023
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Я вообще не вижу смысла в отдельной теме по cURL.
Надо бы сделать перенаправление в этот топик, а не в UNIX (неудачное решение). А в заголовке текущего топика перечислить все неинтерактивные загрузчики, которые тут и обсуждаются. Незачем плодить топики по одной и той же по своей сути теме и потом бегать между ними.

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 18:00 21-03-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
insorg
 
Я ответил там с результатами и скриншотами консоли. А насчёт директлинк-ов - их сначала надо получить, а к примеру возьмём со страницы загрузки любой Fixed URLs и скормим cURL - получим файл с именем latest.cgi и разбирайся с ним. Браузер интерпретирует HTML код страницы и по нему вычисляет реальный URL из тэгов A вида:

Код:
<a href="dl-8.0.1_1/curl-8.0.1_1-win64-mingw.zip" class="windl">curl for 64-bit</a>

и базового URL, но редиректа - перенаправления на внешний ресурс тут нет, зато есть необходимость построения URL на закачку из ряда фрагментов. А качалка это робот, а значит прежде чем он что-то сделает человек должен сформировать для него чёткую задачу.

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 20:22 21-03-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
Цитата:
сделать перенаправление в этот топик
Полностью согласен.
 
Victor_VG
Тогда там и отвечу.

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 20:33 21-03-2023 | Исправлено: insorg, 20:37 21-03-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
cURL for Windows 8.0.1 build 8.0.1_4 - обновлены ngtcp2 до v0.14.0 (была 0.13.1) и nghttp3 до v0.10.0 (была 0.9.0).

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 21:49 26-03-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
cURL for Windows 8.0.1 build 8.0.1_5 - обновлена ngtcp2 до v0.14.1 (была 0.14.0)

----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 21:53 31-03-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Отсюда забрать файлик курлой реально?

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 17:34 19-04-2023
Victor_VG



Tracker Mod
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
insorg
 
Да, легко - curl -C - -LRZO <URL> только текущий URL знай, а его легко считать любым браузером скопировав ссылку на первый же понравившийся сервер.
 
Кстати, и cURL обновился до 8.0.1_7 собранный с использованием OpenSSL 3.1.0:

Цитата:
curl 8.0.1  
 
libcurl/8.0.1 OpenSSL/3.1.0 (Schannel) zlib/1.2.13 brotli/1.0.9 zstd/1.5.5 WinIDN libssh2/1.10.0 nghttp2/1.52.0 ngtcp2/0.14.1 nghttp3/0.10.0 libgsasl/2.2.0
 
Release date: 2023-03-20
 
Protocols:  
 
dict file ftp ftps gopher gophers http https imap imaps ldap ldaps mqtt pop3 pop3s rtsp scp sftp smb smbs smtp smtps telnet tftp ws wss
 
Features:  
 
alt-svc AsynchDNS brotli gsasl HSTS HTTP2 HTTP3 HTTPS-proxy IDN IPv6 Kerberos Largefile libz MultiSSL NTLM SPNEGO SSL SSPI threadsafe TLS-SRP UnixSockets zstd



----------
Жив курилка! (Р. Ролан, "Кола Брюньон")
Xeon E5 2697v2/C602/128 GB PC3-14900L/GTX 1660 Ti, Xeon E5-2697v2/C602J/128 Gb PC3-14900L/GTX 1660 Ti

Всего записей: 34379 | Зарегистр. 31-07-2002 | Отправлено: 02:56 20-04-2023 | Исправлено: Victor_VG, 03:02 20-04-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Victor_VG
Цитата:
только текущий URL знай
Так в том и дело, что урл не знаем, а хочется сделать одной командой, чтобы при тыке по ней скачивалась всегда самая свежая, а не прибитая гвоздями.

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 16:18 20-04-2023
Jonmey

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
insorg

Цитата:
Отсюда забрать файлик курлой реально?

for example, simplest way

Код:
curl --data "id=2382&server_id=8" https://www.techpowerup.com/download/techpowerup-gpu-z/ -k -LJ --output GPU-Z.exe

Всего записей: 1377 | Зарегистр. 17-01-2011 | Отправлено: 03:22 21-04-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Jonmey
Цитата:

Код:
curl --data "id=2382&server_id=8" https://www.techpowerup.com/download/techpowerup-gpu-z/ -k -LJ --output GPU-Z.exe
Отлично сработало после добавления указанного --data.

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 18:25 28-04-2023
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
insorg
Только id от версии зависит

Всего записей: 12815 | Зарегистр. 11-03-2002 | Отправлено: 18:45 28-04-2023
insorg



Platinum Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ
Ждать облом после новой?

Всего записей: 17955 | Зарегистр. 04-11-2010 | Отправлено: 18:47 28-04-2023
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru