Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1555 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
useretail



BANNED
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
Имеются ссылки типа

-O filename
 
Добавлено:
а вообще wget очень примитивен

Всего записей: 4985 | Зарегистр. 14-09-2007 | Отправлено: 23:15 19-11-2015
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
useretail

Цитата:
-O filename

Я как бы в курсе этой опции,но для каждой ссылки подставлять замучаешься,особенно если их тысячи и параметры запроса генерятся автоматически и могут меняться.Браузеры сохраняют файлы с оригинальным расширением,без query string,а wget и curl не могут.Как браузеры это делают ? Может есть другой более продвинутый консольный http-загрузчик ?
 
Добавлено:
Сам спросил - сам ответил.
aria2c сохраняет без query string в названии.

----------
Если ты не понимаешь, что я говорю, и сомневаешься, верно ли все это, обрати внимание по крайней мере на то, не сомневаешься ли ты в самом этом сомнении своем (Августин Блаженный)

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 23:40 19-11-2015
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
wget.exe --user-agent="Mozilla/5.0 (Windows NT 5.1; rv:26.0) Gecko/20100101 Firefox/26.0 SeaMonkey/2.23" -i RuTrackerLinks.txt -r -p
 
Приветствую, уважаемые!
 
Приведенный код скачивает следующие ссылки из текстового файла

Код:
http://rutracker.org/forum/viewtopic.php?t=1945361
http://rutracker.org/forum/viewtopic.php?t=4573446

в эти папки

Код:
rutracker.org\forum\viewtopic.php@t=1945361
rutracker.org\forum\viewtopic.php@t=4573446

Возможна ли настройка, чтобы скачивалось следующим образом? —

Код:
r\194\t=1945361.html
r\457\t=4573446.html

Всего записей: 1437 | Зарегистр. 05-04-2010 | Отправлено: 06:46 23-11-2015 | Исправлено: D1D1D1D, 06:48 23-11-2015
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
mithridat1
Цитата:
--trust-server-names

 
Добавлено:
D1D1D1D
Средствами самого вгета такие изменения имен папок невозможны. Командным шеллом системы брать по одной и скармливать вгету, предварительно получив нужные имя пути

Всего записей: 12815 | Зарегистр. 11-03-2002 | Отправлено: 11:43 23-11-2015
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D, поскольку вы уже не первый задаете подобные вопросы, полагаю целесообразным дописать в ЧаВО в шапке:
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Дописал. Плюс небольшие изменения.
 
 
 

#: шапка версии mithridat1, 11:27 10-11-2014

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 14:03 23-11-2015 | Исправлено: ASE_DAG, 14:25 23-11-2015
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
А нет ли на примете примера похожей обработки?

Всего записей: 1437 | Зарегистр. 05-04-2010 | Отправлено: 14:26 23-11-2015
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
D1D1D1D, если под r/194/t=1945361.html имеется в виду относительное имя первого файла с которого начнется рекурсия, а не каталог, то примера нет, потому что это невозможно.
 
Тов. Pasha_ZZZ либо счел это, что это таки каталог, либо проглядел ключи -r -p.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 15:03 23-11-2015 | Исправлено: ASE_DAG, 15:04 23-11-2015
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Pasha_ZZZ

Цитата:
--trust-server-names  

Не помогает.На примере этого топика

Цитата:
 
wget --user-agent="Mozilla" --trust-server-names "http://forum.ru-board.com/topic.cgi?forum=5&bm=1&topic=10066&start=2220#lt"                    
--2015-11-23 15:16:02--  http://forum.ru-board.com/topic.cgi?forum=5&bm=1&topic=10066&start=2220
Resolving forum.ru-board.com... 72.233.112.78
Connecting to forum.ru-board.com|72.233.112.78|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Saving to: “topic.cgi?forum=5&bm=1&topic=10066&start=2220”
 
    [    <=>                                                                                                                               ] 59,948      56.1K/s   in 1.0s
 
2015-11-23 15:16:03 (56.1 KB/s) - “topic.cgi?forum=5&bm=1&topic=10066&start=2220” saved [59948]
 

 
А надо чтобы сохранялся как topic.cgi (применительно к нашему форуму это неправильно,но есть ресурсы у которых через query string передаются параметры авторизации к запрашиваемому файлу и браузеры такие ссылки загружают с правильными именами)

----------
Если ты не понимаешь, что я говорю, и сомневаешься, верно ли все это, обрати внимание по крайней мере на то, не сомневаешься ли ты в самом этом сомнении своем (Августин Блаженный)

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 15:20 23-11-2015 | Исправлено: mithridat1, 15:25 23-11-2015
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1
 
> А надо чтобы сохранялся как topic.cgi
 

Цитата:
FAQ
<...>
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.

 
> но есть ресурсы у которых через query string передаются параметры авторизации к запрашиваемому файлу и браузеры такие ссылки загружают с правильными именами
 
Вы про приложения (attachments)? Тогда --content-disposition.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 15:44 23-11-2015 | Исправлено: ASE_DAG, 15:50 23-11-2015
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
Это не есть произвольное имя,а самое что ни на есть оригинальное.
Не понимаю,почему aria2c и браузеры сохраняют файлы с правильными именами,а wget и curl обязательно прибавляют параметры запроса.
 
Добавлено:

Цитата:
Вы про приложения (attachments)? Тогда --content-disposition.

Нет,не аттачмент.Вот пример ссылки на плейлист  
http://vip2.ntvplus.tv/hls-live/audio-only-aac/livepkgr/_1025_/1025/1025-20.m3u8?audio-only=true&audio-codec=aac&(none)

----------
Если ты не понимаешь, что я говорю, и сомневаешься, верно ли все это, обрати внимание по крайней мере на то, не сомневаешься ли ты в самом этом сомнении своем (Августин Блаженный)

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 15:53 23-11-2015 | Исправлено: mithridat1, 16:12 23-11-2015
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1> Не понимаю,почему aria2c и браузеры сохраняют файлы с правильными именами, а wget и curl обязательно прибавляют параметры запроса.
 
Очевидно потому, что один только путь без параметров запроса никак не является уникальным идентификатором возвращаемого содержимого на сколь угодно глубоком уровне иерархии.
 
Добавлено:
> http://transit.ntvplus.tv/to/LIVE/1024/HLS/SD/Qrno8QyZxxfcNeVDf1WOkQ/1448298144/S-/playlist.m3u8?audio_only=1
 
Ну да; вы же видите, что playlist.m3u8?audio_only=1 и playlist.m3u8?audio_only=0 — это разные ресурсы, почему они должны сохранятся с одинаковым именем?
 
В данном случае уместно скорее посетовать на сам урл — если бы они делались для человека, а не для машины, плэйлисты бы назвали к примеру somechannel-audio.m3u8 и somechannel-video.m3u8.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 16:08 23-11-2015 | Исправлено: ASE_DAG, 16:15 23-11-2015
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
В этом примере - да.Но бывают

Цитата:
ресурсы у которых через query string передаются параметры авторизации к запрашиваемому файлу

и у них имя файла перед "?" является уникальным.Так вот,браузеры различают типы данных по ссылке и предлагают правильное имя файла.Плохо что у wget нет никаких опций для автоматического регулирования имяобразования.
 
Добавлено:
Вот другой пример (ссылка для вас не работает)
http://tpr199196sec-vh.akamaihd.net/i/secure/,SPE_-_Russia/510/247/HPR75308.mp4,.csmil/segment1_0_av.ts?null=&id=AgBUEntu2dT2Pb6hfFIxDHuOIh8SOPvIRgwwp7Q2BAY4+bNRD8XNvIj7cTuRoU8JSSZvZP6bJU9d4A%3d%3d
Здесь имя сегмента уникально,а вся прочая информация просто параметры доступа к нему.Flashget например уже при добавлении ссылки лишнюю часть отбрасывает.


----------
Если ты не понимаешь, что я говорю, и сомневаешься, верно ли все это, обрати внимание по крайней мере на то, не сомневаешься ли ты в самом этом сомнении своем (Августин Блаженный)

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 16:17 23-11-2015 | Исправлено: mithridat1, 16:27 23-11-2015
ASE_DAG



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1> Но бывают  
 
Доступного примера не найдете, да?
 
> браузеры различают типы данных по ссылке
 
А при чем здесь «типы данных»? Браузеру тут нечего определять. Либо он тупо отсекает параметры (что, имхо, есть недопустимое поведение по-умолчанию для неинтерактивного клиента, хотя как опцию иметь, возможно, и не мешало бы), либо имя ему передает сервер (при inline тоже можно указывать filename).  
 
В первом случае — никак. Во втором случае — --content-disposition.

----------
Dmitry Alexandrov <321942@gmail.com> [PGP] [BTC]

Всего записей: 9272 | Зарегистр. 12-05-2005 | Отправлено: 16:34 23-11-2015 | Исправлено: ASE_DAG, 16:35 23-11-2015
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
ASE_DAG
Отправил в ЛС.

----------
Если ты не понимаешь, что я говорю, и сомневаешься, верно ли все это, обрати внимание по крайней мере на то, не сомневаешься ли ты в самом этом сомнении своем (Августин Блаженный)

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 16:41 23-11-2015
chAlx

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
mithridat1:

Цитата:
у них имя файла перед "?" является уникальным.Так вот,браузеры различают типы данных по ссылке и предлагают правильное имя файла.

В HTTP-запросе нет никакого файла. Есть строка запроса, включающая имя сервера, путь (не к файлу, а просто некий маршрут к ресурсу) и GET-параметры. Часто это реализуется как такой же путь на сервере и одноимённый файл -- это просто частный случай.
 
Как уже отметил ASE_DAG, браузер -- интерактивный клиент. Он может на каждый файл спрашивать, куда и с каким именем его сохранять, а также что делать, если такой файл уже есть. Поэтому браузер при сохранении сам обрабатывает URL, отбрасывая "лишние" параметры.
 
Wget же пакетный клиент -- лишние вопросы в нём мешали бы использованию по прямому назначению (автоматизация). Зато в нём есть опции командной строки, позволяющие переназначить большинство выбираемых автоматически значений. Это ближе к парадигме Никсов (откуда wget портирован): каждая программа выполняет свою часть задачи и может легко передать результат другой программе (или получить). В Винде тоже есть возможность обработать строки в батнике или другом скрипте, но реализовано так, что никто не хочет лишний раз к этому прикасаться.

Всего записей: 1691 | Зарегистр. 19-03-2003 | Отправлено: 09:58 24-11-2015
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Друзья, прошу помощи. Скачиваю wget-ом список URL из файл-списка такими параметрами:
 
-P c:\Users\12345\Downloads -nd -b -i c:\Users\12345\Desktop\Spisok_URL.txt -o c:\Users\12345\Desktop\wget_log.txt
 
внутри файл-списка "Spisok_URL" некоторые ссылки читает напрямую с одного раза и быстро качает, а некоторые читает (то ли изучает, не пойму) по много раз (в среднем 20 раз), в конце концов такие ссылки не качает и только потом переходит к следующей ссылке. на это уходит много времени и загрузка из-за этого длится очень долго. один из таких ссылок вот:
 
http://intermodal.tumblr.com/post/42271323338
 
в логе показывает такое:
 
--2015-12-03 09:51:22--  http://intermodal.tumblr.com/post/42271323338
Connecting to intermodal.tumblr.com (intermodal.tumblr.com)|68.8.22.14|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: http://intermodal.tumblr.com/post/42271323338/%E5%91%BC%E7%A7%B0%E5%A5%A5%E5%A4%9A%E6%91%A9%E3%83%AD%E3%83%BC%E3%83%97%E3%82%A6%E3%82%A7%E3%82%A4-%E5%B0%8F%E6%B2%B3%E5%86%85%E8%A6%B3%E5%85%89%E9%96%8B%E7%99%BA%E6%A0%AA%E5%BC%8F%E4%BC%9A%E7%A4%BE-%E5%B7%9D%E9%87%8E%E9%A7%85-okutama-ropeway#_=_ [following]
Warning: wildcards not supported in HTTP.
--2015-12-03 09:51:22--  http://intermodal.tumblr.com/post/42271323338/e%11%3Cg'0e%25%25e$%1Af%11)c%03-c%03%3Cc%03%17c%02&c%02'c%02$-e0%0Ff23e%06%05h&3e%05%09i%16%0Bg%19:f%20*e%3C%0Fd%3C%1Ag$%3E-e7%1Di%07%0Ei'%05-okutama-ropeway
Connecting to intermodal.tumblr.com (intermodal.tumblr.com)|68.8.22.14|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: http://intermodal.tumblr.com/post/42271323338/%E5%91%BC%E7%A7%B0%E5%A5%A5%E5%A4%9A%E6%91%A9%E3%83%AD%E3%83%BC%E3%83%97%E3%82%A6%E3%82%A7%E3%82%A4-%E5%B0%8F%E6%B2%B3%E5%86%85%E8%A6%B3%E5%85%89%E9%96%8B%E7%99%BA%E6%A0%AA%E5%BC%8F%E4%BC%9A%E7%A4%BE-%E5%B7%9D%E9%87%8E%E9%A7%85-okutama-ropeway#_=_ [following]
Warning: wildcards not supported in HTTP.
--2015-12-03 09:51:23--  http://intermodal.tumblr.com/post/42271323338/e%11%3Cg'0e%25%25e$%1Af%11)c%03-c%03%3Cc%03%17c%02&c%02'c%02$-e0%0Ff23e%06%05h&3e%05%09i%16%0Bg%19:f%20*e%3C%0Fd%3C%1Ag$%3E-e7%1Di%07%0Ei'%05-okutama-ropeway
Connecting to intermodal.tumblr.com (intermodal.tumblr.com)|68.8.22.14|:80... connected.
HTTP request sent, awaiting response... 301 Moved Permanently
Location: http://intermodal.tumblr.com/post/42271323338/%E5%91%BC%E7%A7%B0%E5%A5%A5%E5%A4%9A%E6%91%A9%E3%83%AD%E3%83%BC%E3%83%97%E3%82%A6%E3%82%A7%E3%82%A4-%E5%B0%8F%E6%B2%B3%E5%86%85%E8%A6%B3%E5%85%89%E9%96%8B%E7%99%BA%E6%A0%AA%E5%BC%8F%E4%BC%9A%E7%A4%BE-%E5%B7%9D%E9%87%8E%E9%A7%85-okutama-ropeway#_=_ [following]
Warning: wildcards not supported in HTTP.
 
20 redirections exceeded.
 
.......
.........
...........
 
 
Подскажите пожалуйста друзья, как избежать этого многократного чтения одной и той же ссылки и [в лучшем случае] скачать с одного раза, а если все же невозможно такие ссылки скачать, то хотя бы обходить с первого раза.
 
Был бы очень благодарен за помощь.
 
P.S. Я в отчаянии.
 
P.P.S. Я из Армении.

Всего записей: 77 | Зарегистр. 13-06-2011 | Отправлено: 22:01 03-12-2015 | Исправлено: kollajjik, 22:36 03-12-2015
chAlx

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik:
 
Судя по 301 Moved, стоит добавить параметр --max-redirect=2 (по умолчанию обычно 20).
 
ПС: У меня качается, и без варнинга про wildcards (если речь про якорь #_=_, то он сервером никак не обрабатывается):
log
Да и запрос после исправления якоря не меняется, никаких e%11%3Cg'0 не появляется. Возможно, проблема с виндовым билдом (я на линухе проверял).
 
ППС:

Цитата:
 P. P. S. Я из Армении.

Вы-таки жалуетесь или хвастаетесь? ;)

Всего записей: 1691 | Зарегистр. 19-03-2003 | Отправлено: 22:33 03-12-2015 | Исправлено: chAlx, 22:39 03-12-2015
Pasha_ZZZ



Platinum Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
kollajjik
Чтобы качалось - --no-iri

Всего записей: 12815 | Зарегистр. 11-03-2002 | Отправлено: 22:35 03-12-2015
kollajjik

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Спасибо большое друзья, обе параметры работают - хочешь ставь в игнор, хочешь закачай, наслаждение просто .... а вы обе - Настоящие Инетные Хищники, можно даже сказать БаРРРакуды !!!

Всего записей: 77 | Зарегистр. 13-06-2011 | Отправлено: 09:53 04-12-2015 | Исправлено: kollajjik, 09:54 04-12-2015
D1D1D1D

Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
kollajjik
Точнее: "оба параметра", "оба хищника"))
 
--------------------------
 
Озадачился: можно ли скачивать посредством wget заблокированные в России страницы (например, определенный ЖЖ) — возможно, имитируя режим "опера турбо", как-то иначе?

Всего записей: 1437 | Зарегистр. 05-04-2010 | Отправлено: 21:58 13-12-2015
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru