Перейти из форума на сайт.

НовостиФайловые архивы
ПоискАктивные темыТоп лист
ПравилаКто в on-line?
Вход Забыли пароль? Первый раз на этом сайте? Регистрация
Компьютерный форум Ru.Board » Компьютеры » Программы » Wget

Модерирует : gyra, Maz

 Версия для печати • ПодписатьсяДобавить в закладки
Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Открыть новую тему     Написать ответ в эту тему

GaDiNa



Advanced Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
[ UNIX Shell ] || [ Рекурсивная загрузка веб-сайтов ] — родительские ветки.
 
GNU Wget

GNU Wget — это свободная неинтерактивная утилита для скачивания файлов по HTTP, HTTPS, FTP и FTPS (и только), обладающая самым базовым функционалом загрузки одиночных файлов и рекурсивной загрузки сайтов (HTTP) и директорий (FTP).
 

| Офсайт | Википедия | Фрешмит | Опен-хаб (бывш. Охлох) | Мануал | Ман | Ман (русск., устар.) | --help (русск.) |

 
Где взять.
Под GNU — уже стоит. Под FreeBSD — есть в портах. Под [Mac] OS X — собрать ванильный.  
Под Windows есть варианты: Cygwin | GNUWin32 (учитывайте зависимости) | Wget + OpenSSL by GetGnuWin32  | by TumaGonx Zakkum (он же osspack32 и The Moluccas  |  by Jernej Simoncc (32 и 64 бит отдельные пакеты) | Wget2.
.
 
Литература.
Popkov. Параметры программы wget
В. А. Петров. Wget — насос для Интернета
 
FAQ
 
Q: Можно ли простым перебором загрузить страницы (допустим) с первой по сотую, если их адреса:  
http://example.org/index?page=1
http://example.org/index?page=2
...
http://example.org/index?page=100
A: Вэ-гет не умеет делать инкрементальный перебор, поскольку это умеет делать любая командная оболочка. На Баше это делается так:
$ wget -E "http://example.org/index?page="{1..100}
Еще раз отметьте, {1..100} — это синтаксическая конструкция Баша, а не Вэ-гета. Эквивалентной этой будет команда:
$ for i in {1..100}; do wget -E "http://example.org/index?page=$i"; done
Или для cmd.exe:
for /l %i in (1,1,100) do wget -E "http://example.org/index?page=%i"
 
Q: А как собственно сайт целиком-то загрузить?
A: $ wget -mpEk "http://example.org"
Это, наверное, самый ходовой набор ключей, но вам, может быть, более подойдут другие. Что значит каждый — легко узнать в мане.
 
Q: Я хочу загрузить с сайта, требующего авторизации. Что делать?
A: Проще всего кинуть куда-нибудь файл с нужными (но лишние не помешают) куками в нетскэйповском формате, затем воспользоваться ключом --load-cookies.
$ wget --load-cookies cookies.txt бла-бла # файл cookies.txt в текущей директории
У Файрфокса куки в требуемом виде можно получить, воспользовавшись расширениями «Export Cookies» либо «Cookie.txt»; у Хрома — «Cookie.txt export»
 
Q: Не-ASCII символы сохраняются в именах файлов как %D0%A5%D1%83%D0%B9 (или того хуже), хотя локаль юникодная.
A: Укажите ключ --restrict-file-names=nocontrol,unix или --restrict-file-names=nocontrol,windows соответственно.
Если у вас Windows и локаль не юникодная — используйте вариант от Alex_Piggy с ключом --local-filesystem-encoding=ENCODING, где ENCODING — имя кодировки локали в терминах iconv. Текущую локаль cmd.exe можно проверить при помощи команды chcp. Для русской кириллицы в Windows обычно используется CP866.
 
Q: Известно, что можно приказать Вэ-гету обновить ранее загруженный файл, если на сервере новее или иного размера (ключ --timestamping, он же -N). Можно приказать учитывать только дату, но не размер (--timestamping --ignore-length). А можно ли учитывать только размер, но не дату?
A: При помощи одного только Wget’а — нет.  Возможна обработка получаемых заголовков файла при помощи средств командной оболочки. Пример для cmd.exe.
 
Q: Можно ли приказать Вэ-гету докачать файл, но только если он не изменился.
A: Нет, нельзя. Сочетание ключей -cN (--continue --timestamping), как можно было бы предположить, нужного эффекта не даст — «докачает» даже если файл изменился — получите в итоге мусор.
 
Q: Можно ли при рекурсивной загрузке ограничится только ссылками, содержащими параметр lang=ru, т.е. грузить:
http://example.org/index?lang=ru
http://example.org/page?id=1001&lang=ru
http://example.org/file?id=60&lang=ru&format=dvi
и не грузить:
http://example.org/index?lang=en
http://example.org/about?lang=fr
и т.д.
A: Для версий < 1.14 нет такой возможности.  
Общий вид URI: <протокол>://<логин>:<пароль>@<хост>:<порт>/<путь>?<параметры>#<якорь>. Так вот ключи -I (--include-directories) и -X (--exclude-directories) относятся только к пути, но не к параметрам.
В версиях > 1.14 возможно при использовании ключей --accept-regex / --reject-regex. Пример: --reject-regex "lang=[^r][^u]"
 
Q: Можно ли средствами Вэ-гета ограничить перечень загружаемых файлов по дате модификации (новее чем, старше чем)?
A: Нет такой возможности.
 
Q: Можно ли при рекурсивной или множественной загрузке произвольно задать целевые пути и/или имена файлов на основе пути/имени по-умолчанию (применить транслитерацию, отбросить хвостовую часть) или хотя бы независимо (сгенерировать случайно или по счетчику)?
A: Нет.
 
Q: То — нельзя, это — невозможно. Почему все так плохо?
A: Потому что Вэ-гет на настоящий момент — базовая программа, предоставляющая только самый базовый функционал. Если вы уперлись в потолок ее возможностей, просто смените ее на другой инструмент. Из неинтерактивных свободных программ наиболее функциональными будут:
aria2c — для загрузки одиночных файлов по HTTP(S), FTP, бит-торренту;
httrack — для рекурсивной загрузки («зеркалирования») веб-сайтов;
lftp — для работы по FTP, FTPS, SFTP, FISH, а также с листингами, отдаваемыми по HTTP(S) (пример).
curl — для работы с одиночными файлам по HTTP(S), FTP(S) и многими другими протоколами на более низком уровне.
wput — клон wget для аплоада файлов на удаленные FTP(S) сервера.
axel — клон wget для многопоточной загрузки одиночных файлов по протоколам HTTP(S) и FTP(S). Порты для Windows: 2.4, 2.16.1
 
Разное.
GUI для Wget’а
 

Смело правьте и дополняйте шапку, однако не забывайте отписываться об исправлениях и сохранять исходный вариант под #.

Всего записей: 1555 | Зарегистр. 17-06-2003 | Отправлено: 13:39 08-11-2003 | Исправлено: anynamer, 11:40 25-12-2023
Aeismann



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
чтобы при нахождении в локальном каталоге файла с тем же именем прога не дописывала в конце цифру, а просто заменяла файл на только что скачанный без всяких подтверждений.

Мда, меня тоже это интересует. Сколько ни бился, вгет либо не скачивает имеющиеся файлы, либо переименовывает. Правда, ситуация у меня немного другая - я хочу, чтобы качались все файлы, независимо от того, что уже есть на локальном диске. Неужели это только правкой исходников можно сделать?

Всего записей: 174 | Зарегистр. 24-10-2006 | Отправлено: 13:45 14-12-2007
popkov

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору

Цитата:
чтобы при нахождении в локальном каталоге файла с тем же именем прога не дописывала в конце цифру, а просто заменяла файл на только что скачанный без всяких подтверждений.  

А ты читал перевод справки на первой странице темы? Переводил давно, но мне кажется, что такая возможность есть - какая-то из опций (по-моему, --no-clobber).
 
Добавлено:

Цитата:
Правда, ситуация у меня немного другая - я хочу, чтобы качались все файлы, независимо от того, что уже есть на локальном диске. Неужели это только правкой исходников можно сделать?

Почему бы тогда просто не удалить все файлы с диска?

Всего записей: 1842 | Зарегистр. 22-03-2003 | Отправлено: 18:23 14-12-2007
12341234

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Прошу помощи у гуру, сам не могу понять как сделать.
Нужно скачать ссылки по шаблону
 
http://site.ru/catalog/?file=N
 
где N число от 1 до  1000
 
Т.е. не генерить эти ссылки в файл а потом оттуда их подгружать, а задать сразу в командной строке командой, чтобы wget пошел и стал их последовательно брать
 
http://site.ru/catalog/?file=1
http://site.ru/catalog/?file=2
http://site.ru/catalog/?file=3
..............
http://site.ru/catalog/?file=1000
 
а потом остановился.
Как это можно реализовать? Спасибо

Всего записей: 188 | Зарегистр. 13-01-2003 | Отправлено: 07:44 15-12-2007
01MDM



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
12341234

Код:
 
for /l %%i in (1,1,1000) do wget http://site.ru/catalog/?file=%%i
 


Всего записей: 2638 | Зарегистр. 13-02-2006 | Отправлено: 09:42 15-12-2007
12341234

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
У меня ошибку синтаксиса выдает, если это из командной строки вызывать, нужно по другому вызвать?

Всего записей: 188 | Зарегистр. 13-01-2003 | Отправлено: 14:22 15-12-2007
01MDM



Silver Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
12341234
Если просто из ком. строки, то вместо %%i используй %i (с одним знаком процента). Если из батника то %%i будет верно.

Код:
 
Из комстроки
for /l %i in (1,1,1000) do wget http://site.ru/catalog/?file=%i
 
Из батника
for /l %%i in (1,1,1000) do wget http://site.ru/catalog/?file=%%i  
 
 

Всего записей: 2638 | Зарегистр. 13-02-2006 | Отправлено: 15:17 15-12-2007 | Исправлено: 01MDM, 15:21 15-12-2007
12341234

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
01MDM
Спасибо огромное!. Все работает в windows. А в *nix как такое же проделать? В командной строке?

Всего записей: 188 | Зарегистр. 13-01-2003 | Отправлено: 18:31 15-12-2007
Alex_Dragon



Full Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
wget по идее позволяет загрузку файлов с использованием шаблонов (wildcards), читаем хелп, раздел Types of Files:
When downloading material from the web, you will often want to restrict the retrieval to only certain file types. For example, if you are interested in downloading GIFs, you will not be overjoyed to get loads of PostScript documents, and vice versa.  
 
Wget offers two options to deal with this problem. Each option description lists a short name, a long name, and the equivalent command in .wgetrc.  
-A acclist  
--accept acclist  
accept = acclist  
The argument to --accept option is a list of file suffixes or patterns that Wget will download during recursive retrieval. A suffix is the ending part of a file, and consists of "normal" letters, e.g. gif or .jpg. A matching pattern contains shell-like wildcards, e.g. books* or zelazny*196[0-9]*.  
 
So, specifying wget -A gif,jpg will make Wget download only the files ending with gif or jpg, i.e. GIFs and JPEGs. On the other hand, wget -A "zelazny*196[0-9]*" will download only files beginning with zelazny and containing numbers from 1960 to 1969 anywhere within. Look up the manual of your shell for a description of how pattern matching works.  
 
Of course, any number of suffixes and patterns can be combined into a comma-separated list, and given as an argument to -A.  
-R rejlist  
--reject rejlist  
reject = rejlist  
The --reject option works the same way as --accept, only its logic is the reverse; Wget will download all files except the ones matching the suffixes (or patterns) in the list.  
 
So, if you want to download a whole page except for the cumbersome MPEGs and .AU files, you can use wget -R mpg,mpeg,au. Analogously, to download all files except the ones beginning with bjork, use wget -R "bjork*". The quotes are to prevent expansion by the shell.  
 
The -A and -R options may be combined to achieve even better fine-tuning of which files to retrieve. E.g. wget -A "*zelazny*" -R .ps will download all the files having zelazny as a part of their name, but not the PostScript files.  
 
Note that these two options do not affect the downloading of HTML files; Wget must load all the HTMLs to know where to go at all--recursive retrieval would make no sense otherwise.

Всего записей: 422 | Зарегистр. 05-01-2002 | Отправлено: 19:35 15-12-2007
Aeismann



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
popkov

Цитата:
А ты читал перевод справки на первой странице темы? Переводил давно, но мне кажется, что такая возможность есть - какая-то из опций (по-моему, --no-clobber).

Я читал исходный мануал, но всё равно не нашел, как решить проблему. --no-clobber работает только с новыми файлами.

Цитата:
Почему бы тогда просто не удалить все файлы с диска?

Дело в том, что мне надо получить список файлов в директории, для этого запусскаю вгет как паука (spider). Но даже в этом режиме он не рассматривает те файлы, которые уже есть на диске. Можно, конечно, отправлять его в левую папку... тоже мысль, но хотелось бы без этих ухищрений.

Всего записей: 174 | Зарегистр. 24-10-2006 | Отправлено: 21:36 16-12-2007
popkov

Advanced Member
Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору
Aeismann

Цитата:
Дело в том, что мне надо получить список файлов в директории

Тогда и используй опцию  --spider! Ничего не будет сохраняться на диске, но в логе будут адреса всех файлов, имеющихся на сервере!
P.S. А какую цель ты в конечном счёте преследуешь?

Всего записей: 1842 | Зарегистр. 22-03-2003 | Отправлено: 03:35 17-12-2007
vovney

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
еще вопрос. надо выкачать все это ftp://ftp.avp.ru/bases/ на локальный диск, а потом зеркалировать с некоторой периодичностью.
 
батник такого вида, и со всеми вариациями дает только один результат - в папку на локальном диске сохраняется файл index.html, отображающий как раз, что лежит на ftp://ftp.avp.ru/bases/  
 
ничего не понимаю... (в файле list2.html как раз стоит адрес ftp://ftp.avp.ru/bases/)
 
D:\wget\wget.exe --proxy-user=user --proxy-password=pass --passive-ftp -i list2.html -nd -P D:\avp_test\bases
 
Добавлено:
вот такое пишет
 
Proxy request sent, awaiting response... 200 OK
Length: 3а252 (3.2K) [text/html]
Last-modified header missing -- time-stamps turned off.
--12:24:00--  ftp://ftp.avp.ru/bases/
           => `D:/avp_test/bases/index.html'
Connecting to 192.168.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: 3а252 (3.2K) [text/html]
 
100%[====================================>] 3а252         --.--K/s
 
12:24:00 (116.86 MB/s) - `D:/avp_test/bases/index.html' saved [3252/3252]
 
 
FINISHED --12:24:00--
Downloaded: 3а252 bytes in 1 files
 
помогите плз
 
Добавлено:
D:\wget\wget.exe --proxy-user=user --proxy-password=pass --passive-ftp -m ftp://ftp.avp.ru/bases/ -PD:\avp_test\bases
 
такой батник дает тот же резалт. что я делаю не так?
 
Добавлено:
вот эта фраза настораживает : Last-modified header missing -- time-stamps turned off.
 
то есть на фтп у касперского отрублена возможность узнавать по запросу даты изменения файлов?
 
Добавлено:
или блин всё дело в сквиде?
 
Добавлено:
короче резюмирую. при попытке скачать любые ФАЙЛЫ или списки файлов по ссылкам, все работает. и зеркалируется. но как только пытаюсь выкачать именно каталоги вида ftp://ftp.avp.ru/bases/ закачивает только index.html и все. а при ключе -m выводит вот это : Last-modified header missing -- time-stamps turned off.
 
чо делать?

Всего записей: 114 | Зарегистр. 13-12-2007 | Отправлено: 09:18 17-12-2007
Aeismann



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
popkov

Цитата:
Тогда и используй опцию  --spider! Ничего не будет сохраняться на диске, но в логе будут адреса всех файлов, имеющихся на сервере!

Я так и делаю, и если закачка "новая", то всё отлично. Но если некоторые файлы уже существуют, то вгет не пишет их в лог даже в режиме спайдера.
Цель у меня такая: закачивать вгетом файлы с фтп, а потом проверять, все ли закачаны (для этого и нужен список), а также нет ли битых (это зипы). Пока сделал в два прохода - один спайдером, для получения списка файлов, и один закачивающий.
 
vovney, была такая байда. Именно при закачке с фтп. Похоже, что глюк в части взаимодействия вгета с HTTP-proxy, мне из-за этого пришлось перетаскивать его под socks5 через FreeCap. Иначе никак не получалось.
P.S. Если попробуешь качнуть напрямую, уверен, что всё будет ОК.

Всего записей: 174 | Зарегистр. 24-10-2006 | Отправлено: 10:42 17-12-2007 | Исправлено: Aeismann, 10:50 17-12-2007
vovney

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aeismann
дык напрямую это понятно, но там список файлов можно задолбаться составлять... ладно, будем думать.
 
интересно - а просто родная команда ftp умеет корректно зеркалировать через сквид-прокси? кто пробовал?

Всего записей: 114 | Зарегистр. 13-12-2007 | Отправлено: 10:59 17-12-2007
Asmix

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vovney
 
попробуй так:
 
D:\wget\wget.exe --proxy-user=user --proxy-password=pass --passive-ftp -m ftp://ftp.avp.ru/bases -PD:\avp_test\bases
 
или если не хочешь чтобы в D:\avp_test\bases создавалась ftp.avp.ru\bases:
 
D:\wget\wget.exe --proxy-user=user --proxy-password=pass --passive-ftp -m -nd ftp://ftp.avp.ru/bases -PD:\avp_test\bases

Всего записей: 45 | Зарегистр. 11-10-2005 | Отправлено: 12:32 17-12-2007 | Исправлено: Asmix, 12:36 17-12-2007
vovney

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Asmix не, через проксю вообще не хочет работать. а тестово локальный фтп нормально зеркалирует...

Всего записей: 114 | Зарегистр. 13-12-2007 | Отправлено: 13:13 17-12-2007
vovney

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
народ, ну что - никто не зеркалил удаленный фтп через прокси squid? второй день бьюсь - все так же выдает только index.html

Всего записей: 114 | Зарегистр. 13-12-2007 | Отправлено: 05:57 19-12-2007
Cheery



.:МордератоР:.
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
vovney

Цитата:
второй день бьюсь - все так же выдает только index.html  

да потому что используется http протокол на момент работы с проксей, по видимому.
вот и генерится список файлов в html, который wget парсить не умеет.
так мне кажется

----------
Away/DND

Всего записей: 52737 | Зарегистр. 04-04-2002 | Отправлено: 06:00 19-12-2007
vovney

Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Cheery и что теперь делать? использовать другое ПО? тогда посоветуйте какое именно?

Всего записей: 114 | Зарегистр. 13-12-2007 | Отправлено: 07:27 19-12-2007
Aeismann



Junior Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору

Цитата:
вот и генерится список файлов в html, который wget парсить не умеет.  
так мне кажется

Можно попробовать сначала скачивать хтмл, а его уже потом парсить принудительно... не помню, пробовал ли я в своё время этот путь и есть ли там какие-то подводные камни.
vovney
Кроме как направлять вгет через сокс5 посредством FreeCap, я не нашёл выхода...

Всего записей: 174 | Зарегистр. 24-10-2006 | Отправлено: 10:41 19-12-2007
mithridat1



Gold Member
Редактировать | Профиль | Сообщение | Цитировать | Сообщить модератору
Aeismann

Цитата:
Кроме как направлять вгет через сокс5 посредством FreeCap, я не нашёл выхода...

 
Как вариант можно найти http-proxy с поддержкой форвардинга на socks-proxy
Мне известен только один - Privoxy,правда,ftp он не поддерживает.
В общем,это скорее общее замечание по поводу соксификации wget.

Всего записей: 5025 | Зарегистр. 05-01-2006 | Отправлено: 10:50 19-12-2007
Открыть новую тему     Написать ответ в эту тему

Страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Компьютерный форум Ru.Board » Компьютеры » Программы » Wget


Реклама на форуме Ru.Board.

Powered by Ikonboard "v2.1.7b" © 2000 Ikonboard.com
Modified by Ru.B0ard
© Ru.B0ard 2000-2024

BitCoin: 1NGG1chHtUvrtEqjeerQCKDMUi6S6CG4iC

Рейтинг.ru