Новости        Телеология        en

Компьютерра
Свободно-распространяемых средств загрузки отдельных файлов или целых сайтов, конечно, множество. ...лично мне, да и многим другим пользователям импонирует, ставшая классической утилита wget. Пользоваться ей просто: wget http://3d.domain.com/file.txt В текущую директорию загружается файл file.txt.

Если, по каким-либо причинам загрузка была остановлена, то можно начать качать с места на котором связь оборвалась. При этом, догрузка должна поддерживаться сервером с той стороны: wget -c http://3d.domain.com/file.txt Посмотрим, что можно сделать действительно интересного с wget. Допустим, у нас есть длинный файл longfile, где перечислены ссылки и, кроме того, мы хотим сохранить результат в директории mydir: wget -P mydir -i longfile Чтобы получить точную копию сайта, используем такую комбинацию: wget -r -t1 http://www.softerra.ru/ Здесь дополнительная опция -t1 указывает, что будет произведена однократная попытка чтения каждого документа.

Иногда хочется, чтобы загружались и все сайты, ссылки на которые встречаются в загружаемом документе: wget -H На этом мы не останавливаемся и хотим загрузить, так чтобы не грузились картинки .jpg: wget -R.jpg А если наоборот, хотим только картинок, пишем: wget -A.jpg
Wget качает очень активно, забирая себе всю ёмкость канала. Что-бы уменьшить его аппетиты, можно запустить, например с такой опцией: wget --limit-rate=10K
Конечно, wget можно и очень удобно использовать в скриптах, в том числе периодических, таких как cron. Приятного использования. Читайте: man wget

2001-2024 Лицензия CC BY-NC-ND Денис Полевой