Торопись жить.
Доброго времени суток!
Помогите мне, пожалуйста. Мне сейчас по учебе нужно написать программу, которая скачивала бы все картинки с веб-страницы. В интернете я нашла готовую программу (но, правда, на С#, но мне очень нужно хотя бы от чего-то отталкиваться), она должна быть рабочей. Проблема в том, что у меня не работает кнопка "get", а вроде должна (остальное работает), раз эту программу выкладывают в инете как рабочую.
Кто-нибудь, запустите ее у себя, пожалуйста, и скажите, как оно работает у вас.
Буду очень благодарна за помощь.
Там внизу архив с прогой.
www.codeguru.com/columns/vb/how-to-use-visual-s...
Помогите мне, пожалуйста. Мне сейчас по учебе нужно написать программу, которая скачивала бы все картинки с веб-страницы. В интернете я нашла готовую программу (но, правда, на С#, но мне очень нужно хотя бы от чего-то отталкиваться), она должна быть рабочей. Проблема в том, что у меня не работает кнопка "get", а вроде должна (остальное работает), раз эту программу выкладывают в инете как рабочую.
Кто-нибудь, запустите ее у себя, пожалуйста, и скажите, как оно работает у вас.
Буду очень благодарна за помощь.
Там внизу архив с прогой.
www.codeguru.com/columns/vb/how-to-use-visual-s...
> В интернете я нашла готовую программу (но, правда, на С#, но мне очень нужно хотя бы от чего-то отталкиваться), она должна быть рабочей.
Судя по этой фразе не очень понятно – обязательно именно шарп?
Алгоритм:
1. Скачать исходный код страницы. Так как он является обычным текстовым файлом, то и работать с ним можно как с текстом.
2. Найти все ссылки, картинки обычно находятся внутри тега img, аттрибут src и выглядят примерно так:
< img src="example.com/img/hi.gif" alt="Hello">
3. Отфильтровать их по расширению картинок (gif, png, jpg, jpeg, ico, ...)
4. Сделать из исходного текста просто список ссылок на картинки
5. Скачать их все по ссылкам
Вот, например, рабочее cli-решение на wget+grep, всего три строки:
wget -qO- m.diary.ru/~programming/p196304126.htm | # Шаг 1
grep -ohE "\S*[.](gif|jpg|jpeg|png|ico)" | # Шаги 2, 3 и 4
xargs -n1 wget -iq # Шаг 5
Или улучшенный вариант (точнее определение ссылок) на lynx+grep+awk+wget, рабочее cli-решение:
lynx -image_links -dump m.diary.ru/~programming/p196304126.htm | # Шаги 1 и 2
grep 'gif\|jpg\|jpeg\|png\|ico' | # Шаг 3
grep http | # Шаг 4 начало
awk '{print $2}' | # Шаг 4 продолжение
xargs -n1 wget -iq # Шаг 5