Strona 1 z 1
Pobranie strony internetowej
: 08 wrz 2010, 18:25
autor: Diesel
Chciałbym ściągnąć stronę internetową zatytułowaną Nikon D3S - test kompletną wraz z podstronami do 9-ej włącznie i przykładowymi testowymi zdjęciami zdjęciami(pliki do około kilku, kilkunastu MB, wymagają kliknięcia żeby je ściągnąć).
Link:
http://www.fotopolis.pl/index.php?n=10270
Często potrzebuję ściągać strony podobne do wyżej wymienionej, niestety na piechotę.
Jest to uciążliwe i czasochłonne.
Próbowałem to zrobić za pomocą graficznej nakładki na "wget", bez powodzenia.
Następnie próbowałem to zrobić w terminalu za pomocą "wget", też bez powodzenia.
Mimo użycia Google nie zdołałem znależć porady z użyciem przykładów (taka byłą by dla mnie zrozumiała).
Nie ukrywam, że terminala używam rzadko np. do upgrade Ubuntu 8.04 do 10.04.
Mimo to chętnie skorzystam z terminala, ale jakie wpisać polecenie?
Proszę o pomoc.
Odp: Pobranie strony internetowej
: 08 wrz 2010, 19:42
autor: stahoo23
Odp: Pobranie strony internetowej
: 08 wrz 2010, 20:42
autor: Diesel
Dziękuję za zainteresowanie moim problemem.
Artykuł czytałem przed napisaniem posta, komendy wypróbowałem, kilkaset MB niepotrzebnie ściągnąłem.
Prosiłem o pomoc znajomego administratora sieci w dużej firmie (na serwerach slack i bsd), Niestety nie zna wget-a.
Żeby napisać odpowiednie polecenie należy biegle poznać wget-a,
Staram się radzić sobie sam, samodzielnie instalowałem różne dystrybucje.
Obecnie używam Ubuntu LTS zainstalowanego na platformie amd64 w czerwcu 2006 roku i aktualizowanego via internet poprzez 8.04 do 10.04 LTS.
Drugiego PC-eta ( Pentium III Tualatin 1,4 GHz, 512 RAM) po nie całkiem udanych próbach z Ubuntu, Mintem i Fedorą od lipca 2010 roku obsługuje bezproblemowo Debian Lenny 5.0.6.
Jest wiele linuksowych manuali, poradników, zrzutów ekranów itp., jest również wiele gotowych recept dla mniej biegłych użytkowników i o taką receptę uprzejmie proszę.
Odp: Pobranie strony internetowej
: 08 wrz 2010, 21:07
autor: tomasiek
ScrapBook do Firefoxa? W opcjach ustawiasz jak daleko ma podążać za linkami, czy pobierać JS itp itd. IMO idealne i dostajesz od razu ładną stronkę.
Odp: Pobranie strony internetowej
: 09 wrz 2010, 16:08
autor: stahoo23
w sumie kilkanascie razy kliknac to nie az tak duzo

czasem mozna uzyc wget bardzo selektywnie, ale jesli na stronie jest w cholere odnosnikow ktorych nie potrzebujemy to i wget sam nie pomoze:)
mozna wiec
wget -E -H -k -K -p -r -l1
http://www.fotopolis.pl/index.php?n=10270&p=0
wygodnie dac l1 ale scignie sporo
tam sie linki zmieniaja tak:
Kod: Zaznacz cały
http://www.fotopolis.pl/index.php?n=10270&p=0
http://www.fotopolis.pl/index.php?n=10270&p=1
...
http://www.fotopolis.pl/index.php?n=10270&p=8
czyli jedna cyfra od 0 do 8 na koncu linka
mozna wiec sprobowac jakas petle z wget zeby mniej sciagnac
moze jeszcze ktos cos wymysli

Odp: Pobranie strony internetowej
: 09 wrz 2010, 18:38
autor: Diesel
Dziękuję!
Tomasiek:
Nie widzę zakładki opcje.
Stachoo23:
Kierunek dobry,ściągnąłem strony ale bez "oryginałów" zdjęć testowych ze strony dziewiątej.
Może dalsze wskazówki.