Pobieranie stron www

Jeśli już na pewno nie da się umieścić posta wyżej.
tomek3
Piegowaty Guziec
Piegowaty Guziec
Posty: 2
Rejestracja: 23 sie 2009, 13:54
Płeć: Mężczyzna
Wersja Ubuntu: 8.10

Pobieranie stron www

Post autor: tomek3 »

witam

Mam do pobrania pewną stronę internetową, całość, z obrazkami i wszystkim na niej zawartym. Odkryłem do tego celu opcję wgeta "--recursive", oczywiście działa to bardzo dobrze, interesuje mnie jednak czy jest jeszcze tam gdzieś taka opcja (albo jakiś inny program), który byłby w stanie taką ściągniętą stronę później uaktualnić. Przykładowo jeśli na stronie tej za jakiś czas się coś zmieni, chciałbym aby ten program pobrał jedynie te nowe/zmienione elementy (strona ta jest duża, trochę głupio co jakiś czas ściągać od nowa).

ps. uprzedzając wszelkie pytania - nie robię backupu internetu :P

dzięki
Awatar użytkownika
pyx-84
Sędziwy Jeż
Sędziwy Jeż
Posty: 97
Rejestracja: 28 paź 2008, 21:35
Płeć: Mężczyzna
Wersja Ubuntu: 10.04
Środowisko graficzne: GNOME
Architektura: x86_64

Odp: Pobieranie stron www

Post autor: pyx-84 »

tomek3 pisze:witam

Mam do pobrania pewną stronę internetową, całość, z obrazkami i wszystkim na niej zawartym. Odkryłem do tego celu opcję wgeta "--recursive", oczywiście działa to bardzo dobrze, interesuje mnie jednak czy jest jeszcze tam gdzieś taka opcja (albo jakiś inny program), który byłby w stanie taką ściągniętą stronę później uaktualnić. Przykładowo jeśli na stronie tej za jakiś czas się coś zmieni, chciałbym aby ten program pobrał jedynie te nowe/zmienione elementy (strona ta jest duża, trochę głupio co jakiś czas ściągać od nowa).

ps. uprzedzając wszelkie pytania - nie robię backupu internetu :P
dzięki

Kod: Zaznacz cały

wget -rpc http://google.images.backup_of_internet.html
:tes:
Software Should Be Free As In Freedom !
tomek3
Piegowaty Guziec
Piegowaty Guziec
Posty: 2
Rejestracja: 23 sie 2009, 13:54
Płeć: Mężczyzna
Wersja Ubuntu: 8.10

Odp: Pobieranie stron www

Post autor: tomek3 »

z tego co patrzę w helpie to "c" odpowiada za kontynuację częściowo pobranych plików, a "p" za pobieranie wszystkich plików potrzebnych by poprawnie wyświetlić stronę HTML, ale co mi to daje? chyba jeśli będę miał już tą stronę raz pobraną, i wpiszę te twoje komendy, to pobierze się jeszcze raz, czy jestem w błędzie?
Awatar użytkownika
pyx-84
Sędziwy Jeż
Sędziwy Jeż
Posty: 97
Rejestracja: 28 paź 2008, 21:35
Płeć: Mężczyzna
Wersja Ubuntu: 10.04
Środowisko graficzne: GNOME
Architektura: x86_64

Odp: Pobieranie stron www

Post autor: pyx-84 »

tomek3 pisze:z tego co patrzę w helpie to "c" odpowiada za kontynuację częściowo pobranych plików, a "p" za pobieranie wszystkich plików potrzebnych by poprawnie wyświetlić stronę HTML, ale co mi to daje? chyba jeśli będę miał już tą stronę raz pobraną, i wpiszę te twoje komendy, to pobierze się jeszcze raz, czy jestem w błędzie?
Jeżeli coś "padnie" to -c wznawia "continue".

Daje Ci to, że po pobraniu strona będzie normalnie się wyświetlać. http://www.google.pl/url?sa=t&source=we ... PVKCbK6Ysw albo http://www.linuxforums.org/forum/linux- ... linux.html

Choć wget i tak jest lepszy ;)
Software Should Be Free As In Freedom !
ODPOWIEDZ

Wróć do „Ostatnia deska ratunku”

Kto jest online

Użytkownicy przeglądający to forum: Google [Bot] i 5 gości