Strona 1 z 1

Ściąganie całych serwisów www

: 25 sty 2011, 08:26
autor: Qleer
Witam,
Jestem początkującym użytkownikiem ubuntu dlatego mam pytanie możliwe, że dosyć banalne :)
Czy jest aplikacja lub skrypt w ubuntu który umożliwi ściąganie całych serwisów www (grafik, stylów css, html, js itp.) na dysk maksymalnie do X linku wewnętrznego. Np
http://www.strona.pl/strona.html
http://www.strona.pl/kategorie/strona.html
http://www.strona.pl/kategorie/cos/strona.html <!- maksymalny 3 odnosnik wewnetrzny serwisu

Jeśli nie będę musiał pisać skrypt sam :P

#Edit
Pośpieszyłem się httrack jest do tego idealny :) Temat do zamknięcie, przepraszam! :)

Odp: Ściąganie całych serwisów www

: 25 sty 2011, 13:31
autor: darthsidious
Nazywa się to wget

Odp: Ściąganie całych serwisów www

: 26 sty 2011, 00:59
autor: Qleer
Wget umożliwia ściąganie stron www razem z stylami css, skryptami js etc.?

Odp: Ściąganie całych serwisów www

: 26 sty 2011, 09:22
autor: mario_7