Ne želite samo članak ili pojedinačnu sliku, želitečitav web stranica. Koji je najlakši način da se sifoni sve?
Današnja pitanja i odgovori nam se javljaju zahvaljujući SuperUseru - podjele Stack Exchange-a, zajednice-driven grupiranja Q & A web stranica.
Slika je dostupna kao pozadina na GoodFonu.
Pitanje
Čitač SuperUser-a Joe ima jednostavan zahtjev:
How can I download all pages from a website?
Any platform is fine.
Svaka stranica, bez iznimke. Joe je na misiji.
Odgovor
Axxmasterr nudi pomoć pri dodjeli SuperUser programa:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Možemo preporučiti HTTRACK. To je zrela aplikacija koja obavlja posao. Što je sa arhivistima na ne-Windows platformama? Još jedan suradnik, Jonik, sugerira još jedan zreli i moćan alat:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Više pojedinosti potražite u Wgetovom priručniku i njegovim primjerima ili pogledajte ove:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Imate li nešto za objašnjenje? Zvuči u komentarima. Želite li pročitati više odgovora od drugih tehnoloških korisnika Stack Exchangea? Pogledajte ovdje cijelu raspravu.